Umetna inteligenca kot grožnja človekovim pravicam
Algoritmi, ki urejajo vsebino na spletu, so že cenzurirali različne govore, ki se nanašajo na različne tematike; od verske vsebine do spolne raznolikosti. Sistemi umetne inteligence, ustvarjeni za spremljanje nezakonitih dejavnosti, so bili uporabljeni za sledenje zagovornikom človekovih pravic in ciljanje nanje. Algoritmi so diskriminirali temnopolte, ko so bili uporabljeni za odkrivanje kožnega raka ali ocenjevanje nevarnosti pobega oseb, obtoženih kaznivih dejanj.
Etika in vrednote
Na spletni strani The Conversation so raziskovalci, ki preučujejo presečišče med umetno inteligenco in družbeno pravičnostjo, zapisali, da preučujejo rešitve, razvite za odpravljanje teh težav. Ugotovili so, da so uredbe za nadzor njenega delovanja precej ohlapne.
Nekatera podjetja prostovoljno sprejmejo etične okvire, ki jih je težko izvajati in imajo le malo konkretnih učinkov. Za to obstajata dva razloga. Prvič; etika temelji na vrednotah in ne na pravicah, etične vrednote pa se običajno razlikujejo od področja do področja. Drugič; teh okvirov ni mogoče uveljaviti, zato ljudje od korporacij težko zahtevajo odgovornost pri morebitnih kršitvah.
Kot je razvidno iz nedavno predlagane uredbe Evropske unije o umetni inteligenci, imajo celo poskusi oblikovanja takšnih zakonov pomanjkljivosti. Ta predlog zakona ocenjuje obseg tveganja, ki je povezan z različnimi možnostmi uporabe umetne inteligence, nato pa za te tehnologije določa obveznosti, ki so sorazmerne z njihovimi predlaganimi grožnjami.
Kot so poudarili pri neprofitni organizaciji za digitalne pravice Access Now, pa ta pristop ne naredi dovolj za zaščito človekovih pravic. Podjetjem namreč dovoljuje, da sprejmejo tehnologije umetne inteligence, dokler so njihova operativna tveganja nizka. Samo zato, ker so operativna tveganja minimalna, to še ne pomeni, da tveganja za človekove pravice ne obstajajo. V svojem bistvu je ta pristop zasidran v neenakosti, so navedli raziskovalci na The Conversation in dodali, da izhaja iz odnosa, ki temeljne svoboščine pojmuje kot predmet pogajanj.
Interesi industrije in državljanov
Poglejmo si Splošno uredbo Evropske unije o varstvu podatkov (GDPR), ki uporabnikom omogoča nadzor nad njihovimi osebnimi podatki, podjetja pa zavezuje k spoštovanju teh pravic. Čeprav je ta zakon pomemben korak k ostrejšemu varstvu podatkov v kibernetskem prostoru, ni imel želenega učinka. Raziskovalci za to ponovno navajajo dva razloga.
Prvič; prednostne rešitve uporabnikom ne omogočajo vedno konkretne mobilizacije njihovih človekovih pravic. Drugič; uporabnikom ne omogočajo razumevanja vrednosti varovanja njihovih osebnih podatkov. Pri pravicah do zasebnosti gre namreč za veliko več kot le za to, da imamo kaj skrivati.
Vsi ti pristopi poskušajo posredovati med subjektivnimi interesi državljanov in interesi industrije. Poskušajo zaščititi človekove pravice in hkrati zagotoviti, da sprejeti zakoni ne ovirajo tehnološkega napredka. Rezultat tega uravnoteženja je pogosto zgolj navidezna zaščita, ki ne zagotavlja konkretnih zaščitnih ukrepov za temeljne svoboščine državljanov.
Eden od pristopov, ki se uveljavlja, je znan kot »načrtovane človekove pravice«, pri čemer podjetja ne dovolijo zlorabe ali izkoriščanja kot del svojega poslovnega modela. Namesto tega se zavežejo, da bodo oblikovala orodja, tehnologije in storitve, ki bodo spoštovale človekove pravice.
Cilj tega pristopa je spodbuditi razvijalce umetne inteligence, da kategorično upoštevajo človekove pravice v vsaki fazi razvoja. Zagotavlja, da bodo algoritmi, ki se uporabljajo v družbi, odpravljali družbene neenakosti, ne pa jih še poglabljali. Omenjen pristop si prizadeva sprejemati ukrepe, ki so potrebni, da lahko umetno inteligenco oblikujemo mi in ne obratno.
Več iz rubrike
3D tisk pozitivno vpliva na gospodarstvo
Najpogosteje 3D tisk proizvaja slušne aparate, protetične pripomočke in tekaške copate.
Bomo trajnost dosegli z jedrsko fuzijo?
Znanstveniki dosegli stabilizacijo jedrskega zlivanja, kar je dober znak za prihodnost