Umetna inteligenca kot grožnja človekovim pravicam

Dogodki v zadnjih nekaj letih so razkrili številne kršitve človekovih pravic, ki so povezane z vse večjim napredkom umetne inteligence.
Fotografija: Ali potrebujemo zaščito pred umetno inteligenco? Foto: Voranc Vogel / Delo
Odpri galerijo
Ali potrebujemo zaščito pred umetno inteligenco? Foto: Voranc Vogel / Delo

Algoritmi, ki urejajo vsebino na spletu, so že cenzurirali različne govore, ki se nanašajo na različne tematike; od verske vsebine do spolne raznolikosti. Sistemi umetne inteligence, ustvarjeni za spremljanje nezakonitih dejavnosti, so bili uporabljeni za sledenje zagovornikom človekovih pravic in ciljanje nanje. Algoritmi so diskriminirali temnopolte, ko so bili uporabljeni za odkrivanje kožnega raka ali ocenjevanje nevarnosti pobega oseb, obtoženih kaznivih dejanj.

Etika in vrednote

Na spletni strani The Conversation so raziskovalci, ki preučujejo presečišče med umetno inteligenco in družbeno pravičnostjo, zapisali, da preučujejo rešitve, razvite za odpravljanje teh težav. Ugotovili so, da so uredbe za nadzor njenega delovanja precej ohlapne.

image_alt
Zaposlovanje s pomočjo umetne inteligence brez pristranskosti

Nekatera podjetja prostovoljno sprejmejo etične okvire, ki jih je težko izvajati in imajo le malo konkretnih učinkov. Za to obstajata dva razloga. Prvič; etika temelji na vrednotah in ne na pravicah, etične vrednote pa se običajno razlikujejo od področja do področja. Drugič; teh okvirov ni mogoče uveljaviti, zato ljudje od korporacij težko zahtevajo odgovornost pri morebitnih kršitvah.

Foto: Shutterstock
Foto: Shutterstock
Celo okvirji, ki so obvezni, kot je kanadsko orodje za ocenjevanje vpliva algoritmov, delujejo zgolj kot smernice, ki podpirajo najboljše prakse. Navsezadnje samoregulativni pristopi ne naredijo veliko več kot to, da odložijo razvoj in izvajanje zakonov za urejanje uporabe umetne inteligence, so zapisali raziskovalci.

Kot je razvidno iz nedavno predlagane uredbe Evropske unije o umetni inteligenci, imajo celo poskusi oblikovanja takšnih zakonov pomanjkljivosti. Ta predlog zakona ocenjuje obseg tveganja, ki je povezan z različnimi možnostmi uporabe umetne inteligence, nato pa za te tehnologije določa obveznosti, ki so sorazmerne z njihovimi predlaganimi grožnjami.

image_alt
Kaj se dogaja za zaprtimi vrati plešočih robotov Boston Dynamics

Kot so poudarili pri neprofitni organizaciji za digitalne pravice Access Now, pa ta pristop ne naredi dovolj za zaščito človekovih pravic. Podjetjem namreč dovoljuje, da sprejmejo tehnologije umetne inteligence, dokler so njihova operativna tveganja nizka. Samo zato, ker so operativna tveganja minimalna, to še ne pomeni, da tveganja za človekove pravice ne obstajajo. V svojem bistvu je ta pristop zasidran v neenakosti, so navedli raziskovalci na The Conversation in dodali, da izhaja iz odnosa, ki temeljne svoboščine pojmuje kot predmet pogajanj.

Interesi industrije in državljanov

Poglejmo si Splošno uredbo Evropske unije o varstvu podatkov (GDPR), ki uporabnikom omogoča nadzor nad njihovimi osebnimi podatki, podjetja pa zavezuje k spoštovanju teh pravic. Čeprav je ta zakon pomemben korak k ostrejšemu varstvu podatkov v kibernetskem prostoru, ni imel želenega učinka. Raziskovalci za to ponovno navajajo dva razloga.

image_alt
Odprtje trgovin brez blagajn, v katerih kupec vzame izdelke in odide

Prvič; prednostne rešitve uporabnikom ne omogočajo vedno konkretne mobilizacije njihovih človekovih pravic. Drugič; uporabnikom ne omogočajo razumevanja vrednosti varovanja njihovih osebnih podatkov. Pri pravicah do zasebnosti gre namreč za veliko več kot le za to, da imamo kaj skrivati.

Vsi ti pristopi poskušajo posredovati med subjektivnimi interesi državljanov in interesi industrije. Poskušajo zaščititi človekove pravice in hkrati zagotoviti, da sprejeti zakoni ne ovirajo tehnološkega napredka. Rezultat tega uravnoteženja je pogosto zgolj navidezna zaščita, ki ne zagotavlja konkretnih zaščitnih ukrepov za temeljne svoboščine državljanov.

Foto: Guliver / Getty images
Foto: Guliver / Getty images
Da bi to dosegli, morajo biti sprejete rešitve prilagojene potrebam in interesom posameznikov, vsaka rešitev pa mora vključevati tudi sodelovanje državljanov, menijo strokovnjaki. Zakonodajni pristopi skušajo urediti le negativne stranske učinke tehnologije, namesto da bi obravnavali njihove ideološke in družbene pristranskosti. Vendar kasnejše obravnavanje kršitev človekovih pravic, ki jih povzroči tehnologija, ni dovolj. Tehnološke rešitve morajo temeljiti predvsem na načelih družbene pravičnosti in človeškega dostojanstva, ne pa na tehnoloških tveganjih. Razvijati jih je treba ob upoštevanju človekovih pravic, da se zagotovi ustrezna zaščita.

Eden od pristopov, ki se uveljavlja, je znan kot »načrtovane človekove pravice«, pri čemer podjetja ne dovolijo zlorabe ali izkoriščanja kot del svojega poslovnega modela. Namesto tega se zavežejo, da bodo oblikovala orodja, tehnologije in storitve, ki bodo spoštovale človekove pravice.

image_alt
Prvi robot z državljanstvom želi imeti otroke in uničiti človeštvo

Cilj tega pristopa je spodbuditi razvijalce umetne inteligence, da kategorično upoštevajo človekove pravice v vsaki fazi razvoja. Zagotavlja, da bodo algoritmi, ki se uporabljajo v družbi, odpravljali družbene neenakosti, ne pa jih še poglabljali. Omenjen pristop si prizadeva sprejemati ukrepe, ki so potrebni, da lahko umetno inteligenco oblikujemo mi in ne obratno.

Več iz rubrike