
Je znanstveni sodelavec Centra za praktično etiko Uehiro in znanstveni sodelavec za informacijsko politiko oddelka za računalništvo, pa tudi profesor na oddelku za ekonomijo Ameriške univerze v Washingtonu ter Univerze v Exetru. Med njegova najnovejša dela sodijo Četrta revolucija: Kako infosfera preoblikuje človeško resničnost, Etika informacij in Filozofija informacij.
Floridi zagovarja tezo, da je znanje oblikovanje in da je filozofija končna oblika tega konceptualnega oblikovanja. Filozofija kot konceptualni inženiring je oblikovanje pravih idej, interpretacij in konceptualnih modelov, ki skupaj – kot sestavine v mehanizmu – razlagajo resničnost, v kateri živimo, in naše življenje v njej.
V Slovenijo je prišel v času Microsoftove konference, največjega tehnološko poslovnega dogodka pri nas, kjer je v petih predavanjih za različno občinstvo razlagal, česa naj nas bo v prihodnosti zares strah.
Ste gledali serijo Black Mirror?
Ja. Nekaj delov, ne preveč. To je premočno za moj želodec.
Verjetno vas je odvrnil prvi del prve sezone, kjer izsiljevalci prisilijo britanskega premierja javno občevati s prašičem?
Ta del je grozljiv.
Kaj pa ostale karikature, ki jih slikata ustvarjalca serije, lahko postanejo realnost? To sprašujem zato, ker je revija Wired ravno v majski številki našla kar nekaj primerov razvoja tehnologije v realnosti, ki jih je serija prikazovala. So to stvari, katerih nas je lahko strah?
Teorija singularnosti je popolnoma zgrešena in nesmiselna teorija, ki jo je razširila holivudska propaganda. Temelji ne nekaj preprostih, večinoma napačnih domnevah. Če se s tal povzpnete na vrh drevesa, to ni korak bliže luni, ampak je to vaš zadnji in najvišji cilj, kamor lahko pridete. Više od vrha drevesa ne morete.
To je izvlečeno iz konteksta, gre za posamezne primere razvoja tehnologije. V realnosti pa jih ne uporabljamo tako, kot to prikazuje serija. Ta je zasnovana kot miselni eksperiment. Gre za »predstavljamo si, kaj če«. A v resnici se svet in zgodovina ne razvijata in ne spreminjata tako hitro. V Veliki Britaniji – verjamem pa, da tudi drugje – za pošiljanje dokumentov še marsikje uporabljajo telefaks. Poleg tega uporabljajo tudi elektronsko pošto, 5G, umetno inteligenco in drugo. Tehnologije in inovacije se v resnici zelo počasi razvijajo. Trik serije Black Mirror je v tem, da prikazuje, kaj se zgodi, če neka tehnologija nenadoma pride v družbo in se zaradi nje spremeni popolnoma vse. V resničnem življenju lahko vidimo, kot na primeru zgoraj omenjenega telefaksa, da nove tehnologije ne nadomestijo starih, ampak so jim v večini primerov komplementarne. Zakaj vedno govorimo le o primeru, kako je avto zamenjal kočijo? Kaj pa električni brivniki? Res ne uporabljamo več običajnih britvic in ne hodimo k brivcu? Smo res nehali pisati na roko in brati knjige v fizični obliki? Če damo vse na kup in pogledamo, kako zelo počasi se v različnih kontekstih dogaja razvoj in kako komplementarne so inovacije med seboj, potem Black Mirror ni nič več kot dobra znanstvena fantastika. Kar naenkrat se vse spremeni in zamenja vse, kar je bilo v preteklosti. To ne deluje tako. Iztrebljevalec je veliko boljši primer.
Kaj vas glede umetne inteligence in tehnološke prihodnosti torej najbolj straši?
Način, kako bo človek uporabljal tehnologijo. Ta ima izjemno moč, od nas ljudi pa je odvisno, kako previdno in s kakšnim namenom jo bomo uporabljali. To me skrbi. Imamo avtonomno orožje, ki je dostopno že danes. To ni znanstvena fantastika. Tehnologije prepoznavanja obrazov se že množično uporabljajo na Kitajskem in v ZDA. Najbolj me torej straši zloraba umetne inteligence s strani človeka, nikakor pa ne sama tehnologija.
Kakšne so zlovešče strani prepoznavanja obrazov?
Nadzor, ki ga omogoča. Zaradi dejstva, da smo opazovani in prepoznani, se spreminja naše obnašanje, sčasoma pa tudi narava. S tem postavljamo pod vprašaj razvoj individuuma in spontano vedenje. Čeprav sem po rodu Italijan, vozim zelo previdno in po predpisih. Ko se zraven mene vozi policijsko vozilo, postanem rahlo živčen, takoj pomislim, da sem nekaj storil narobe. V primeru prepoznavanja obrazov, če bomo torej stalno nadzorovani, bo to vplivalo na človeka in njegovo obnašanje, na koncu bo spremenilo njega kot živo bitje. Stalen občutek »previdno, opazujemo vas« bo imel posledice. Kot otrokom so nam vedno govorili, da nas Bog gleda, zato nas je bilo strah, če smo kaj ušpičili. To funkcijo danes prevzema tehnologija prepoznavanja obrazov.
Ali ni to dobro za družbo, saj bomo preprečili dodatne prometne nesreče in kriminal? Pravijo tudi – če sem ironična –, da tistih, ki nimajo nič skrivati, nadzor ne bi smel skrbeti.
Ne kupim ideje, da mladi danes nimajo zasebnosti, in v svoje stališče sem prepričan. Ta ideja je smešna. In ni resnična. Imajo pa drugačno dojemanje zasebnosti.
Naše življenje ni črno in belo, dobro in slabo. Je mešanica obojega. Predstavljajte si, da kuhate. Včasih dodate več soli, včasih manj, a je vseeno dobro. Kuhanje vašega življenja je enako, v njem imate tudi nekaj majhnih napak, včasih ste zelo delovni, včasih se več zabavate. Še vedno ste dobra oseba, ki živi dobro življenje. Sem na dolgi poti, vozim zbrano, a na neki točki se zamislim nad nečim in vozim pet kilometrov prehitro. Naprava me fotografira in mi pošlje položnico, v sistemu pa sem zaveden kot prekrškar. Pa sem res? Je prav, da imamo tak sistem, ki pozna le dobro in slabo? Policist bi mi tako vožnjo oprostil, ker bi videl, da sem zbran, da vozim umirjeno. Računalnik pa tega ne zmore, zato mi pošlje položnico ter me kaznuje in me vnese v sistem.
Dobro moralno življenje je vsakodnevno življenje, ko dobiš več kot izgubiš. To je dobro življenje. Ampak vedno zgolj zmagovati in niti enkrat izgubiti? To je nemogoče, nismo svetniki. Tehnologija prepoznavanja obrazov pa te umesti na eno ali drugo stran in ne dovoljuje prostora za eksperimentiranje. Nekaj majhnih napak v resnici ne odloča o ničemer in te ne naredi nemoralnega človeka. Če se torej vrnem k vprašanju, kaj me skrbi. Če bomo s tehnologijami nadzorovali takšne zadeve in umeščali ljudi na eno ali drugo stran, torej ali vam ni treba skrbeti za nič ali pa vas za nekaj skrbi, bomo s tem kršili človeško naravo. Ker je nemogoče biti le na eni strani. Vedno me kaj skrbi, pa sem vseeno dober človek.
Menite, da se spreminja morala ljudi in s tem skozi čas tudi morala družbe ter ali je v določenem času in kontekstu enako število ljudi moralnih?
Morala se spreminja zato, ker se spreminja objekt moraliziranja. Spreminja se to, kako občutljivi smo glede določenih problemov. Še dve ali tri generacije nazaj pravice živali, žensk in okolja niso bile prisotne. Ljudje o tem sploh niso razmišljali. Preprosto niso bili občutljivi za ta vprašanja. Rad si domišljam, da človek postaja vedno bolj senzibilen. Vsaj glede tega, kako razume, kaj je dobro in slabo. Obnašanje in dejanja so nekaj drugega. Razumemo, da je treba okolje zaščititi, da je nujno zagotoviti uravnoteženost med spoloma, da je nasilje nad otroki nesprejemljivo itd. Upam, da se to danes spreminja. Ali smo bolj moralni kot generacije pred nami? Ne vem. Po mojem mnenju delamo le drugačne napake. V 90-ih letih se je dozdevalo, da bo svet s prihodom interneta postal brezplačen, zaradi česar pomislekov o spletnem piratstvu ni bilo. Kopiralo se je filme, glasbo, knjige, ne da bi kdorkoli pomislil, da bi bilo to lahko sporno.Zato ne moremo reči, da so ljudje, ki so pred 20 leti pretakali spletne kopije, kradljivci in nemoralneži. Ko smo začeli kot družba razumeti, kaj so intelektualne pravice drugih, se je odnos do piratstva spremenil. Vsaka generacija dela drugačne napake. Vprašanja, za katera menimo, da smo jih že rešili, recimo zasebnost, spet prihajajo v ospredje.
Je vprašanje zasebnosti na spletu napaka naše generacije?
Ne kupim ideje, da mladi danes nimajo zasebnosti, in v svoje stališče sem prepričan. Ta ideja je smešna. In ni resnična. Imajo pa drugačno dojemanje zasebnosti. V primerjavi z mojo babico, za katero je bilo vprašanje zasebnosti povezano s tem, ali se poljublja na ulici ali ne, mladi danes živijo v čisto drugem vesolju. Predstava o zasebnosti je popolnoma drugačna. Zato ne moremo govoriti o tem, da so imeli v preteklosti deset točk zasebnosti, danes pa jo imajo nič točk. Danes je nekdo glede zasebnosti veliko bolj pozoren in zaskrbljen, ker uporablja Facebook, Snapchat, Google, ker imajo kamere v šoli in podobno. Na takšne dogodke moramo vedno gledati z razdalje, ne pa iz centra. Pravo vprašanje je, kaj počnemo s tehnologijo.
Zakaj vedno govorimo le o primeru, kako je avto zamenjal kočijo? Kaj pa električni brivniki? Res ne uporabljamo več običajnih britvic in ne hodimo k brivcu? Smo res nehali pisati na roko in brati knjige v fizični obliki?
Leta 2016 je FBI zahteval od Appla, da odklene telefon terorističnega napadalca, ki je v San Bernardinu ubil 14 ljudi in jih 22 ranil. Apple je zahtevi nasprotoval z argumentom, češ da bi s tem kršili prvi amandma, ki govori o pravici do svobode govora, saj bi bila računalniška koda, ki bi jo morali spremeniti, jezik. Toda ali lahko računalniško kodo res razumemo kot jezik in s tem kot pravico do govora?
Apple je v tej zadevi situacijo izkoristil za oglaševanje svojih izdelkov, ki naj bi bili tako močno zaščiteni, da nihče ne more priti do vsebine, ki jo hranite na telefonu. Menim pa, da v demokracijah – vsaj v spodobnih demokracijah, posebej evropski – skrbno ščitimo skoraj vse človekove pravice. Poudarjam, skoraj vse. Ne delamo izjem pri mučenju, delamo pa izjeme pri svobodi govora. Zakaj? Ker se kot družba strinjamo, da v določenih okoliščinah ne moremo govoriti čisto o vsem. Ko je recimo vojna, novinarji ne morejo poročati o načrtu vojaškega napada in podobno, saj gre za vprašanje nacionalne varnosti in varnosti prebivalcev. Mislim, da je bil tak tudi Applov primer. Kljub temu, da je programska koda dejansko programski jezik, iz tega ne moremo potegniti sklepa, da je lahko zaščiten, kot je zaščitena svoboda govora človeka. Da je torej nedotakljiv. V tem specifičnem primeru bi moralo biti jasno vsem, da FBI mora dobiti dostop do vsebine, ki jo ščiti programski jezik. Kaj pa če bi se v tem telefonu skrival načrt jedrske bombe, ki naj bi eksplodirala v New Yorku? Bomo rekli ne, to je svoboda govora, ne smete pogledati?
Programskim jezikom podeljujemo vedno več odgovornosti. Ko se bo avtonomno vozilo v izjemnih in redkih primerih moralo odločiti, ali bo povozilo starejšo žensko ali nosečnico, kaj bi moralo po vašem mnenju storiti? Kaj je v tem primeru bolj moralno?
Za ta problem ni rešitve. Nič od tega ni moralno. Je kot vprašati nekoga, ali bi raje umrl zaprt v peči ali v savni. Kaj je bolj vroče? Kaj je bolj moralno? Kje človek manj trpi? Če sta to edini dve alternativi, edina izbira, potem ni važno, koga zbije. Oboje je grozno. Vrzimo kovanec, saj ni važno. Okoliščine so takšne, da nimaš izbire, da bi bil lahko moralen. Gre za tramvajsko dilemo (angl. trolley problem). Edina dobra stran takšnih dilem je, da se ljudje zavedajo, da moramo tehnologijo zasnovati na tak način, da se ne bomo nikoli znašli pred tovrstnimi izbirami. Če je zasnovana tako, da vas pripelje pred odločitev o smrti v vsakem primeru, je to slaba tehnologija. Na tej točki je igre konec, nič ne moreš storiti. O problemu, ki ste ga omenili, sem se pogovarjal z izvršnim direktorjem enega izmed največjih avtomobilskih proizvajalcev in tudi njemu sem dejal enako. Rešitev problema je samo ena. Poskrbi, da nikoli ne prideš do te situacije, ko se boš moral odločiti za eno izmed možnosti. Ste si ogledali film Sophijina odločitev? Ste lahko v takšnem primeru moralno odgovorni? Celo življenje boš živel s krivdo za svojo odločitev, pa karkoli izbereš. Ni važno. Scenarij ti vzame pravico do izbire moralno prave odločitve. Ni važno, ali izbiramo med ubojem otroka ali psa, starejše osebe ali nosečnice, nosečnice ali otroka. Čeprav se zdi, da imaš izbiro, to ni izbira. Naučiti se moramo, da tehnologija, ki jo ustvarjamo, nikoli ne sme pripeljati do takšnih okoliščin.