Bolj kompleksen ko postaja svet, bolj zahtevamo njegove poenostavitve
Ustanovitelj in direktor laboratorija za umetno inteligenco in vodja raziskovalne skupine za strojno inteligenco v Siemensu. Pred tem je delal v oddelku za umetno inteligenco in centru odličnosti za tehnologije kognitivne interakcije na Univerzi v Bielefeldu.
Odpri galerijo
Zanimajo ga predvsem metode s področja konekcionizma (pristop na področju kognitivne znanosti, ki poskuša razložiti duševne pojave z umetnimi nevronskimi mrežami) in simbolični modeli, ki se uporabljajo za aplikacije umetne inteligence in programiranja nevronskih mrež. Waltinger ima več kot 40 recenziranih publikacij s področja računalništva, umetne inteligence, računalniške lingvistike in kognitivnih znanosti. V zadnjih letih je v Siemensu spodbudil in vodil različne pobude na področju umetne inteligence, predvsem povezane s poglobljenim učenjem.
Tako kot pravijo, ne bojmo se umetne inteligence, bojmo se človeške neumnosti. Mislim, da ni vprašanje, ali in kako uveljaviti vrednote v algoritmu, sam bi raje razmišljal v smeri, kako poskrbeti, da bodo tehnološki sistemi učinkoviti, njihovi učinki pa bodo kot takšni kazali vrednote podjetij, ljudi, lokalnega okolja, držav. V tem pogledu moramo razmisliti, kakšne politike na področju umetne inteligence želimo oblikovati.
Gre za zaupanje, ki ni nujno integrirano v transparentnost. Zaupam svoji ženi, čeprav zdajle nimam pojma, kje je in kaj počne. So situacije, ko potrebujemo transparentnost, recimo, če se letalo začne v zraku čudno obnašati. Želim vedeti, kaj se dogaja. Če normalno leti, me podatki o tem, koliko goriva še imamo, ne zanimajo. Zaupam, da ga je dovolj. Ljudje transparentnost zahtevajo le za specifične situacije, razložljivost pa za druge. Recimo na evropski ravni smernice za krepitev zaupanja v umetno inteligenco govorijo o vključevanju, o tem, ali smo v oblikovanje aplikacij na podlagi umetne inteligence res vključili vse mogoče deležnike, ker če algoritmi igrajo vitalno vlogo v naši družbi, kako poskrbimo, da so testirani, preverjeni, analizirani iz različnih perspektiv itd. Torej, potrebujemo raznolikost pri razvoju programske opreme, pa tudi razpravo o tem, kako je nameščena, nadgrajevana in uporabljana. Za to pa moramo vključiti veliko različnih disciplin.
Mislim, da ni določene točke, ne samo pri umetni inteligenci, ampak pri kateremkoli pojavu. Ne gre za začetno točko, vmesno in končno. Gre za kontinuiteto. Lahko pa vidimo določena večja območja, na katerih je poudarek. Zagotovo je med drugim v tem trenutku na legalnem, torej, oblikujejo se nadnacionalne strategije in smernice, ki jih lahko spremljamo v različnih evropskih pobudah.
Recimo evropske smernice za krepitev zaupanja v umetno inteligenco so zelo dobro oblikovane. Ustvarila jih je izjemno pisana paleta strokovnjakov z različnih področij disciplin, z univerz, iz gospodarstva in vseh držav. Po prvem predlogu so jih odprli za širšo javnost. Vsak je lahko sodeloval. Potem so jih prediskutirali še z industrijo, v smislu, kako te smernice ovirajo ali spodbujajo njihov posel. Mislim, da to ni slab pristop. Poglejmo evropsko uredbo GDPR, zdaj velja tudi v Združenih državah Amerike za vodilo, kako najbolje urejati varnost podatkov na spletu.
Kaj pa je po vašem težava?
Ja, ampak ko obkljukate, ste se strinjali, da lahko obdelujejo vaše podatke.
Se strinjam, da GDPR ni idealen, ampak je zagotovo dobra podlaga, kako se spopasti s problemom. Že to, da imamo možnost in svobodo odkloniti obdelavo svojih osebnih podatkov, je izjemno veliko. Trenutna potrošniška industrija spreminja ljudi v produkte. Če ne plačujete za produkt, ste vi produkt. Tako pač je. Ni zastonjskega kosila. Vam pa GDPR daje možnost, da odklonite uporabo vaših podatkov. Ni optimalno, ampak je trenutno najboljše, kar obstaja.
Premikamo se od sprejemanja odločitev, oblikovanih na podlagi ugibanja izobraženih ljudi, na področje sprejemanja odločitev, oblikovanih na podlagi dejstev. V procesih bo vedno več avtomatizacije, to pa vedno vpliva na ljudi. Zanimivo, iz vašega vprašanja razberem, da ker je uporaba teh orodij bolj učinkovita in za ljudi varnejša, ni etičnih dilem. Človek bo namesto manualnega, dolgočasnega dela zdaj lahko delal kaj bolj kreativnega?
Razumem, da je takšno razmišljanje vaši generaciji prirojeno, ampak ljudje so ne glede na to, kakšno je njihovo delo, nanj navajeni. Nekateri ga imajo preprosto radi, radi vsak dan prihajajo v rudnik in kopljejo rudo. Ne želijo biti bolj učinkoviti, moti jih, da jim sistem vsiljuje druge dolžnosti. Z vsako prednostjo v tehnologiji pridejo tudi negativne posledice. Tehnologija vpliva na človeka osebno, na njegove kompetence, na pričakovanja menedžmentov glede učinkovitosti, glede vloge, ki jo ima posameznik v skupini. Kako se vi počutite ob tem, ko umetna inteligenca že sama piše novinarska poročila?
Ker ste očitno dinamična in odprta oseba, nimate strahu in ste pripravljeni sprejemati in posvojiti nove stvari. Če s takšnim pristopom sprejemamo tehnologije, se nam razodene vsa njihova lepota. Pomembno je videti priložnosti, a jih reflektirati kritično.
Veliko. Razumevanje sveta, iskanje vzrokov, čustva, čustvena inteligenca, empatija, refleksija, samozavest ... Umetna inteligenca ne ve, kaj pes v resnici je, kaj pes pomeni človeku. Jezikovno prepoznavanje je recimo še zelo slabo razvito, je na razvojni stopnji dojenčka. In to je dober indikator, kako daleč je do tega, da bo umetna inteligenca prevzela naše naloge.
Kaj se je zgodilo v zadnjih petih letih, da smo postali tako vznemirjeni glede umetne inteligence, kot da bi bila to neka nova tehnologija?
Začeli smo živeti v družbi, ki jo poganjajo podatki. Z manjšimi pametnimi napravami, spletnimi aplikacijami in družbenimi omrežji že več kot desetletje generiramo velike količine podatkov o samih sebi, o naših življenjih ter delovnih in produkcijskih procesih. Pred petimi leti so se začela pojavljati podjetja, ki so dobila močno zaledje v velikih investitorjih, in se z ogromnimi vsotami finančne podpore osredotočajo na reševanje izzivov s prelomnimi tehnologijami, ki temeljijo na uporabi masovnih podatkov. Z njimi omogočajo vpoglede v procese, znotraj podjetja in zunaj njega, torej na trgu. Smo v obdobju, ko vpoglede prevajamo v akcije. Vpoglede v procesih, ki nastajajo na podlagi masovnih podatkov, zdaj spreminjamo v različne inpute in jih realiziramo v dejanskem svetu. V tem procesu veliko stavimo na umetno inteligenco, da bo različne vpoglede uporabljala kot inpute v različnih procesih in s sprotnim učenjem inpute tudi spreminjala. Kar zadeva inovacije, pa je na razpravo o umetni inteligenci zagotovo zelo vplival napredek strojnega učenja, saj se je pred desetimi leti zgodil močan prodor pri razvoju tehnik globokega učenja (deep learning), v zadnjih petih letih pa so se potem oblikovale različne primerjalne analize tako v industrijskem kot potrošniškem segmentu.Je upravičena kritika, da imamo vpoglede, ki jih zagotavljajo masovni podatki, brez kritične distance za pravilne? Kako smo lahko prepričani, da so ti vpogledi pravilni, in kako smo potemtakem sploh lahko prepričani, da so pravilni sklepi, ki temeljijo na njih?
Ko preoblikujemo ali prevajamo inpute, temelječe na podatkih, v akcijo v realnem svetu, je resnični izziv v tem, kako se prepričati, da te akcije odražajo tudi naše vrednote in cilje. Vsaka akcija ima prednosti in slabosti, stroške in koristi. To lahko izmerimo, ampak kako izmerimo, ali je nekaj dobro ali slabo oz. ali učinki izražajo naš vrednostni sistem? Ne nazadnje, kaj sploh so naše vrednote? V času, ko imamo vesolje podatkov, ki se osredotočajo na potrošnika, moramo več govoriti o zaupanju v tehnologijo in varnosti. Vidimo, da bolj ko svet postaja eksponentno kompleksen, bolj ljudje zahtevamo njegove poenostavitve. V taki družbi algoritmi vedno bolj igrajo vitalno vlogo. Zaradi tega se moramo osredotočiti na to, kakšne vrednotne sheme imajo podjetja, ki snujejo te algoritme.
Natanko tako, vrednot ne moreš pripeti algoritmu, tudi zato, ker se vrednote v času spreminjajo … Kako zagotoviti etičnost akcij?
Tako kot pravijo, ne bojmo se umetne inteligence, bojmo se človeške neumnosti. Mislim, da ni vprašanje, ali in kako uveljaviti vrednote v algoritmu, sam bi raje razmišljal v smeri, kako poskrbeti, da bodo tehnološki sistemi učinkoviti, njihovi učinki pa bodo kot takšni kazali vrednote podjetij, ljudi, lokalnega okolja, držav. V tem pogledu moramo razmisliti, kakšne politike na področju umetne inteligence želimo oblikovati.Mislim, da ni vprašanje, ali in kako uveljaviti vrednote v algoritmu. Sam bi raje razmišljal v smeri, kako poskrbeti, da bodo tehnološki sistemi učinkoviti, njihovi učinki pa bodo kot takšni izražali vrednote podjetij, ljudi, lokalnega okolja, držav.
Toda ko se neka aplikacija že široko uporablja, pride čas, ko ne odseva več etičnih norm. Če dam analogni primer, recimo sistem odlaganja odpadkov pred 20 leti in danes. Čeprav so bile vrednote že spremenjene, smo potrebovali, pravzaprav še vedno potrebujemo prilagajanje aplikacije. V tem primeru se obrnemo na zakonodajalce, kaj pa pri algoritmih?
Gre za zaupanje, ki ni nujno integrirano v transparentnost. Zaupam svoji ženi, čeprav zdajle nimam pojma, kje je in kaj počne. So situacije, ko potrebujemo transparentnost, recimo, če se letalo začne v zraku čudno obnašati. Želim vedeti, kaj se dogaja. Če normalno leti, me podatki o tem, koliko goriva še imamo, ne zanimajo. Zaupam, da ga je dovolj. Ljudje transparentnost zahtevajo le za specifične situacije, razložljivost pa za druge. Recimo na evropski ravni smernice za krepitev zaupanja v umetno inteligenco govorijo o vključevanju, o tem, ali smo v oblikovanje aplikacij na podlagi umetne inteligence res vključili vse mogoče deležnike, ker če algoritmi igrajo vitalno vlogo v naši družbi, kako poskrbimo, da so testirani, preverjeni, analizirani iz različnih perspektiv itd. Torej, potrebujemo raznolikost pri razvoju programske opreme, pa tudi razpravo o tem, kako je nameščena, nadgrajevana in uporabljana. Za to pa moramo vključiti veliko različnih disciplin.
Kje smo trenutno s tem?
Mislim, da ni določene točke, ne samo pri umetni inteligenci, ampak pri kateremkoli pojavu. Ne gre za začetno točko, vmesno in končno. Gre za kontinuiteto. Lahko pa vidimo določena večja območja, na katerih je poudarek. Zagotovo je med drugim v tem trenutku na legalnem, torej, oblikujejo se nadnacionalne strategije in smernice, ki jih lahko spremljamo v različnih evropskih pobudah.
Glede oblikovanja smernic razvoja tehnologije, ki poteka v evropskih institucijah, sem zasledila zanimiv pomislek, ki ga lahko preprosto povzamemo, češ kako naj evropski birokrati vedo, kako regulirati tehnologije, če teh tehnologij sploh ne poznajo.
Recimo evropske smernice za krepitev zaupanja v umetno inteligenco so zelo dobro oblikovane. Ustvarila jih je izjemno pisana paleta strokovnjakov z različnih področij disciplin, z univerz, iz gospodarstva in vseh držav. Po prvem predlogu so jih odprli za širšo javnost. Vsak je lahko sodeloval. Potem so jih prediskutirali še z industrijo, v smislu, kako te smernice ovirajo ali spodbujajo njihov posel. Mislim, da to ni slab pristop. Poglejmo evropsko uredbo GDPR, zdaj velja tudi v Združenih državah Amerike za vodilo, kako najbolje urejati varnost podatkov na spletu.
GDPR pa res ni odpravil nobene težave na področju varnosti podatkov, zgolj legaliziral je njihovo izrabo.
Kaj pa je po vašem težava?
PREBERITE ŠE: Ko se podre Darwinova teorija o preživetju najmočnejšega
Da ljudje nekritično delijo osebne podatke, na podlagi tega pa se dogajajo tudi hude manipulacije in izkoriščanje, seveda ne vedno, ampak tega, da se dogajajo, ne moremo zanikati. GDPR je vse skupaj le legalno uredil; obkljukamo privolitve in nikoli več se nimamo pravice pritožiti zaradi izrabe osebnih podatkov. GDPR je po mojem mnenju preložil skrb za podatke na potrošnika, namesto na podjetja.
Ja, ampak ko obkljukate, ste se strinjali, da lahko obdelujejo vaše podatke.Ljudje so ne glede na to, kakšno je njihovo delo, nanj navajeni. Nekateri ga imajo preprosto radi, radi vsak dan prihajajo v rudnik in kopljejo rudo. Ne želijo biti bolj učinkoviti, moti jih, da jim sistem vsiljuje druge dolžnosti.
Mislim, da nimamo druge izbire, drugače smo kaznovani s slabo uporabniško izkušnjo.
Se strinjam, da GDPR ni idealen, ampak je zagotovo dobra podlaga, kako se spopasti s problemom. Že to, da imamo možnost in svobodo odkloniti obdelavo svojih osebnih podatkov, je izjemno veliko. Trenutna potrošniška industrija spreminja ljudi v produkte. Če ne plačujete za produkt, ste vi produkt. Tako pač je. Ni zastonjskega kosila. Vam pa GDPR daje možnost, da odklonite uporabo vaših podatkov. Ni optimalno, ampak je trenutno najboljše, kar obstaja.
Dotakniva se še nepotrošniškega segmenta, kjer je etičnih pomislekov vseeno manj. Lahko opišete, kako bo umetna inteligenca v industriji zares vplivala na ljudi?
Premikamo se od sprejemanja odločitev, oblikovanih na podlagi ugibanja izobraženih ljudi, na področje sprejemanja odločitev, oblikovanih na podlagi dejstev. V procesih bo vedno več avtomatizacije, to pa vedno vpliva na ljudi. Zanimivo, iz vašega vprašanja razberem, da ker je uporaba teh orodij bolj učinkovita in za ljudi varnejša, ni etičnih dilem. Človek bo namesto manualnega, dolgočasnega dela zdaj lahko delal kaj bolj kreativnega?
Ja …
Razumem, da je takšno razmišljanje vaši generaciji prirojeno, ampak ljudje so ne glede na to, kakšno je njihovo delo, nanj navajeni. Nekateri ga imajo preprosto radi, radi vsak dan prihajajo v rudnik in kopljejo rudo. Ne želijo biti bolj učinkoviti, moti jih, da jim sistem vsiljuje druge dolžnosti. Z vsako prednostjo v tehnologiji pridejo tudi negativne posledice. Tehnologija vpliva na človeka osebno, na njegove kompetence, na pričakovanja menedžmentov glede učinkovitosti, glede vloge, ki jo ima posameznik v skupini. Kako se vi počutite ob tem, ko umetna inteligenca že sama piše novinarska poročila?
Nikoli nisem spremljala športa. Se mi pa zdi, da je za zbiranje podatkov o rezultatih športnih tekem to odlična ideja.
Ker ste očitno dinamična in odprta oseba, nimate strahu in ste pripravljeni sprejemati in posvojiti nove stvari. Če s takšnim pristopom sprejemamo tehnologije, se nam razodene vsa njihova lepota. Pomembno je videti priložnosti, a jih reflektirati kritično.
Kaj ima človeška inteligenca, česar umetna nima? Kaj bo ostalo nam ljudem?
Veliko. Razumevanje sveta, iskanje vzrokov, čustva, čustvena inteligenca, empatija, refleksija, samozavest ... Umetna inteligenca ne ve, kaj pes v resnici je, kaj pes pomeni človeku. Jezikovno prepoznavanje je recimo še zelo slabo razvito, je na razvojni stopnji dojenčka. In to je dober indikator, kako daleč je do tega, da bo umetna inteligenca prevzela naše naloge.
Več iz rubrike
3D tisk pozitivno vpliva na gospodarstvo
Najpogosteje 3D tisk proizvaja slušne aparate, protetične pripomočke in tekaške copate.
Bomo trajnost dosegli z jedrsko fuzijo?
Znanstveniki dosegli stabilizacijo jedrskega zlivanja, kar je dober znak za prihodnost