Bi lahko v prihodnosti predvideli kazniva dejanja?
Novo vrsto umetne inteligence, ki je bila zasnovana za napovedovanje kaznivih dejanj, še preden se le-te zgodijo, so zdaj preizkusili v več ameriških mestih, pri čemer je dogodke natančno napovedala v približno 80-90 odstotkih primerov. UI naj bi bila namenjena optimizaciji politik in dodeljevanju sredstev tistim območjem v mestu, ki jih najbolj potrebujejo, vendar se pojavljajo pomisleki o slabih rezultatih umetne inteligence in njej lastnih pristranskosti.
Ustvarjalec je zdaj v intervjuju sodeloval z BBC Science Focus in povedal je veliko - vključno s pojasnilom, zakaj meni, da bi bila uporaba njegove umetne inteligence dobra stvar.
Profesor Ishanu Chattopadhyay in njegovi sodelavci so v svojem najnovejšem članku, objavljenem v reviji Nature Human Behaviour, prikazali napovedni model UI v osmih večjih ameriških mestih. Koncept je preprost: Mesto Chicago objavi dnevnike dogodkov za vsako kaznivo dejanje, vključno s podatki o tem, kje in kdaj se je kaznivo dejanje zgodilo, ti podatki pa se vnesejo v algoritem strojnega učenja. Nato se mesto razdeli na 90 kvadratnih metrov, dnevniki dogodkov pa se združijo z območji, da se ustvari nekaj, kar raziskovalci imenujejo "časovna vrsta". Umetna inteligenca nato te časovne vrste uporabi za napovedovanje kaznivih dejanj na podlagi tega, kje in kdaj se pogosto zgodijo.
V bistvu lahko model reče "na tem območju bo na ta dan verjetno prišlo do oboroženega ropa", ne pa tudi, kdo ga bo izvedel. Po tem se razlikuje od drugih tehnologij, ki se uporabljajo za odkrivanje kaznivih dejanj, kot je druga vrsta umetne inteligence, o kateri smo tudi že poročali in ki prepoznava ljudi, ki so najverjetneje kriminalci (kar je bilo seveda grozljivo rasistično in pomanjkljivo).
"Ljudje so zaskrbljeni, da se bo UI uporabljalo kot orodje za zapiranje ljudi v zapor, še preden storijo kaznivo dejanje. To se ne bo zgodilo, saj za to UI nima nobenih zmožnosti. Samo napoveduje dogodek na določeni lokaciji," je za BBC Science Focus povedal Chattopadhyay.
"Ne pove vam, kdo bo storil dogodek, niti natančne logistike ali mehanike dogodkov."
S tem se poraja eno najpomembnejših vprašanj v zvezi s to temo - ali je ta model na temo številnih drugih družbenih napovednih umetnih inteligenc žrtev hromečih rasističnih in družbeno-ekonomskih predsodkov, kot so jih bili deležni številni pred njim?
V bistvu lahko model reče "na tem območju bo na ta dan verjetno prišlo do oboroženega ropa", ne pa tudi, kdo ga bo izvedel. Po tem se razlikuje od drugih tehnologij, ki se uporabljajo za odkrivanje kaznivih dejanj, kot je umetna inteligenca, o kateri smo že poročali in ki prepoznava ljudi, ki so najverjetneje kriminalci (kar je bilo seveda grozljivo rasistično in pomanjkljivo).
Po besedah Chattopadhyaya metoda, ki so jo uporabili za usposabljanje modela, omogoča, da se tem pristranskostim izogne, saj so vanj vneseni zgolj dnevniki dogodkov. Ročnih vnosov je zelo malo, kar naj bi bilo dobro.
"Poskušali smo čim bolj zmanjšati pristranskost. Po tem se naš model razlikuje od drugih modelov, ki so bili na voljo prej," je dodal.
Sedaj bomo videli, ali bodo mesta začela uporabljati takšen model za oblikovanje politik ali pa se mu bodo na podlagi njegovih temnih izkušenj izogibala. Raziskovalci so prepričani, da lahko njihova umetna inteligenca zaobide ta vprašanja, vendar so glede na velike možnosti zlorab, ki jih imajo takšni sistemi, mnogi še vedno skeptični.
Več iz rubrike
Vse igrače in nobene radosti
Ne glede na koliko uspeha, denarja in materialnih dobrin uspe nekdo nabrati v življenju, vse to ga samo po sebi ne bo pripeljalo do zadovoljstva in miru.
Želje
Vsi smo se že počutili navdihnjene, da bi si kaj zaželeli in to poslali v uho vesolja ter čakali na znake, ki jih bomo potem prejeli.