Igor Šmid
Pokopališče izvirnosti
Nedavno me ob Ljubljanici okoli poldneva sončni žarki prijetno grejejo in od samega ugodja se še bolj ležerno namestim na stolu. Vonj vroče kave spodbudi brbončice, ki v pričakovanju veselo zaplešejo. Skodelico počasi vzamem v dlan in skoraj ritualno naredim kratek požirek. Občutek je tak, kot bi mi po grlu stekel lep spomin. V rahlo zasanjanem razpoloženju opazim gručo kakšnih dvajsetih srednješolcev in srednješolk, ki gre mimo. Najprej skoraj ne morem verjeti svojim očem, da nihče ne hodi z mobilnikom v roki. To me za hip vzradosti, potem pa opazim nekaj nenavadnega. Bolj ko jih opazujem, bolj se utapljam v njihovi črnini od glave do peta, le tu in tam kdo nosi kakšno belo oblačilo ali čevlje, ob tem ne zaznam niti enega samega odtenka druge barve.
Na misel mi pride ogorčenje, ko sem pred leti pisal elektronska sporočila, ob tem pa mi je aplikacija sama ponujala dokončanje teksta, pri čemer se mi je tu in tam zgodilo, da sem ponujeno besedo nevede ohranil in odposlal tudi kaj povsem nelogičnega. Iz današnje perspektive deluje moj takratni odpor kot nekaj zelo naivno romantičnega. V zadnjem času lahko bolj kot ne osuplo spremljamo silovit razvoj modelov v smeri generativne umetne inteligence (GUI), ob čemer se odpira vse več vprašanj. Še najbolj bi nas moralo pri tem skrbeti dejstvo, da so nosilci razvoja teh modelov zasebne družbe, ki so naravnane predvsem k ustvarjanju dobička. S sledenjem temu cilju razvijajo vedno zmogljivejše sisteme, ob tem pa niso ustrezno omejene s pravno in etično regulativo. Naj omenim samo nekaj aktualnih dilem: zaščita intelektualne lastnine, kršenje avtorskih pravic zaradi zajemanja podatkov, vpliv na trg dela in izumiranje poklicev, varstvo osebnih podatkov in zasebnosti, porast lažnih vsebin, širjenje netočnih in napačnih podatkov, spletni kriminal, povečevanje družbene neenakosti, prevladujoč vpliv zahodne kulture, zmanjševanje motivacije za ustvarjalno delo, zaščita raznolikosti jezikov, ekscesna porabe energije. Na splošnem nivoju razširjenost uporabe umetne inteligence kliče po nujnosti vključevanja vedno širšega kroga akterjev in njihovo usmerjenost v iskanje učinkovitih rešitev, ki bi sledile skokovitemu napredku.
Razvojni preskok, ki je dosežen z moduli generativne umetne inteligence, je prelomni trenutek na področju informacijskih tehnologij. Zmogljivost teh modulov z osupljivo hitrostjo dosega in presega povprečne človeške zmogljivosti na vse več področjih. Kreiranje vsebin, ustvarjanje konceptov in produktov še nikoli ni bilo dosegljivo tako širokemu krogu ljudi. Zamisel, ideja in dar za ustvarjanje niso več ključne komponente – nadomesti jih lahko tehnologija. Soočeni smo z dejstvom, da, poenostavljeno rečeno, nekemu sklopu visoko zmogljivih procesorjev za to, da bi opravil neko ciljno operacijo, ni več treba napisati računalniškega programa, saj je sposoben zajemanja ogromnega števila podatkov in na podlagi teh generiranja vedno novih vsebin ter izvajanja nalog. Ob površnem dojemanju je to vsekakor nekaj izrednega in revolucionarnega. Težava je v tem, da je človek doslej vse izume uporabljal ali zlorabljal na podlagi lastne volje ter s tem ohranjal nadzor nad delovanjem in posledicami delovanja le-teh, pri generativni umetni inteligenci pa obstaja realna nevarnost, da nadzor ne bo mogoč, s tem pa postanejo posledice popolnoma nepredvidljive. Umetna inteligenca za svoje delovanje zajema podatke in znanje, ki ga je doslej ustvaril človek, v prihodnje pa bo vse več zajemala tudi iz vsebin, ki jih bodo modeli generirali pred tem. Če ob tem upravičeno pričakujemo, da bo zaradi vse pogostejše uporabe modelov »človeški prispevek« v skupno malho podatkov vse manjši, bodo dostopne vsebine postopoma vse manj vsestranske. S tem se poveča možnost recikliranja vsebin, pri katerem bo v končni fazi umetna inteligenca začela »gristi svoj lastni rep«. Postala bo plagiator same sebe. Na drugi strani bo logična posledica njene izredno hitro rastoče uporabe, da bo pri posameznikih upadel motiv za razmišljanje izven okvirov, za iskanje lastne izraznosti in za izkoriščanje individualnih kapacitet.
Če se s tem v mislih spomnim na začetek besedila: ena od vidnih posledic delovanja algoritmov je tudi, da postajamo posamezniki vse bolj uniformirani, tudi navzven vse bolj podobni drug drugemu. Še bolj drzna in grozeča je misel, da bomo posledično tudi razmišljali in delovali na podoben način. Priča smo procesu spreminjanja načina interakcij nevronskih mrež v naših možganih. Tehnologija v temelju spreminja načine poslovanja podjetij in vse bolj vpliva na dogajanje v sodobnih družbah. Vsebine, ustvarjene z umetno inteligenco, postajajo vse bolj priljubljene. Morda zato, ker pogosto niso preveč zahtevne. Obstaja nevarnost, da uporabniki začnejo posnemati to specifičnost, predvsem tisti, ki so manj sposobni kritičnega razmišljanja. Zaradi nenehnega nudenja produktov, za katere so algoritmi na podlagi pridobljenih informacij ugotovili, da bodo pritegnili našo pozornost, se dogaja zožitev svobodne izbire in odločanja. Ta situacija nas oddaljuje od želje po spremembi, po mišljenju izven okvirov, po izzivanju meja, po pogledu onstran. S tem smo nezavedno ujeti v zanko, za kar pa se prav gotovo nismo odločili sami. Ne da bi vedeli in zaznali, v naše odločitve in dejanja zelo učinkovito posegajo algoritmi, ki so jih doslej izdelovali in upravljali računalniški programerji ob sodelovanju psihologov, sociologov in antropologov. Zdaj odpiramo Pandorino skrinjico z dejstvom, da bo v razvoj in nastavitev delovanja algoritmov nepovratno posegla generativna umetna inteligenca, kar takoj aludira na izgubo nadzora nad učinki in posledicami. Za razliko od centrov moči in kapitala bo težnjo po unifikaciji ta izvajala brez dejanskega namena in cilja, preprosto zato, ker je to njen način delovanja.
Nedvomno je uporaba informacijske tehnologije že doslej dramatično stresla temelje našega dojemanja sveta. Zdaj lahko ocenjujemo, da so bili začetni modeli umetne inteligence v svoji zasnovi in zmogljivosti omejeni in kot taki bistveno bolj obvladljivi. Z generativno umetno inteligenco je duh pobegnil iz steklenice. Osnovno kodo modelov se nenehno nadgrajuje v modularne mreže, v katere se vstavlja napredne algoritme nove generacije in transformativne aplikacije, kar omogoča znatno izboljševanje učinkovitosti in zmogljivosti, model pa postaja vse bolj avtonomen. Smo tik pred lansiranjem procesorjev s kvantnimi čipi, ki bodo imeli zadostno kapaciteto, da izvedejo operacije, ki jih zahtevajo najnovejše aplikacije. S tem smo zakoračili na pot v transhumanizem, naslednja stopnja naj bi bila singularnost. Na tej točki se lahko povsem legitimno vprašamo, zakaj so razvijalci pripravljeni tako nekritično načrtovati in izdelovati potencialno nevarne modele generativne umetne inteligence. Prav gotovo jih vodi vseprisotna človeška želja po napredku, poleg tega pa paradoksalno zaznavamo njihovo motivacijo tudi v predvidevanju grozeče apokalipse. V javnem diskurzu je zaznati vse večji porast ideje o prihajajoči kataklizmi. Čeprav so ravno sodobne tehnologije ena izmed najbolj grozečih nevarnosti, je ob tem močno uveljavljeno stališče, da si ne smemo privoščiti, da bi se razvoj ustavil, saj naj bi ravno napredek zagotavljal naše preživetje. Lahko se le nemočno vprašamo, ali je res treba, da izumimo prav vse, kar je mogoče.
Zelo naivno bi bilo od tehnoloških podjetij pričakovati, da bodo samodejno udejanjala zavezo k spoštovanju etičnih in varnostnih vidikov ob zaostajanju regulative na tem področju. Bolj verjetno je, da bodo vse napore vložili v še bolj zmogljive generativne modele, kljub temu da tudi sami ne poznajo odgovorov na dileme, česa so ti modeli sposobni. Že zaradi tega ne moremo mirne vesti verjeti zagotovilom, da pri razvoju modelov upoštevajo vse možnosti za pojav različnih nevarnosti, tudi tistih, ki bi potencialno lahko imele dramatične posledice za človeštvo. Njim je najpomembnejši imperativ biti pred konkurenco, saj ta položaj zagotavlja dolgoročen primat in prinaša ogromne zaslužke. Poleg tega so pod velikim pritiskom tehnoloških velikanov, ki so v ta podjetja vlagali in pričakujejo čimprejšnje povračilo vložkov ne glede na varnostna tveganja. Zato iz lastne pozicije moči in prek lobistov načrtno hromijo prizadevanja za sprejem zakonodaje, ki bi določala spoštovanje varnostnih standardov, izvajanje varnostnega testiranja in predpisovala možnost za zaustavitev modelov v primeru grožnje. Menim sicer, da tudi zelo striktna zakonodaja ne bo dovolj za preprečitev črnega scenarija. Tudi če bodo razvijalci v bodoče spoštovali varnostne standarde, varnostna testiranja zaradi narave delovanja najnaprednejših modelov ne bodo zmogla preprečiti potencialnih avtonomnih odklonov. Kar v nadaljevanju pomeni, da se modelov iz istega razloga tudi ne bo dalo zaustaviti. Ko umetni inteligenci prepustimo tudi upravljanje elektroenergetskega sistema, je krog zaprt. V tem primeru ne bo možnosti za drugi poskus. Zato ni presenetljivo, da se opazno širijo gibanja in pozivi k restriktivni regulaciji modelov generativne umetne inteligence, ki poleg etičnih vidikov opozarjajo predvsem na že omenjene avtonomne odklone in nezmožnost popolnega nadzora. Med drugim je težava v tem, da model zaradi svoje zasnove vztrajno išče pot do rezultata ne glede na vmesne faze, ki so potencialno še kako vprašljive. Če smo malo sarkastični, umetna inteligenca na poti do rezultata ne pozna prijaznosti in sočutja. /…/
Vam je všeč ta odlomek?
Preberite celoten prispevek v novi številki Sodobnosti!
Vam je všeč ta odlomek?
Preberite celoten prispevek v novi številki Sodobnosti!


