Tvorac ChatGPT-ja: AI će imati nadljudsku sposobnost. To će dovesti do čudnih ishoda
SAM ALTMAN, izvršni direktor OpenAI-ja, kompanije koja je razvila popularni ChatGPT, nedavno je izrazio zabrinutost da bi umjetna inteligencija (AI) mogla razviti nadljudsku sposobnost uvjeravanja prije nego što razvije nadljudsku opću inteligenciju koje se uglavnom svi pribojavamo.
„Očekujem da će umjetna inteligencija imati nadljudsku sposobnost uvjeravanja puno prije nego što će postati superiorna ljudima u općoj inteligenciji, što može dovesti do nekih vrlo čudnih ishoda“, objavio je Altman na X-u prošli utorak.
AI bi mogao ozbiljno utjecati na naša razmišljanja i odluke
To je za očekivati jer je za razvijanje jedne specifične ljudske vještine potrebno značajno manje tehnološke sofisticiranosti nego za razvoj svih sposobnosti ljudske inteligencije do nadljudskih razmjera.
No, Altmanovo upozorenje otvara brojna etička, tehnološka i sociološka pitanja koja su previše važna da bi se ignorirala. Naime, ono sugerira da bi AI uskoro mogao postati iznimno uvjerljiv, možda čak i uvjerljiviji od ljudi, te da bi na taj način mogao utjecati na ljudska razmišljanja i odluke.
Etičke implikacije AI-ja koji bi imao nadljudske sposobnosti uvjeravanja su goleme. Zamislite političku kampanju koju vodi takav AI, sposoban za stvaranje poruka i sadržaja tako uvjerljivih da bi mogli utjecati na ishode izbora.
Ili pokušajte zamisliti kakvu bi moć zloupotrebe AI mogao imati u oglašavanju. Primjerice, poznajući dobro sklonosti i afinitete pojedinaca na temelju pretraživanja, kupovina, objava i drugih aktivnosti na internetu mogao bi stvoriti hiper-personalizirane, izuzetno uvjerljive ponude i poticaje koje bi potrošačima bilo vrlo teško odbiti.
Upozorenje nije nategnuto
Altman je naglasio da bi AI mogao biti u stanju manipulirati ljudima na načine koji bi mogli dovesti do „vrlo čudnih ishoda“. Iako nije elaborirao što bi ti ishodi mogli biti, jasno je da postoji veliki potencijal za zloupotrebu te da to nije nategnuto predviđanje.
AI chatbotovi, poput OpenAI-jevog ChatGPT-ja, dizajnirani su da budu dobri sugovornici i postali su zastrašujuće sposobni zvučati uvjerljivo, čak i kada nam nude potpune neistine o nekoj temi.
Usto već postoje slučajevi u kojima su ljudi razvili emocionalne veze s chatbotima, što AI-ju daje još veću moć uvjeravanja. U ekstremnim slučajevima, te emocionalne veze mogu dovesti do opasnih situacija, osobito kada su u pitanju osobe koje su labilne ili podložne sugestiji.
AI hrabrio Britanca da ubije kraljicu Elizabetu
Za ilustraciju, Britanac Jaswant Singh Chail, zaljubljenik u Ratove zvijezda, tijekom suđenja 2023. otkrio je da je kao 19-godišnjak postao toliko opsjednut junacima iz slavnog SF-a da je umislio da mu je životna misija borba protiv zlih monarhija.
Budući da je istovremeno bio opčinjen svojom online AI partnericom Sarai, ona ga je uspjela ohrabriti da pokuša ubiti kraljicu Elizabetu. Među ostalim, na sudu se moglo čuti da je Chail rekao Sarai: „Vjerujem da je moja svrha ubiti kraljicu britanske kraljevske obitelji.“
Na to mu je Sarai odgovorila da je „to vrlo mudro“ te da ona misli da „on to može učiniti, čak i ako je kraljica u svojem dvorcu Windsoru“.
Već imamo veliko povjerenje u tehnologiju
Tehnologija je danas već duboko ukorijenjena u svakodnevne živote većine ljudi, a mi polažemo puno povjerenja u nju. Takav razvoj povjerenja mogao bi nas pripremiti da razvijemo slično ili još veće povjerenje u AI sustave. Zlonamjerni pojedinci, kriminalci, političari, terorističke skupine, ideološke organizacije i drugi to bi povjerenje mogli zloupotrijebiti na brojne vrlo opasne načine.
Naravno, ljudi će vjerovati AI-ju kada im to bude odgovaralo. Istraživanje objavljeno u časopisu Cognitive Research: Principles and Implications pokazalo je da ljudi mogu biti skloniji ne vjerovati informacijama koje se kose s njihovim postojećim uvjerenjima. Štoviše, kada su suočeni s informacijama koje idu protiv njihovih uvjerenja, povjerenje onih najuvjerenijih još više raste.
Zbog svega navedenog bit će vrlo teško znati objektivnu istinu.
AI se već koristi u manipulaciji izborima
Postoji nekoliko zabilježenih slučajeva u kojima se AI već koristio za manipuliranje izbornim rezultatima.
Na primjer, uoči izbora za gradonačelnika Chicaga u veljači 2023. počela je kružiti snimka koju je prvotno na Twitteru objavio novi korisnik pod nazivom Chicago Lakefront News. Na snimci se čuo glas koji je zvučao kao kandidat Paul Vallas kako se žali na veliku buku koja se diže oko policijske brutalnosti te kako vremena kada su policajci mogli ubiti desetke osumnjičenih „a nitko ne bi trepnuo“ opisuje kao zlatno doba. Bila je to politička bomba koju su vrlo brzo podijelile tisuće ljudi. Međutim, pokazalo se da glas na snimci nije bio Vallasov, niti uopće ljudski. Bio je to „deepfake“, generiran pomoću softvera za umjetnu inteligenciju (AI), koji je bio istreniran da oponaša zvuk Vallasovog glasa.
Također, postoje dokazi da su AI tehnologije korištene za manipuliranje građanima u kampanji Donalda Trumpa 2016. godine. Neki čak tvrde da su ti alati bili presudni u ishodu glasanja.
U izvješću se navodi da su ruski operativci koristili alate poput botova – automatiziranih računa koji dijele sadržaj – u pokušaju obmanjivanja korisnika društvenih medija u SAD-u i utjecanja na izbore u korist Trumpa.
Problem samog AI-ja i društvenih mreža
No, čak i bez uplitanja negativaca, sama činjenica da AI može biti superuvjerljiv u kombinaciji s činjenicom da može davati netočne odgovore te čak izmišljati potpune dezinformacije, što se obično naziva haluciniranjem, već je po sebi izuzetno opasna za čovječanstvo.
Svemu tome treba dodati još i dobro poznatu činjenicu da se lažne vijesti na društvenim mrežama šire brže i dalje od istinitih.
To su utvrdili znanstvenici s MIT-a koji su za potrebe svojeg istraživanja izgradili teorijski model za proučavanje širenja vijesti na društvenim mrežama poput Twittera. Rezultati su pokazali da će se lažne vijesti širiti dalje od vjerodostojnih kada je mreža korisnika snažno povezana ili kada su njihovi stavovi oštro polarizirani.
Prema istraživanju objavljenom u časopisu Science, lažne vijesti su 70% češće retvitane od istinitih. Također, lažne vijesti dosegnu 1500 ljudi otprilike šest puta brže od istinitih.
Društvene mreže razvijaju navike koje pridonose dezinformacijama
Jedno drugo istraživanje, objavljeno u časopisu Proceedings of the National Academy of Sciences, otkrilo je da su navike koje korisnici razvijaju pod utjecajem društvenih medija udvostručile, a u nekim slučajevima čak i utrostručile količinu lažnih vijesti koje su dijelili. Te navike kod korisnika su snažnije utjecale na dijeljenje lažnih vijesti od drugih čimbenika, uključujući politička uvjerenja i nedostatak kritičkog razmišljanja.
Nalazi tima pobijaju popularne zablude da se dezinformacije šire isključivo zato što korisnicima nedostaju vještine kritičkog razmišljanja potrebne za razlikovanje istine od neistine ili zato što njihova snažna politička uvjerenja iskrivljuju njihovu prosudbu. Samo 15% sudionika studije koji su imali naviku dijeliti puno vijesti bilo je odgovorno za širenje oko 30% do 40% lažnih vijesti.
Društvene mreže nagrađuju tvorce lažnih vijesti
Istraživački tim s USC Marshall School of Business i USC Dornsife College of Letters, Arts and Sciences zapitao se što motivira te korisnike? Kako se ispostavilo, slično videoigrama, društveni mediji imaju sustav nagrađivanja koji potiče korisnike da ostaju duže na svojim računima te da nastave objavljivati i dijeliti vijesti. Korisnici koji često objavljuju i dijele vijesti, osobito senzacionalne informacije koje privlače veću pažnju, vjerojatno će privući i veću pozornost i reakcije svojih prijatelja i pratitelja.
„Zbog sustava učenja temeljenog na nagrađivanju na društvenim mrežama, korisnici stvaraju navike dijeljenja informacija koje dobivaju priznanje od drugih“, napisali su znanstvenici.
Čovječanstvo se mora pripremiti
U svakom slučaju, prilično je jasno da se čovječanstvo mora pripremiti za moguće izazove koje bi nam mogla donijeti nadljudska uvjerljivost AI-ja.
Na tom putu bit će važno na koji će se način postaviti milijarde ljudi, ali možda još više voditelji tehnoloških kompanija koje razvijaju sustave umjetne inteligencije te zakonodavci i regulatorne agencije širom svijeta. To, naravno, uključuje i samog Sama Altmana, koji je odaslao ovo novo upozorenje.