Veliki obrat: AI razvio ključnu sposobnost ljudskog mozga, a mislilo se da ne može
U NOVOJ studiji objavljenoj u časopisu Nature znanstvenici su pokazali da se umjetna inteligencija (AI) u obliku neuronske mreže može istrenirati da ispoljava svojstvo sustavne generalizacije u jeziku kakva je svojstvena ljudskoj inteligenciji.
Ključni aspekt kognicije – sustavna generalizacija
Istraživanje je pokazalo da AI funkcionira jednako dobro kao ljudi, ili čak bolje, u uklapanju novonaučenih riječi u postojeći vokabular i u njihovom korištenju u novim kontekstima, što je ključni aspekt ljudske kognicije, poznat kao sustavna generalizacija.
To znači da neuronske mreže sada mogu kombinirati koncepte na način koji je bliži ljudskom učenju nego što su to postizali raniji modeli AI-ja.
Velik zaokret u razvoju AI-ja
Ova studija predstavlja velik zaokret u desetljećima dugoj raspravi u kognitivnoj znanosti koja istražuje kakvo bi računalo najbolje predstavljalo ljudski um.
Od 1980-ih godina jedna skupina kognitivnih znanstvenika tvrdila je da neuronske mreže, modeli u umjetnoj inteligenciji koji simuliraju ljudski mozak kako bi prepoznali obrasce i donosili odluke, nisu održivi modeli uma jer njihova arhitektura ne uspijeva uhvatiti ključne značajke ljudskog načina razmišljanja.
Što je sustavna generalizacija?
Autori u uvodu ističu da moć ljudskog jezika i misli proizlazi iz sustavne generalizacije, sposobnosti razumijevanja i stvaranja novih kombinacija od poznatih komponenti.
Sustavna generalizacija očituje se, među ostalim, u sposobnosti ljudi da bez napora koriste novonaučene riječi u novim kontekstima. Primjerice, ako netko razumije rečenicu „mačka lovi psa“, također će, bez puno dodatnog razmišljanja, razumjeti i „pas lovi mačku“.
Kritike neuronskih mreža
No ta sposobnost nije inherentna neuronskim mrežama, modelima koji su istraživanjem umjetne inteligencije dominirali krajem 1980-ih, rekao je za Nature News koautor studije Brenden Lake, kognitivni računalni znanstvenik sa Sveučilišta New York.
Za razliku od ljudi, neuronske mreže imaju problema s korištenjem novih riječi sve dok se ne uvježbaju na mnogim primjerima tekstova koji koriste te riječi. Istraživači umjetne inteligencije raspravljali su gotovo 40 godina o tome mogu li neuronske mreže ikada biti vjerojatan model ljudske kognicije ako ne mogu pokazati ovu vrstu generalizacije.
„Poznato je da su Fodor i Pylyshyn tvrdili da umjetne neuronske mreže nemaju taj kapacitet i da stoga nisu održivi modeli uma. U godinama koje su uslijedile neuronske mreže znatno su napredovale, no problem generalizacije ostao je i dalje prisutan. U ovom radu uspješno rješavamo izazov Fodora i Pylyshyna pružajući dokaze da neuronske mreže mogu postići sustavnost sličnu ljudskoj kada su optimizirane za kombinatorne vještine“, tumače u uvodu autori.
Drugim riječima, novo istraživanje pokazalo je da neuronske mreže, kada se istreniraju na odgovarajući način, odgovarajućom metodom, mogu steći ljudsku sposobnost sustavne generalizacije.
„Naš rad sugerira da se ovaj ključni aspekt ljudske inteligencije… s praksom može steći pomoću modela koji je bio odbačen zbog nedostatka tih sposobnosti“, rekao je Lake.
Nastojanje da se kopira mozak
Neuronske mreže donekle oponašaju strukturu ljudskog mozga jer su njihovi čvorovi za obradu informacija povezani jedan s drugim, slično kao neuroni u mozgu, a njihova obrada podataka odvija se u hijerarhijskim slojevima, također slično kao u ljudskom mozgu. Međutim, povijesno gledano, sustavi AI-ja nisu se ponašali poput ljudskog uma jer nisu imali sposobnost kombiniranja poznatih koncepata na nove načine, što je sposobnost koja se u stručnim krugovima naziva sustavna generalizacija.
Ljudska sposobnost korištenja riječi
Za ilustraciju, Lake je objasnio da standardnoj neuronskoj mreži koja nauči riječi „skoči“, „dvaput“ i „ukrug“ treba pokazati mnogo primjera kako se te riječi mogu kombinirati u smislene fraze, poput „skoči dvaput“ i „skači ukrug“.
Ako se sustavu potom doda nova riječ, poput „vrti se“, on bi ponovno trebao vidjeti hrpu primjera kako bi naučio kako nju koristiti na sličan način.
AI se pokazao uspješnim kao ljudi
U novoj studiji Lake i koautor studije Marco Baroni sa Sveučilišta Pompeu Fabra u Barceloni testirali su modele AI-ja i ljudske dobrovoljce koristeći izmišljeni jezik s nepostojećim riječima poput „dax“ i „wif“. Te su riječi odgovarale obojenim točkama ili pak nekoj funkciji koja na neki način manipulira redoslijedom obojenih točaka u nizu. Drugim riječima, sekvence riječi određivale su redoslijed u kojem su se pojavile obojene točke.
Suočeni s besmislenim frazama, ljudi i umjetna inteligencija morali su otkriti temeljna „gramatička pravila“ koja određuju koje točke idu uz koje riječi.
Ljudski sudionici uspijevali su pogoditi ispravne sekvence točaka u oko 80% slučajeva. A kada nisu uspjeli, radili su dosljedne vrste pogrešaka, kao što je primjerice mišljenje da neka riječ predstavlja jednu točku umjesto funkcije koja reorganizira redoslijed točaka.
Nova metoda učenja za neuronske mreže
Nakon testiranja sedam AI modela znanstvenici su pronašli metodu nazvanu metaučenje za kompozicionalnost (MLC), koja je neuronskoj mreži omogućila da vježba primjenu različitih skupova pravila na novonaučene riječi, uz povratne informacije o tome je li ispravno primijenila pravila.
Studija je pokazala da je neuronska mreža obučena MLC-om uspijevala rješavati testove podjednako dobro kao ljudi ili čak bolje.
Bolja od OpenAI-jevih modela
Autori su također suprotstavili MLC dvama modelima temeljenim na neuronskim mrežama koje je razvio OpenAI, tvrtka koja stoji iza ChatGPT-ja. Otkrili su da su i MLC i ljudi imali daleko bolje rezultate na testu s točkama od modela OpenAI-ja. Usto, pokazalo se da MLC također može rješavati neke druge zadatke koji su uključivali tumačenje pisanih uputa i značenja rečenica.
„Postigli su impresivan uspjeh u tom zadatku, u izračunavanju značenja rečenica“, rekao je Paul Smolensky, profesor kognitivnih znanosti na Johns Hopkinsu i viši glavni istraživač u Microsoft Researchu, koji nije bio uključen u novu studiju.
No, stručnjaci ističu da je AI model još uvijek ograničen u svojim sposobnostima generalizacije.
„Mogao je raditi na tipovima rečenica na kojima je trenirao, ali nije mogao generalizirati u nove tipove rečenica“, rekao je Smolensky za Live science.
Istaknuo je da se unatoč postojećim ograničenjima „do ovog rada stvarno nije uspijevalo istrenirati mrežu da bude potpuno kompozicionalna“.
Dodao je da je poboljšanje sposobnosti MLC-a da ispoljava sustavnu generalizaciju važan sljedeći korak na tom putu.
„To je središnje svojstvo koje nas čini inteligentnima, stoga to moramo postići. Ovaj rad nas vodi u tom smjeru, no za sada to još uvijek ne postiže“, zaključio je.