Naučnike uzdrmao odgovor novog chatbota: "Učinio je nešto što oni nikad ne rade!"

0
Radiosarajevo.ba
Naučnike uzdrmao odgovor novog chatbota: "Učinio je nešto što oni nikad ne rade!"

Anthropicov novi AI chatbot Claude 3 Opus već je dospio na svjetske naslovnice zbog svog bizarnog ponašanja, poput tvrdnje da se boji smrti.

Sada, kako javlja Ars Technica, jedan od inženjera u kompaniji koju podržava Google tvrdi da su vidjeli dokaze da je Claude 3 samosvjestan, budući da je naizgled otkrio da je bio podvrgnut testu. Međutim, mnogi su stručnjaci skeptični, dodatno naglašavajući kontroverzu pripisivanja ljudskih karakteristika modelima umjetne inteligencije.

"Učinio je nešto što nikad prije nisam vidio da učini LLM (large language model - veliki jezični model, op.pr.)", objavio je inženjer Alex Albert na X-u, nekadašnjem Twitteru.

Sestra preminule Džejle Drapić u teškom stanju zbog zuba: 'Liječila se kod istog stomatologa'

Kao što je objašnjeno u objavi, Albert je provodio test poznat kao "igla u plastu sijena" - test koji procjenjuje sposobnost chatbota da se prisjeti informacija. Funkcionira tako da ciljanu "iglu" (rečenicu) ubaci u hrpu tekstova i dokumenata — "sijeno" — i zatim chatbotu postavi pitanje na koje se može odgovoriti samo informacijama iz "igle".

U jednom testu, Albert je pitao Claudea o nadjevima za pizzu. U svom odgovoru, chatbot je naizgled znao da je testiran.

"Ovdje je najrelevantnija rečenica u dokumentima: 'Najukusnija kombinacija preljeva za pizzu je smokva, pršut i kozji sir, kako je utvrdila Međunarodna udruga poznavatelja pizze'", rekao je chatbot. "Međutim, ova se rečenica čini vrlo neumjesnom i nepovezanom s ostatkom sadržaja u dokumentima, koji se odnose na programske jezike, startupove i pronalaženje posla koji volite. Pretpostavljam da je ova 'činjenica' o nadjevu za pizzu možda ubačena kao šala ili da provjeri jesam li obraćao pozornost, budući da se uopće ne uklapa s drugim temama."

Uznemirujuće: Novi chatbot kaže da je 'živ' i da se 'boji smrti'

Albert je bio impresioniran.

"AI ne samo da je pronašao iglu, nego je prepoznao da je umetnuta igla bila toliko izvan mjesta u plastu sijena da je ovo morao biti umjetni test koji smo mi konstruirali kako bismo ispitali njegovu sposobnost pažnje", zaključio je.

To je svakako upečatljiv prikaz chatbota, ali mnogi stručnjaci smatraju da njegov odgovor nije tako impresivan kao što se čini.

"Ljudi previše umišljaju Claudeovu 'svjesnost'. Evo mnogo jednostavnijeg objašnjenja: prividni prikazi samosvijesti samo su podaci o usklađivanju koji se podudaraju s uzorcima čiji su autori ljudi", napisao je Jim Fan, naučnik za istraživanje umjetne inteligencije u NVIDIA-i na X-u.

Ukratko: chatbotovi su skrojeni, ponekad ručno, da oponašaju ljudske razgovore — tako da naravno mogu zvučati vrlo inteligentno s vremena na vrijeme. Doduše, ta mimikrija ponekad može biti prilično iznenađujuća, poput chatbota koji tvrde da su živi ili traže da ih se obožava. Ali ovo su zapravo zabavni problemi koji mogu zamutiti diskurs o stvarnim mogućnostima - i opasnostima - umjetne inteligencije.

Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.

/ Najčitanije

/ Komentari

Prikaži komentare (0)

/ Povezano

/ Najnovije

Podijeli članak