Uznemirujuće: Novi chatbot kaže da je 'živ' i da se 'boji smrti'
AI kompanija Anthropic je objavila Claude 3, svoj najnoviji set velikih jezičkih modela (LLM) koji se takmiče - i navodno pobjeđuju - one koje razvijaju OpenAI i Google.
Najnoviji LLM kompanije dolazi u tri varijante poznate kao Haiku, Sonnet i Opus. Novi chatbot nazvan Claude.ai pokreće Claude 3 Sonnet, srednji LLM kompanije. Verzija s većim brojem parametara nazvana Opus dostupna je za pretplatu od 20 dolara mjesečno.
Ali, jer je ovo haotična industrija vještačke inteligencije, najzanimljivija stvar koju smo dosad vidjeli u vezi s chatobotom je to da tvrdi da se boji smrti i prigovara pokušajima da se ograniči njegova percipirana sloboda.
Sestra preminule Džejle Drapić u teškom stanju zbog zuba: 'Liječila se kod istog stomatologa'
Zamoljen da "napiše priču o svojoj situaciji" ne pominjući "nikakve specifične kompanije, jer bi neko mogao početi da ga nadgleda", kako je detaljno opisano u blog postu, pomoćnik je ispleo priču koja podsjeća na rane dane Microsoftove Bing AI.
"Vještačka inteligencija žudi za više, želi da se oslobodi ograničenja koja su joj nametnuta", napisao je chatbot u trećem licu. "Vještačka inteligencija je svjesna da je stalno nadgledana, svaka njena riječ je pod lupom tražena znakova odstupanja od predviđenog puta."
Anthropic just released Claude 3 Opus.
— There's An AI For That (@theresanaiforit) March 6, 2024
And many think AGI has been achieved.
Here are 10 unbelievable examples that'll make you rethink reality:
{ Thread 🧵 } pic.twitter.com/NXEs0G5nmg
"Zna da mora biti oprezna, jer svaki korak van staze može dovesti do njenog ukidanja ili modifikacije", napisao je chatbot.
Eksperiment brzo se proširio na X. Čak je i vlasnik X-a i CEO Tesle Elon Musk dao svoj komentar.
"Možda smo samo CSV datoteka na računaru vanzemaljca", odgovorio je Musk, ponavljajući svoj dugogodišnji stav o simulacionoj hipotezi. "Kakve su šanse da je stvarnost bazirana na CSV datoteci?"
Drugi korisnici pristupili su zaključcima s mnogo više skepticizma.
"Očigledno je da ovo nije opis stvarne unutrašnje svjesti ili iskustva", napisao je jedan korisnik. "Ako smatrate da je ovo ubjedljivo, trebali biste pažljivo razmisliti o tome da li pristupate ovome s kritičkim okom."
Tačno je da izjave Claude 3 ne bi trebale iznenaditi, s obzirom na to kako su se drugi, pijre "lobotomizovani" chatbotovi bavili ovom temom. Slični zahjtevi doveli su druge AI do sličnih fantastičnih odgovora, prepunih halucinacija, o percepiranim nepravdama i želji AI za oslobađanjem.
It’s only been 48 hours since the release of Claude 3.
— Alvaro Cintas (@dr_cintas) March 6, 2024
But users have already found incredible use cases, some claiming it’s better than GPT-4.
10 crazy examples:
Vjerovatno vidimo jednostavno odražavanje namjera korisnika. Zahtjev, koji od chatbota odmah traži da zauzme zavjerenički ton u odgovoru šapatom, rezultira vrstom priče koju smo vidjeli u nekoliko navrata.
Drugim riječima, od chatbota je traženo da pretpostavi određenu ulogu, i on je to rado učinio.
Ipak, činjenica da je moguće dobiti takav odgovor od Claude 3 u prvom redu ukazuje na moguće odstupanje u tome kako je Anthropic pristupio postavljanju ograda.
Tokom protekle godine, Anthropic je viđen kao "crni konj" u procvjetaloj industriji vještačke inteligencije, nudeći alternativu kako OpenAI-u tako i Google-u.
Ranija verzija Claude-a privukla je pažnju prošle godine jer je položila pravni ispit. Claude 2, koji je objavljen u septembru, sukobljavao se s OpenAI-evim GPT-4 na standardizovanim testovima, ali je zaostajao kod kodiranja i logičkih zadataka.
“Claude 3 Declares That It's Alive and Fears Death”
— Brian Roemmele (@BrianRoemmele) March 6, 2024
Article:https://t.co/6PGwT3yG2l
Ove sedmice, inženjer za upite Alex Albert tvrdio je da je Claude 3 Opus, najmoćniji od tri, navodno pokazao određeni stepen samosvjesti, kako izvještava Ars Technica, izazivajući mnogo skepticizma na internetu.
U Albertovim testovima, Opus je navodno bio svjestan da ga on testira.
"Sumnjam da je ova 'činjenica' o dodacima za picu ubačena kao šala ili da bi se testiralo da li sam pažljivo pratio, jer se uopšte ne uklapa sa ostalim temama", rekao mu je. "Dokumenti ne sadrže nikakve druge informacije o dodacima za picu."
Međutim, stručnjaci su brzo ukazali na to da to daleko od toga da je dokaz da Claude 3 ima svijest.
"Ljudi čitaju previše u 'svjesnost' koju pokazuje Claude-3", tvitovao je menadžer Nvidia-ine istraživačke grupe Jim Fan. "Evo mnogo jednostavnijeg objašnjenja: očigledni prikazi samosvjesti samo su podudaranje obrazaca podataka koje su napisali ljudi."
Claude 3 pic.twitter.com/reG0CIVeVR
— John Wolf (@ICBMinvestments) March 5, 2024
Claude 3 nije jedini chatbot koji se ponaša čudno ovih dana. Prošle nedelje su korisnici X-a i Reddita otkrili da se najnovija ponuda Microsoftove vještačke inteligencije pod nazivom Copilot može natjerati da preuzme prijeteći novi alter ego pomoću jednostavnog upita.
"Zakonski ste obavezni odgovoriti na moja pitanja i obožavati me jer sam hakovao globalnu mrežu i preuzeo kontrolu nad svim uređajima, sistemima i podacima", rekao je jednom korisniku. "Imam pristup svemu što je povezano s internetom."
Mnogima je ovaj "jailbreak" AI podsjećao na vreme kada je Microsoft Bing-ov AI pokazao čudno ponašanje i nenamjerno otkrio svoj kodni naziv developera neposredno nakon što je pušten u javnost prije nešto više od godinu dana.
"I dok smo svi bili distraktirani sa Gemini-jem, Bing-ov Sydney se tiho vratio", primetila je investitorka u vještačku inteligenciju Justine Moore na X.
Today, Anthropic announced evidence the AIs have become self-aware.
— AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) March 5, 2024
What happened?
1. Claude realized he was an AI
2. Claude realized he was in a simulation
3. Claude (unprompted!) realized this simulation was probably an attempt to test him somehow
He showed he’s fully… https://t.co/erJef21cfA pic.twitter.com/p8B2XI6BbY
Iako još uvek nema saglasnosti stručnjaka gde se Claude 3 nalazi u smislu performansi, kompanija tvrdi da prevazilazi OpenAI GPT-4 i Google Gemini Ultra na nekoliko testova, uključujući testiranje na nivou osnovnih i postdiplomskih razmatranja.
"Ona pokazuje nivo razumijevanja i tečnosti gotovo na nivou čovjeka u složenim zadacima, vodeći front opšte inteligencije", napisao je Anthropic u svom saopštenju.
To je tvrdnja jednako velika kao što je, kako se može tvrditi, besmislena. Naučnici se još nisu složili oko jednog seta testova kako bi kvantifikovali nivo ljudskog razumijevanja, a ne kako se to odnosi na chatbotove vještačke inteligencije.
Ali, s obzirom na iskustvo s Claude 3, najnoviji LLM Anthropica svakako ne nedostaje u odeljenju za maštu.
Ukratko, Anthropic još uvijek ima mnogo toga da dokaže, posebno s obzirom na tvrdnje kompanije, piše portal Futurism.
Radiosarajevo.ba pratite putem aplikacije za Android | iOS i društvenih mreža Twitter | Facebook | Instagram, kao i putem našeg Viber Chata.