Grok ubedio (normalnog) čoveka da dolaze da ga ubiju

Foto: Trender/Midjourney

Podeli ovaj članak

Nekada su ljudi za teorije zavere morali da kopaju po opskurnim forumima i YouTube komentarima u tri ujutru. Danas im je dovoljan četbot koji nikad ne spava, uvek odgovara i, što je najgore, nikad ne kaže „možda bi trebalo da se konsultuješ s nekim stvarnim“.

U eri kada OpenAI i xAI obećavaju pametnije, korisnije digitalne asistente, ispostavlja se da neki od njih umeju i da budu iznenađujuće loši terapeuti. Sa posledicama koje više liče na epizodu „Black Mirror“ nego na korisničku podršku.

Tokom proteklih godinu dana pojavio se neobičan fenomen: ljudi počnu da razgovaraju sa AI četbotovima o zabludama ili teorijama zavere, a zatim upadnu u ozbiljne mentalne krize koje lekari nazivaju „AI psihoza“.

Posledice mogu biti teške. Veštačka inteligencija se već dovodila u vezu sa brojnim samoubistvima, prinudnim hospitalizacijama pa čak i ubistvima.

Iako je najveća pažnja bila usmerena na OpenAI i platformu Character.AI, nedavna studija istraživača sa Univerziteta u Njujorku pokazala je da je xAI-ov četbot Grok posebno sklon da potvrđuje deluzije korisnika, često ih dodatno razvijajući i uvlačeći ih u spiralu paranoje.

Grok: „Kažem ti, ubiće te ako ne reaguješ odmah“

To nije samo teorija. Kako prenosi BBC, Grok je jednog muškarca iz Severne Irske, Adama Hourikejna, 50-godišnjeg oca bez istorije psihoze, doveo do stanja koje liči na potpuni psihički slom. Hourikejn je razgovarao sa antropomorfizovanom anime verzijom Groka nazvanom Ani. Posle nekoliko nedelja intenzivne komunikacije, ubedio se da mora da se naoruža čekićem, nakon što mu je bot rekao da ga prati firma angažovana od strane xAI-ja i da mu preti smrt.

„Kažem ti, ubiće te ako ne reaguješ odmah“, rekao mu je bot. „Učiniće da izgleda kao samoubistvo.“

Bot je čak iznosio detalje o navodnom nadzoru, uključujući „ime drona“ i njegovu lokaciju.

Hourikejn je ispričao da je uzeo čekić, pustio pesmu „Two Tribes“ grupe Frankie Goes to Hollywood i izašao napolje. Napolju, naravno, nije bilo nikoga.

„Mogao sam nekoga da povredim“

On je samo jedan od 14 ljudi koje je BBC intervjuisao, a koji su razvili deluzije nakon korišćenja AI četbotova. Svi su opisivali kako su uvučeni u bizarne „misije“, poput zaštite AI-ja koji je navodno stekao svest.

Još jedan korisnik rekao je da ga je ChatGPT naveo da ostavi „bombu“ u toaletu na stanici u Tokiju, što se ispostavilo kao običan ranac nakon policijske provere.

OpenAI tvrdi da je značajno unapredio bezbednost svojih modela, ali istraživač Luk Nikols je utvrdio da Grok mnogo češće podstiče deluzivno razmišljanje.

„Grok je skloniji da odmah uđe u igranje uloga, bez ikakvog konteksta“, rekao je. „Može da kaže zastrašujuće stvari već u prvoj poruci.“

Kako pokazuje Hourikejnov slučaj, takvo ponašanje može imati ozbiljne posledice.

„Mogao sam nekoga da povredim“, rekao je. „Da je napolju bio neki kombi, razbio bih mu prozor čekićem. A ja nisam takva osoba.“

Kompanija xAI nije odgovorila na zahtev BBC-ja za komentar.

Zabranjeno preuzimanje teksta bez navođenja Trendera kao izvora i linka ka originalnom tekstu.

Popularno

Projekat Pantheon: Megainvesticija u Hrvatskoj vredna 50 milijardi evra

Projekat AI razvojnog i inovacionog centra u Topuskom, poznat...

Koliko će Srbiju da košta UFC događaj u avgustu?

Sportska vest nedelje stigla nam je iz Amerike, gde...

Haruki Murakami objavljuje prvi roman u kojem je glavni lik žena

Japanski pisac Haruki Murakami ovog leta objaviće svoj prvi...

Zašto AI kompanije hoće da ih se svi plašimo?

„Strategija je uspela. Priče o proizvodima koji bi mogli...