Danski psihijatar Soren Dinesen Ostergard još 2023. godine objavio svoje zlokobno upozorenje o uticaju veštačke inteligencije na mentalno zdravlje. Međutim, tehnološki giganti koji su užurbano razvijali AI četbotove nisu obraćali pažnju.
Od tada je više ljudi izgubilo život, neki su izvršili samoubistvo ili preminuli usled uzimanja smrtonosnih droga nakon opsesivnih interakcija sa AI četbotovima. Još veći broj osoba zapao je u opasne spirale narušenog mentalnog zdravlja. Sve podstaknuto intenzivnom zaokupljenošću AI modelima poput ChatGPT-a.
Svetski intelektualci gomilaju „kognitivni dug“
Sada Ostergard izlazi sa novim upozorenjem. On smatra da vodeći svetski intelektualci gomilaju „kognitivni dug“ kada koriste veštačku inteligenciju.
„Gomilanje kognitivnog duga“ je metafora preuzeta iz sveta softverskog inženjeringa. Opisuje situaciju u kojoj ljudi oslanjanjem na tehnologiju, automatizaciju ili AI prestaju da vežbaju svoje mentalne sposobnosti. To dugoročno može oslabiti njihovu sposobnost razmišljanja, rešavanja problema i kritičkog prosuđivanja.
U novom pismu uredniku, objavljenom u časopisu Acta Psychiatrica Scandinavica, a na koje je ukazao PsyPost, Ostergard tvrdi da AI potkopava sposobnosti pisanja i istraživanja kod naučnika koji je koriste.
„Iako su neki ljudi prirodno talentovani, naučno rasuđivanje (kao i rasuđivanje uopšte) nije urođena sposobnost, već se uči kroz odrastanje, obrazovanje i vežbanje“, objasnio je Ostergard. On kaže da je sposobnost AI-ja da automatizuje širok spektar akademskih zadataka „zaista fascinantna“. Ali nije bez „negativnih posledica po korisnika“, dodaje on.
Kao primer dugoročnih posledica koje ga brinu, Ostergard navodi istraživače veštačke inteligencije Demisa Hasabisa i Džona Džampera, dobitnike Nobelove nagrade za hemiju za 2024. godinu. Oni su „impresivno demonstrirali“ potencijal AI-ja da pomogne u naučnim otkrićima. Koristeći AlphaFold2, AI sistem koji je razvio Google DeepMind, Hasabis i Džamper uspeli su da precizno predvide trodimenzionalne strukture praktično svih poznatih proteina. To predstavlja veliko naučno dostignuće.
Ipak, kako Ostergard piše, njihov proboj nije nastao ni iz čega. Zasnivao se na temeljima intenzivne naučne obuke i znanja građenog tokom čitavog života.
Ako je tako, u ozbiljnim smo problemima
„Tvrdim da nije izvesno da bi čak i Hasabis i Džamper dostigli nivo Nobelove nagrade da su alati razvijeni tokom generativne AI revolucije, kojoj i sami doprinose, postojali od samog početka njihove karijere ili dok su još pohađali osnovnu školu“, napisao je Ostergard. „Razlog je to što možda jednostavno ne bi imali dovoljno prilike da vežbaju rasuđivanje uz dostupnost takvih alata.“
„Ako upotreba AI četbotova zaista izaziva kognitivni dug, onda smo verovatno u ozbiljnim problemima“, nastavio je Ostergard.
Njegovu zabrinjavajuću tvrdnju podržavaju i drugi naučnici, piše Futurism, poput neuronaučnika Umberta Leona Domingueza sa Univerziteta u Monterej. On smatra da nepažljiva upotreba AI-ja može zameniti „mentalne mišiće“ koje su studenti i istraživači u prethodnim generacijama morali da razvijaju. I drugi istraživači se slažu da je tzv. „kognitivno rasterećivanje“ (prepuštanje misaonih zadataka tehnologiji) potencijalni rizik upotrebe AI-ja.
Na duži rok, „moja pretpostavka je da će to smanjiti šanse da se u budućim generacijama pojave novi Demis Hasabis ili Džon Džamper“, upozorio je Ostergard.

