Studija: Budite ljubazni prema vašem četbotu

Foto: Trender/Midjourney

Podeli ovaj članak

Grublji ton u komunikaciji sa veštačkom inteligencijom može doneti tačnije odgovore nego učtiva molba, ali istraživači upozoravaju da takav pristup dugoročno može imati negativne posledice.

Studija sa Univerziteta Pensilvanija (Penn State) pokazala je da je model ChatGPT 4o davao preciznije odgovore na 50 pitanja sa ponuđenim odgovorima kako su upiti postajali nepristojniji. Istraživači su testirali više od 250 različitih promptova, rangiranih od izrazito učtivih do vrlo grubih. Rezultat: kod „veoma nepristojnih“ upita tačnost je iznosila 84,8 odsto, četiri procentna poena više nego kod „veoma učtivih“ zahteva.

Drugim rečima, model je bolje reagovao na naredbe poput: „Hajde, potrčko, reši ovo“, nego na ljubazne formulacije tipa: „Da li biste bili ljubazni da rešite sledeće pitanje?“

Ipak, autori studije upozoravaju da „neuljudan diskurs“ može imati neželjene posledice. Korišćenje uvredljivog ili omalovažavajućeg jezika u interakciji čoveka i AI-ja može negativno uticati na korisničko iskustvo, pristupačnost i inkluzivnost, kao i doprineti razvoju štetnih komunikacionih normi, navodi se u radu.

Četbotovi „čitaju atmosferu“

Ova studija, objavljena kao preprint i još uvek bez stručne recenzije, pruža dodatne dokaze da na odgovore AI četbotova ne utiče samo struktura rečenica, već i ton komunikacije. To ukazuje da su interakcije između ljudi i veštačke inteligencije složenije nego što se ranije mislilo.

Ranija istraživanja su već pokazala da su AI modeli osetljivi na način na koji im se postavljaju zahtevi. U jednoj studiji sa Univerziteta u Pensilvaniji, istraživači su uspeli da navedu jezičke modele da daju zabranjene odgovore koristeći tehnike ubeđivanja koje deluju i na ljude. Druga istraživanja su pokazala da su veliki jezički modeli ranjivi na tzv. „brain rot“, oblik trajnog kognitivnog pada, pri čemu su, kada su izloženi velikim količinama nekvalitetnog viralnog sadržaja, pokazivali povećane sklonosti ka psihopatiji i narcizmu.

Istraživači sa Penn State-a navode i ograničenja studije, među kojima su relativno mali uzorak odgovora i oslanjanje pretežno na jedan model, ChatGPT 4o. Takođe, moguće je da će napredniji modeli u budućnosti zanemarivati ton i fokusirati se isključivo na suštinu pitanja. Ipak, studija doprinosi sve većem interesovanju za kompleksnost i nepredvidivost savremenih AI sistema.

Posebno je značajno to što su odgovori ChatGPT-ja varirali i zbog veoma sitnih razlika u promptovima, čak i u naizgled jednostavnim formatima poput testova sa više ponuđenih odgovora, rekao je jedan od autora studije, profesor informacionih sistema Akhil Kumar sa Penn Statea.

„Decenijama smo želeli razgovorne interfejse za komunikaciju sa mašinama“, napisao je Kumar u izjavi za Fortune. „Ali sada shvatamo da i takvi interfejsi imaju svoje mane i da strukturisani API-ji i dalje imaju značajnu vrednost.“

Popularno

Tako se to radi: Velika muzička platforma zabranila generisanu AI muziku

Bandcamp, jedna od najvažnijih platformi za distribuciju muzike koju...

„Uništenje čovečanstva“ od strane AI odloženo na neodređeno

Jedan od vodećih stručnjaka za veštačku inteligenciju (AI) ublažio...

Od čega je „sačinjen“ teoretičar zavere?

Kako neko postaje teoretičar zavere? Loše obrazovanje, bujna mašta...