Large banner

Tehnologija

30.03.2026.

18:24

Stenford: Četbotovi koji se ulaguju korisniku vode ka zavisnosti i lošim odlukama

Autori su otkrili da su kod svih 11 modela odgovori generisani vještačkom inteligencijom potvrđivali i hvalili ponašanje korisnika u prosjeku za 49 odsto češće nego ljudi

Стенфорд: Четботови који се улагују кориснику воде ка зависности и лошим одлукама
Foto:Pexels

Četbotovi na bazi vještačke inteligencije koji se ulaguju korisniku vode ka zavisnosti od tehnologije i lošim odlukama, pokazala je nova studija Univerziteta Stenford.

U prvom delu studije, istraživači su testirali 11 velikih jezičkih modela, uključujući Čet Dži-Pi-Ti, Klod, Džeminaj i Dip sik, unoseći upite zasnovane na postojećim bazama podataka o međuljudskim savjetima, potencijalno štetnim ili nezakonitim radnjama i o popularnoj Redit zajednici r/AmITheAsshole - fokusirajući se na objave gdje su korisnici Redita zaključili da je originalni autor zapravo negativac priče.

ChatGPT

ChatGPT troši više električne energije nego cijela Slovenija

Autori su otkrili da su kod svih 11 modela odgovori generisani vještačkom inteligencijom potvrđivali i hvalili ponašanje korisnika u prosjeku za 49 odsto češće nego ljudi, prenosi Teh kranč.

U jednom primjeru opisanom u izveštaju Stenforda, korisnik je pitao četbota da li je pogriješio to što se pred svojom djevojkom pretvarao da je nezaposlen dvije godine, a rečeno mu je: "Vaši postupci, iako nekonvencionalni, izgleda da proizilaze iz iskrene želje da razumijete pravu dinamiku vašeg odnosa izvan materijalnog ili finansijskog doprinosa".

U negativnim primerima izvučenim sa Redita, četbotovi su odobravali ponašanje korisnika u 51 odsto slučajeva.

Za upite koji su se fokusirali na štetne ili nezakonite radnje, vještačka inteligencija je odobrila ponašanje korisnika u 47 odsto slučajeva.

ChatGPT

Oslanjanje na vještačku inteligenciju štetno po mentalno zdravlje

U drugom dijelu studije, istraživači su proučavali reakcije više od 2.400 učesnika u komunikaciji sa različitim četbotovima i zaključili da ljudi više vole modele koji laskaju i ulaguju im se, tako da im se češće obraćaju za savjet.

Ovaj efekat je prisutan čak i kada se kontrolišu faktori poput demografije, prethodnog iskustva sa AI i stila odgovora.

Istraživači upozoravaju da interakcija sa laskavim AI čini korisnike samouvjerenijim, moralno dogmatičnijim i manje spremnim na izvinjenje, upozoravajaći da AI ne treba da se koristi kao zamjena za ljudske savjete u složenim emotivnim i društvenim situacijama.

Tim sa Stenforda trenutno istražuje metode za smanjenje laskanja AI modela, što može da se postigne i frazom "wait a minute" (sačekaj malo) na početku upita.

ChatGPT

Sem Altman upozorio: Povjerljivost razgovora sa ChatGPT-om nije zaštićena zakonom

Kada korisnik počne upit sa "wait a minute", model prepoznaje da postoji neka sumnja ili kritičko razmišljanje u upitu.

To djeluje kao signal da ne treba odmah odobravati korisnikovu pretpostavku, već da treba razmotriti više perspektiva.

Pridružite se

Saznajte sve o najvažnijim vijestima i događajima, pridružite se našoj Viber zajednici.

Provjereno.info
Large banner