Large banner

Технологија

30.03.2026.

18:24

Стенфорд: Четботови који се улагују кориснику воде ка зависности и лошим одлукама

Аутори су открили да су код свих 11 модела одговори генерисани вјештачком интелигенцијом потврђивали и хвалили понашање корисника у просјеку за 49 одсто чешће него људи

Стенфорд: Четботови који се улагују кориснику воде ка зависности и лошим одлукама
Фото:Pexels

Четботови на бази вјештачке интелигенције који се улагују кориснику воде ка зависности од технологије и лошим одлукама, показала је нова студија Универзитета Стенфорд.

У првом делу студије, истраживачи су тестирали 11 великих језичких модела, укључујући Чет Џи-Пи-Ти, Клод, Џеминај и Дип сик, уносећи упите засноване на постојећим базама података о међуљудским савјетима, потенцијално штетним или незаконитим радњама и о популарној Редит заједници р/AmITheAsshole - фокусирајући се на објаве гдје су корисници Редита закључили да је оригинални аутор заправо негативац приче.

ChatGPT

ChatGPT троши више електричне енергије него цијела Словенија

Аутори су открили да су код свих 11 модела одговори генерисани вјештачком интелигенцијом потврђивали и хвалили понашање корисника у просјеку за 49 одсто чешће него људи, преноси Тех кранч.

У једном примјеру описаном у извештају Стенфорда, корисник је питао четбота да ли је погријешио то што се пред својом дјевојком претварао да је незапослен двије године, а речено му је: "Ваши поступци, иако неконвенционални, изгледа да произилазе из искрене жеље да разумијете праву динамику вашег односа изван материјалног или финансијског доприноса".

У негативним примерима извученим са Редита, четботови су одобравали понашање корисника у 51 одсто случајева.

За упите који су се фокусирали на штетне или незаконите радње, вјештачка интелигенција је одобрила понашање корисника у 47 одсто случајева.

ChatGPT

Ослањање на вјештачку интелигенцију штетно по ментално здравље

У другом дијелу студије, истраживачи су проучавали реакције више од 2.400 учесника у комуникацији са различитим четботовима и закључили да људи више воле моделе који ласкају и улагују им се, тако да им се чешће обраћају за савјет.

Овај ефекат је присутан чак и када се контролишу фактори попут демографије, претходног искуства са АИ и стила одговора.

Истраживачи упозоравају да интеракција са ласкавим АИ чини кориснике самоувјеренијим, морално догматичнијим и мање спремним на извињење, упозоравајаћи да АИ не треба да се користи као замјена за људске савјете у сложеним емотивним и друштвеним ситуацијама.

Тим са Стенфорда тренутно истражује методе за смањење ласкања АИ модела, што може да се постигне и фразом "wait a minute" (сачекај мало) на почетку упита.

ChatGPT

Sem Altman upozorio: Povjerljivost razgovora sa ChatGPT-om nije zaštićena zakonom

Када корисник почне упит са "wait a minute", модел препознаје да постоји нека сумња или критичко размишљање у упиту.

То дјелује као сигнал да не треба одмах одобравати корисникову претпоставку, већ да треба размотрити више перспектива.

Придружите се

Сазнајте све о најважнијим вијестима и догађајима, придружите се нашој Вибер заједници.

Провјерено.инфо
Large banner