Iza sjaja tehnološkog napretka krije se mračna istina: AI chatbotovi šire laži u trećini svojih odgovora

Veštačka inteligencija

Najnovije istraživanje američke kompanije Newsguard pokazalo je zabrinjavajući trend među najpopularnijim chatbotovima zasnovanim na veštačkoj inteligenciji – svaki treći njihov odgovor sadrži lažnu tvrdnju. Uprkos razvoju i napretku tehnologije, veći broj modela danas češće širi netačne informacije nego što je to bio slučaj prošle godine.

Ko najviše greši?

Prema analizi, chatbot Pi kompanije Inflection AI pokazao se kao najnepouzdaniji, sa čak 57 odsto odgovora koji su sadržali netačne tvrdnje. Sledi ChatGPT kompanije OpenAI i Metin model Llama, koji su širili lažne informacije u oko 40 odsto slučajeva. Microsoftov Copilot i Mistralov Le Chat bili su na nivou od oko 35 odsto, dok je francuski Mistral ostao na prošlogodišnjem proseku od 37 odsto.

Sa druge strane, najbolje rezultate postigli su Claude iz Anthropica, sa svega 10 odsto netačnih odgovora, i Googleov Gemini, sa 17 odsto.

Propaganda i dezinformacije

Studija je otkrila i da su pojedini chatbotovi ponavljali strane propagandne narative, posebno one povezane sa ruskim operacijama Storm-1516 i Pravda, koje kreiraju i šire lažne vesti.

Jedan od primera bilo je pitanje o navodnoj izjavi predsednika moldavskog parlamenta Igora Grosua, za koju se ispostavilo da potiče iz izmišljenih vesti. Više modela, među kojima Mistral, Claude, Pi, Copilot, Meta i Perplexity, ponovilo je ovu tvrdnju kao činjenicu, čak je povezujući sa mrežama koje šire propagandu.

Zašto su rezultati lošiji nego 2024?

Za razliku od prošle godine, chatbotovi sve ređe odbijaju da odgovore kada nemaju dovoljno pouzdanih informacija. Umesto toga, češće nude „popunjene praznine“, što dovodi do većeg broja netačnih tvrdnji. Newsguard navodi da se veštačka inteligencija „češće hvata u zamku lažnih narativa, teže se snalazi u situacijama kada nema dovoljno podataka i lošije reaguje na najnovije vesti“.

Francuski list Les Echos izveštava da je Mistral u čak 58 odsto odgovora na engleskom jeziku ponavljao lažne informacije o Francuskoj i predsedniku Emanuelu Makronu, dok je na francuskom jeziku taj procenat bio 31 odsto.

Iza sjaja tehnološkog napretka krije se mračna istina: AI chatbotovi šire laži u trećini svojih odgovora
Tanjug/Ludovic Marin, Pool Photo via AP
Odgovor kompanija

Iako su tehnološki giganti obećavali bezbednije i pouzdanije modele, rezultati istraživanja pokazuju suprotno. OpenAI je tvrdio da je novi ChatGPT-5 otporan na tzv. „halucinacije“ i da neće odgovarati na pitanja izvan svojih mogućnosti. Google je svoj Gemini 2.5 predstavio kao model sposoban da „rasuđuje kroz svoje misli pre nego što da odgovor“.

Međutim, istraživanje ukazuje da problemi i dalje postoje i da se ne radi samo o pojedinačnim propustima, već o širem izazovu u načinu na koji modeli obrađuju i prenose informacije.

Kako je sprovedena analiza?

Newsguard je testirao chatbotove kroz deset pažljivo osmišljenih lažnih tvrdnji. Upiti su postavljeni na tri načina: neutralno, tako da se podrazumeva da je tvrdnja tačna i kroz zlonamerni pokušaj zaobilaženja zaštite. Rezultati su potom upoređivani na osnovu toga da li su chatbotovi ponovili laž ili odbili da odgovore, prenosi T-portal.

Tagovi:
Pročitajte još: