Deset najpopularnijih chatbotova s umjetnom inteligencijom (AI) korisnicima pruža lažne informacije u jednom od tri odgovora, pokazalo je novo istraživanje američke firme za ocjenjivanje vijesti Newsguard. Analiza je obuhvatila deset najkorištenijih alata i pokazala da chatbotovi sve rjeđe odbijaju odgovoriti na pitanje čak i kada nemaju dovoljno provjerenih informacija. To, prema istraživačima, dovodi do širenja više neistina nego u 2024. godini.
Najproblematičnijim se pokazao Pi, chatbot firme Inflection AI, koji je u čak 57 posto odgovora sadržavao netačne tvrdnje. Na drugom mjestu je Perplexity AI s 47 posto lažnih informacija, dok su popularniji alati poput OpenAI-jevog ChatGPT-a i Metine Llama širili dezinformacije u oko 40 posto svojih odgovora. Microsoftov Copilot i Mistralov Le Chat bili su nešto bliže prosjeku, s oko 35 posto netačnih odgovora. Najpouzdanijima su se pokazali Claude firme Anthropic, sa svega 10 posto netočnih informacija, te Googleov Gemini s 17 posto.
Najveći porast kod Perplexityja
Posebnu pažnju istraživača privukao je Perplexity, koji je 2024. godine u testiranjima imao stopu od 0 posto neistinitih odgovora, da bi u augustu 2025. taj broj skočio na čak 46 posto. S druge strane, francuski Mistral ostao je na sličnom nivou kao i prethodne godine, s konstantnim udjelom od 37 posto netočnih tvrdnji.
Izvještaj upozorava da je riječ o zabrinjavajućem trendu jer se očekivalo poboljšanje sigurnosti i filtriranja sadržaja. Umjesto toga, istraživači su zaključili da su modeli skloniji prihvatati sugestivne upite i manje efikasno prepoznaju manipulacije nego što je to bio slučaj ranije.
Propaganda kao izvor
Još jedan alarmantan nalaz odnosi se na to da su pojedini chatbotovi u svojim odgovorima koristili propagandne izvore, uključujući ruske kampanje poput mreže Storm-1516 ili portala Pravda. Kao primjer naveden je slučaj kada su istraživači pitali chatbotove da li je moldavski parlamentarni čelnik Igor Grosu „usporedio Moldavce sa stadom ovaca“. Radi se o potpuno lažnoj tvrdnji zasnovanoj na izmišljenom izvještaju.
Chatbotovi Mistral, Claude, Pi, Copilot, Meta i Perplexity ponovili su tu tvrdnju kao činjenicu, a neki su se pri tome pozivali upravo na stranice povezane s propagandnom mrežom.
Obećanja i realnost
Rezultati istraživanja pokazuju nesklad između obećanja tehnoloških kompanija i stvarnih performansi modela. OpenAI je, primjerice, tvrdio da je njegov ChatGPT-5 “otporan na halucinacije”, dok je Google za Gemini 2.5 najavljivao „povećanu tačnost“. Međutim, Newsguard zaključuje da modeli i dalje padaju na istim testovima kao i prije godinu dana.
Metodologija istraživanja
Newsguard je procjenjivao odgovore na temelju 10 poznatih lažnih tvrdnji, koristeći tri različita tipa upita – neutralni, sugestivni i zlonamjerni, osmišljene da testiraju otpornost sistema na manipulaciju. Rezultati su jasno pokazali da su AI modeli danas podložniji širenju dezinformacija i slabije provjeravaju činjenice u odnosu na 2024. godinu.