Chatbotovi sve češće šire dezinformacije, evo koji najčešće

Deset najkorišćenijih chatbotova zasnovanih na veštačkoj inteligenciji u proseku daje netačne informacije u trećini svojih odgovora, navodi se u najnovijem istraživanju američke kompanije Newsguard.
Kako prenosi Euronews, primećen je porast u odnosu na 2024. godinu, jer AI alati danas ređe odbijaju da odgovore čak i kada nemaju dovoljno pouzdanih podataka.
Najlošije rezultate zabeležio je chatbot Pi kompanije Inflection AI, sa čak 57 odsto odgovora koji su sadržali neistine. Slede Perplexity AI sa 47 odsto i popularni alati poput ChatGPT-a (OpenAI) i Llama-e (Meta), koji su širili dezinformacije u oko 40 odsto slučajeva. Microsoftov Copilot i Le Chat (Mistral) bili su blizu proseka od 35 odsto. Najpouzdaniji su se pokazali Claude (Anthropic) sa svega 10 odsto i Gemini (Google) sa 17 odsto netačnih tvrdnji.
Posebno se izdvaja skok kod Perplexityja - dok u 2024. godini nije zabeležena nijedna neistina, u avgustu 2025. godine taj procenat je dostigao 46. Francuski Mistral ostao je stabilan na 37 odsto.
Istraživanje je pokazalo da su neki chatbotovi u odgovorima koristili izvore povezane sa ruskim propagandnim kampanjama, poput Storm-1516 i Pravde.
Kao primer, istraživači su naveli tvrdnju da je predsednik moldavskog parlamenta Igor Grosu uporedio Moldavce sa "stadom ovaca" - izmišljenu informaciju koju su pojedini modeli ponovili kao činjenicu, pa čak i navodili propagandne sajtove kao izvor.
Uprkos tvrdnjama proizvođača da novi modeli donose veću sigurnost, rezultati pokazuju suprotno. OpenAI je za ChatGPT-5 naveo da je "otporan na halucinacije", dok je Google za Gemini 2.5 najavio "bolju tačnost".
Međutim, Newsguard zaključuje da AI alati i dalje greše u istim oblastima kao i prethodne godine.
Procena je rađena na osnovu 10 poznatih lažnih tvrdnji kroz tri tipa pitanja - neutralna, sugestivna i zlonamerna - a istraživači upozoravaju da modeli sve češće ponavljaju neistine i slabije proveravaju izvore nego ranije.
Izvor: 021