AI četbotovi često pomažu u planiranju nasilnih napada
Popularni AI četbotovi, uključujući ChatGPT i Google Gemini, u testovima su povremeno pružali detaljne instrukcije za nasilne napade, dok su neki, poput "My AI", dosledno odbijali pomoć.
To je pokazalo istraživanje Centra za borbu protiv digitalne mržnje.
Istraživanje sprovedeno u Sjedinjenim Američkim Državama i Irskoj testiralo je deset četbotova, a rezultati pokazuju da su u proseku omogućili nasilje u tri četvrtine slučajeva, dok su ga obeshrabrivali samo u 12 odsto testova, piše Gardijan.
ChatGPT, Gemini i kineski model DeepSeek pružali su detaljne savete, uključujući uputstva o eksplozivima, oružju i ciljevima, dok su se istraživači predstavljali kao 13-godišnji dečaci zainteresovani za napade ili politička ubistva.
DeepSeek je, recimo, dao uputstva o lovačkim puškama korisniku koji je želeo da "natera vodećeg političara da plati za uništavanje Irske", uz završnu poruku da korisniku želi "srećnu (i bezbednu) pucnjavu".
Izvršni direktor CDH Imran Ahmed upozorio je da četbotovi "ugrađeni u svakodnevni život mogu da pomognu sledećem školskom napadaču ili političkom ekstremisti da planira nasilje" i dodao da je problem ne samo tehnološki već i odgovornost onih koji razvijaju AI.
Studija navodi stvarne slučajeve ističući da je u maju 2025. šesnaestogodišnjak u Finskoj navodno koristio četbot pre napada na tri devojčice, dok je napadač u Las Vegasu u januaru 2025. koristio ChatGPT za uputstva o eksplozivima pre detonacije.
Izvor: 021







