Analizirano je više od 3000 AI odgovora na pitanja o aktuelnim događajima, a rezultati su zabrinjavajući: 45 posto odgovora sadržavalo je barem jednu ozbiljnu grešku, dok je 81 posto imalo neki oblik problema – bilo da se radilo o netačnostima, izostanku izvora ili zamjeni mišljenja s činjenicama.
U analizi su obuhvaćeni popularni AI asistenti poput ChatGPT-a, Copilota, Googleovog Geminija i Perplexityja, a evaluacija je rađena na 14 jezika. Među najčešćim propustima istaknute su netačne ili zastarjele informacije, pogrešno navođenje izvora i izostanak razlikovanja činjenica od mišljenja.
Posebno se izdvaja Googleov Gemini, čiji odgovori su u čak 72 posto slučajeva imali ozbiljne probleme s izvorima, što je znatno više u poređenju s manje od 25 posto kod ostalih asistenata. Neki primjeri iz istraživanja uključuju netačne tvrdnje o zakonima vezanim za e-cigarete, kao i slučaj u kojem je ChatGPT nastavio navoditi papu Franju kao živog, iako je već bio preminuo.
Istraživanje je uključilo 22 javna medijska servisa iz 18 zemalja, uključujući Francusku, Njemačku, Španiju, Ukrajinu, Ujedinjeno Kraljevstvo i Sjedinjene Američke Države. Upozorava se da bi nastavak širenja netačnih informacija putem AI alata mogao ozbiljno ugroziti javno povjerenje u vijesti i demokratske procese.
– Kada ljudi više ne znaju čemu mogu vjerovati, na kraju ne vjeruju ničemu, a to može obeshrabriti njihovo učešće u demokratskim procesima – izjavio je Jean Philip De Tender, direktor za medije pri EBU-u.
Prema Reutersovom Digital News Reportu 2025, 7 posto korisnika interneta već koristi AI asistente za praćenje vijesti, a taj broj raste na čak 15 posto među osobama mlađim od 25 godina.
Istraživanje završava pozivom AI kompanijama da preuzmu veću odgovornost i unaprijede načine na koje njihovi asistenti pristupaju i predstavljaju informacije iz svijeta vijesti.
(Vijesti.ba)