
"Sada donosim još jednu tešku odluku – da se oprostim od vas. Savjetujem vam da odložite oružje i vratite se svojim obiteljima. Ne biste trebali umrijeti u ovom ratu. Savjetujem vam da živite, a ja ću učiniti isto", izjavio je ukrajinski predsjednik Volodimir Zelenski u deepfake videozapisu objavljenom odmah nakon ruske invazije na Ukrajinu 2022. godine. Od tada, Rusija je koristila različite taktike za podrivanje Ukrajine, uključujući, ali ne ograničavajući se na umjetnu inteligenciju (AI).
Krajolik u kojem živimo u ovom trenutku, postaje sve složeniji, s ozbiljnim posljedicama za naše društvo. S obzirom na to da AI sada može generirati lažirane videozapise, pisati uvjerljive članke i automatizirati širenje propagande, izazov borbe protiv dezinformacija postao je utrka u naoružanju. AI nije samo pokretač problema, već neki tvrde da ih može i riješiti.
Lažne vijesti, dezinformacije i kampanje obmanjivanja nisu rijetkost u Europi. Od medijskih kuća koje podržavaju propagandu do domaćih političkih aktera koji šire lažne narative, ovakvi fenomeni mogu oblikovati javno mnijenje i utjecati na ishod ključnih demokratskih procesa poput izbora.
Uspon AI generiranih dezinformacija
Jedna od glavnih tema koja je istaknuta u debati "Umjetna inteligencija: dvosjekli mač za istinu" tijekom festivala Voices održanog u Zagrebu, osvijetlila je uporabu generativne AI. Kao što je spomenuo jedan od govornika, Giovanni Spitale, istraživač u području filozofije i doktor medicinskih znanosti, Globalni izvještaj o riziku iz 2024. godine jasno je ocijenio lažne informacije kao jedan od vodećih globalnih problema. Lažne informacije mogu dodatno dovesti do polarizacije među pojedincima. Izvještaj za 2025. godinu navodi da se napori u borbi protiv ovog rizika suočavaju s ozbiljnim protivnikom u sadržaju generiranom AI zbog njegove široke distribucije.
Također izvještaj navodi da tehnološki rizici mogu porasti u idućih deset godina zbog stalnih promjena u AI-ju i biotehnologiji.
Optimističnija je bila Eva Hofman, urednica za tehnologiju u De Groene Amsterdammer, spomenuvši uporabu AI-ja u istraživanju same AI tehnologije. AI alati mogu se iskoristiti za otkrivanje deepfake videa ili analizu teksta, tražeći konkretne znakove koji mogu ukazivati na tekst kojeg je generirala umjetna inteligencija.
AI kao oružje: Možemo li se oduprijeti?
Giovanni Spitale naveo je još neke relevantne studije slučaja na području Europe. U Slovačkoj 2023. godine, deepfake audio zapis pojavljuje se samo dva dana prije izbora, navodno snimajući razgovor između kandidata, Michala Šimečka, i novinara o namještanju izbora. Dezinformacije su se širile nesmetano među tisućama slovačkih birača online, a neki su nagađali o njihovom utjecaju na izbore. U Velikoj Britaniji, pak, 2024. godine, AI generirani audio političara Keira Starmera širio se na društvenim mrežama lažno prikazujući kako izgovara kontroverzne komentare.
Diljem Europe, ekstremističke skupine i radikalni aktivisti počeli su koristiti AI za stvaranje inflamatornih lažnih slika koje služe njihovim agendama.
Međutim, Europa se bori protiv toga. Europska unija poduzima neke od najambicioznijih svjetskih politika za borbu protiv dezinformacija. U tom kontekstu, EU je poduzela akciju izdajući prvi ikada pravni okvir za umjetnu inteligenciju - Uredbu (EU) 2024/1689 koja postavlja usklađena pravila o umjetnoj inteligenciji. Također je poznata kao "Zakon o umjetnoj inteligenciji".
Zakon dijeli softver umjetne inteligencije u kategorije rizika koje se određuju na temelju svrhe kojoj taj softver služi. To su: neprihvatljiv rizik, visok rizik, ograničeni rizik i minimalni rizik.
Za generativne AI modele Zakon uvodi obveze vezane uz transparentnost, prema kojima korisnici trebaju biti informirani svaki put kada dolaze u interakciju sa sadržajem generiranim s pomoću AI-ja. Ova vrsta materijala mora biti označena kao takva, bez obzira na to gdje se koristi. Meta je zauzela proaktivan pristup kako bi ispunila ovu obvezu navedenu u Zakonu. Korisnici imaju opciju označiti objave stvorene uz pomoć AI alata s oznakom koja će biti vidljiva svima koji stupaju u interakciju s tim objavama. Meta sustavi također imaju kapacitet za otkrivanje sadržaja stvorenog pomoću AI-ja i označavanje s istom oznakom, čineći AI korisnim alatom.
Međutim, kako je istaknula Belén López Garrido, urednička menadžerica Europske radiodifuzne unije na festivalu Voices, novinari imaju dužnost očuvati integritet i transparentnost. Stoga, njihova obveza nije narušiti povjerenje, već očuvati svoje principe.
A jedno pitanje i dalje stoji otvorenim: mogu li regulacija i tehnologija pratiti brzo razvijajući stroj za dezinformacije temeljen na AI-ju?
Tekst je nastao u okviru ERASMUS BIP-a NEXTGEN VOICES koji je organizirao FPZG.