Inteligența artificială (IA) a devenit un vector major al dezinformării legate de războiul din Ucraina, prin generarea de imagini false și prin tentative de influențare a răspunsurilor chatboților conversaționali, inclusiv a unor sisteme precum ChatGPT. Conflictul, care marchează marți, 24 februarie, intrarea în al cincilea an, este considerat unul dintre cele mai afectate de campanii de manipulare informațională din era rețelelor sociale, potrivit agenției EFE, citată de Agerpres.
De la declanșarea invaziei ruse în 2022, spațiul online a fost inundat de știri false și narațiuni distorsionate care au circulat rapid dincolo de granițe. Totuși, potrivit Olgăi Petriv, avocată specializată în inteligență artificială la Centrul pentru Democrație și Statul de Drept din Ucraina, apariția tehnologiilor generative a marcat o schimbare semnificativă în modul de creare și distribuire a propagandei proruse.
„Dezinformarea a evoluat de la producerea manuală a conținutului fals la operațiuni complet automatizate, desfășurate la scară industrială”, explică experta.
Unul dintre mecanismele utilizate este așa-numitul „LLM Grooming”, care presupune inundarea mediului online cu volume masive de conținut generat artificial, astfel încât acesta să fie preluat de modelele lingvistice de mari dimensiuni și să influențeze răspunsurile oferite de chatboți. Prin multiplicarea sistematică a unor articole fabricate, rețelele de propagandă pot „contamina” ecosistemul informațional, determinând sistemele de inteligență artificială să redea neintenționat informații false ca fiind credibile.
Un exemplu este rețeaua Pravda, un conglomerat de site-uri active în aproximativ 50 de țări, care publică lunar zeci de mii de articole aliniate discursului pro-Kremlin. Potrivit unor investigații, conținutul acestei rețele este uneori citat sau link-uit de alte platforme media și bloguri, ceea ce îi sporește vizibilitatea în motoarele de căutare și în sistemele automate de generare a răspunsurilor.
Pe lângă manipularea textuală, progresele rapide în domeniul imaginilor generate de IA au facilitat crearea unor materiale video greu de deosebit de realitate. Recent, un videoclip devenit viral prezenta un presupus soldat ucrainean de 23 de ani care susținea că a fost forțat să meargă pe front. Ulterior, s-a constatat că materialul fusese generat cu ajutorul inteligenței artificiale, folosind imaginea unui creator de conținut rus cunoscut pentru pozițiile sale critice față de regimul de la Kremlin.
Spre deosebire de primele deepfake-uri apărute la începutul conflictului — precum un material manipulat în care apărea președintele ucrainean Volodimir Zelenski — noile producții sunt mult mai sofisticate, iar eventualele erori sunt subtile și dificil de detectat fără instrumente specializate.
Potrivit Olgăi Petriv, realismul atins de tehnologiile generative face ca simpla observație vizuală să nu mai fie suficientă pentru identificarea falsurilor. În multe cazuri, sunt necesare analize tehnice pentru a determina autenticitatea imaginilor sau a înregistrărilor video.
Experta avertizează, totodată, că proliferarea conținutului artificial poate deveni un „alibi” pentru contestarea probelor reale. Autorii unor abuzuri ar putea respinge imagini autentice, susținând că sunt generate de IA, ceea ce creează o prezumție generalizată de neîncredere și afectează credibilitatea informațiilor verificate.
Mai multe materiale generate artificial au fost distribuite în limbi precum germană, spaniolă, franceză, engleză, italiană și portugheză, ceea ce sugerează existența unor campanii coordonate la nivel internațional. În paralel, în ultimele luni au fost identificate și alte falsuri care vizau descurajarea voluntarilor străini, inclusiv a cetățenilor columbieni, de a lupta de partea Ucrainei sau perturbarea eventualelor negocieri de pace.
Abonează-te la canalul nostru de Telegram pentru cele mai recente știri și analize politice!