Anul 2024 va fi marcat de o serie de alegeri în UE și în întreaga lume: sunt programate peste 60 de alegeri majore, inclusiv în țări mari precum India, Indonezia, Mexic, Coreea de Sud, Taiwan și SUA, și în UE, printre altele: Belgia, Irlanda, Croația, Austria, România și Finlanda. Mai mult, vor avea loc și alegerile pentru Parlamentul European în iunie (vezi și numărul 1). Este posibil ca aceste alegeri să fie afectate negativ de dezinformarea online, care continuă să fie răspândită pe platformele de social media. Dezinformarea a fost deja o preocupare la alegerile anterioare prin, printre altele, influența unor actori manipulatori precum roboții, microtargeting ilegal și conturi false. În schimb, alegătorii sunt din ce în ce mai influențați de știrile din rețelele sociale. Prin urmare, este important să nu luăm în considerare creșterea inteligenței artificiale generative (AI), un domeniu larg care cuprinde modele AI care alimentează chatbot-urile și alte instrumente AI pentru a genera texte, videoclipuri și imagini, cum ar fi deepfake-urile. Aceste instrumente AI avansează cu viteze uluitoare. În timp ce unii consideră că IA generativă poate ajuta la optimizarea și îmbunătățirea producției și direcționării reclamelor politice, alții avertizează că aduce perturbări vieții politice și democrației, prezentând noi riscuri de abordat.
Tehnologia AI generativă este o țintă în mișcare rapidă
Pe măsură ce transformarea digitală continuă în politică, ca și în alte sectoare, progresele tehnologice, cum ar fi inteligența artificială generativă, au adus metode noi și puternice pentru crearea și transmiterea dezinformației. De exemplu, ChatGPT, care a fost lansat în noiembrie 2022, este considerată cea mai rapidă aplicație care ajunge la 100 de milioane de utilizatori activi. Un raport publicat în 2023 arată cum utilizatorii pot produce și distribui conținut fals sau propagandistic într-un mod ușor, accesibil și cu costuri mici. Acesta este și cazul deepfake-urilor: în 2023, peste 500 000 de deepfake-uri video și vocale au fost distribuite pe rețelele sociale din întreaga lume. Astfel, creșterea criminalității deepfake este o preocupare semnificativă pentru anii următori. Potrivit Europol, 90 % din conținutul online poate fi generat sintetic până în 2026. În plus, traficul pe internet este din ce în ce mai mult condus de trafic fals. De exemplu, roboții au reprezentat aproape jumătate din tot traficul de internet în 2022. Agenția europeană de securitate cibernetică, ENISA, a identificat trei moduri în care hackerii abuzau de inteligența artificială pentru a păcăli oamenii: în primul rând, folosind tehnologia pentru a crea e-mailuri și mesaje convingătoare de phishing care seamănă cu surse legitime; în al doilea rând, crearea de deepfakes de voce; și în al treilea rând, folosirea AI pentru a extrage date în scopuri rău intenționate.
În timp ce preocupările cu privire la impactul AI asupra procesului democratic nu sunt noi, alegătorii de pe ambele maluri ale Atlanticului devin din ce în ce mai îngrijorați: sondajele arată că majoritatea adulților din SUA sunt îngrijorați de faptul că AI ar putea crește răspândirea informațiilor false în timpul alegerilor prezidențiale din 2024 – cei mai familiarizați cu instrumentele de inteligență artificială sunt mai susceptibili să creadă asta – și majoritatea cetățenilor UE din unele state membre sunt îngrijorați de amenințările pe care le reprezintă IA și tehnologia deepfake, ceea ce face dificil pentru alegători să distingă realul de fals.
Potrivit unora, propaganda sintetică și deepfake-urile sunt capabile să distorsioneze percepția noastră asupra realității într-un mod mai fundamental, deoarece, de exemplu, sunt mai probabil să fie considerate atractive și credibile și să fie împărtășite de utilizatori. Nu numai că deepfake-urile apar deja în legătură cu candidații politici (au fost folosite în campaniile electorale recente din Slovacia și Polonia), dar sunt, de asemenea, din ce în ce mai folosite pentru a viza instituții cheie, cum ar fi reviste consacrate. De exemplu, inteligența artificială generativă ar putea avea un impact negativ asupra prezenței la vot, prin „zvonuri despre bombe” pentru a descuraja alegătorii să meargă la vot, sau asupra „alegătorilor nedeciși” care se hotărăsc în ultimul moment, deoarece inteligența artificială permite o audiență mult mai precisă prin direcționare. Deși utilizarea AI generativă în reclamele politice a fost limitată până acum, mulți anticipează o utilizare sporită în 2024 și ulterior. Astfel, unele mari companii de tehnologie și-au actualizat politicile pentru a interzice sau pentru a solicita reclamelor politice de pe platformele lor să se dezvăluie dacă au fost create folosind IA generativă.
Detectarea fiabilă a conținutului IA generativă se dovedește foarte dificilă (atât pentru mașini, cât și pentru oameni)
Spre deosebire de metodele anterioare de dezinformare, apare un consens că detectarea fiabilă a conținutului AI generativă prezintă provocări tehnice serioase pentru detectarea automată. Acest lucru va crește în severitate pe măsură ce tehnologia se maturizează. Acest lucru se datorează parțial faptului că aceeași tehnologie este utilizată atât pentru a detecta, cât și pentru a produce conținut generativ de IA. Potrivit unora, dezvăluirea din partea ofertei este parte a soluției. Etichetarea conținutului generat de inteligență artificială cu un filigran ar putea ajuta utilizatorii să judece mai bine conținutul pe care îl văd. În același timp, tot conținutul ar trebui să aibă unul, pentru a nu crea confuzie în rândul utilizatorilor și pentru a susține conținut fals fără etichetă. Cercetătorii au arătat că fiecare tehnică de filigran este vulnerabilă la exploatare și evaziune și este ușor să adăugați filigrane false imaginilor reale, creând și mai multă confuzie. Cercetările din 2023 arată cum utilizatorii s-au străduit să facă distincția între deepfakes și videoclipurile autentice, greșindu-se în peste o treime din cazuri. În plus, reducerea numărului de moderatori umani de conținut pe platformele principale de social media, în multe cazuri înlocuiți de moderatori AI, joacă un rol în răspândirea deepfake-urilor și, în general, a dezinformarii și informării eronate.
Cu toate acestea, majoritatea cetățenilor din multe țări precum SUA primesc din ce în ce mai mult știrile de pe rețelele sociale. În plus, Facebook dedică doar 13 % din bugetul său de moderare a conținutului consumatorilor din afara SUA. Și în aplicațiile criptate (cum ar fi WhatsApp), conținutul manipulator nu este detectat, deoarece nu există moderatori. Generații de potențiali alegători ar putea fi expuși la conținut online fals, așa că cetățenii trebuie să aibă cunoștințele necesare pentru a evalua veridicitatea acestuia. Mulți cred că soluția constă într-o mai bună alfabetizare media pentru a ajuta utilizatorii să dezmintă și să evalueze mai bine conținutul AI generativ, dar nu este o sarcină ușoară să distingeți conținutul fals de cel real. Nici măcar studenții la informatică de la o universitate nu au reușit să ghicească deepfake-urile din videoclipurile autentice în mai mult de 20% din cazuri. În alte cercetări, studenții adolescenți au depășit adulții, inclusiv educatorii lor. Astfel, s-ar putea să apară un decalaj digital generațional care trebuie depășit. Tinerii sunt, în general, mai predispuși să folosească IA generativă decât adulții. Un sondaj a constatat că majoritatea adolescenților din SUA au raportat că cunosc ChatGPT. Alte sondaje sugerează, de asemenea, că adolescenții îl folosesc mai mult decât părinții și educatorii lor, adesea ascunzându-l de ei. Cu toate acestea, copiii sunt deosebit de vulnerabili, deoarece capacitățile lor cognitive sunt încă în curs de dezvoltare, așa că ar putea fi necesare noi îndrumări și reglementări.
Un răspuns global urmează încă să vină
Cursa tehnologică dintre China și SUA afectează și IA generativă. China a înaintat primele cerințe legale pentru ca firmele de AI să trimită evaluări de securitate și alte teste care urmează să fie aprobate înainte de a lansa produse AI în China. Acestea sunt menite să controleze răspândirea conținutului împotriva regimului, dar nu a oprit falsurile profunde împotriva SUA și, de asemenea, se așteaptă ca China să folosească inteligența artificială generativă pentru a influența alegerile din Taiwan din 2024. Până acum, SUA au condus o abordare blândă, ordinul executiv al președintelui Biden urmărind să stimuleze inovația, printre altele cu noi standarde care urmează să fie stabilite și să sprijine imigrarea specialiștilor în inteligență artificială. Aceasta urmează procesului G7 Hiroshima AI în desfășurare și discuțiilor globale din cadrul Națiunilor Unite (ONU) și al Organizației pentru Cooperare și Dezvoltare Economică (OCDE). UE a adoptat Digital Services Act (DSA) pentru a combate, printre altele, diseminarea dezinformării. Implementarea DSA în 2024 ar trebui să aducă noi măsuri de atenuare a riscurilor și de combatere a dezinformarii, de exemplu împotriva activităților maligne rusești. De asemenea, UE a ajuns la un acord cu privire la Actul AI. La momentul publicării, detaliile sale tehnice erau în curs de finalizare; ei vor defini dacă este nevoie de o poziție mai dură sau mai blândă asupra IA generativă.
Primul summit de securitate AI a concluzionat că avem nevoie de mai multe informații despre informațiile pe care tocmai le-am creat și a anunțat o serie de acțiuni conexe și necesitatea unui răspuns global.
Având în vedere toate aceste fapte și în timp ce așteptăm ca legislația să fie pusă în aplicare, ar merita să ne întrebăm ce se mai poate face în 2024 din partea cererii și ofertei pentru a contracara realitatea falsă online.
Sursa: Étienne Bassot (European Parliament), Ten issues to watch in 2024. Ianuarie 2024, Brussels © European Union, 2024. Traducere și adaptare: Nicolae Sfetcu
Lasă un răspuns