Timp de secole, oamenii și-au modelat propriile convingeri datorită schimbului de opinii cu alte persoane. Aceste relații, bazate pe nivelul de încredere reciprocă, joacă un rol fundamental în procesul care ne conduce la întărirea sau schimbarea opiniilor noastre. Odată cu răspândirea media și, recent, a social media asistăm la un proces de exploatare pe scară largă, în special în scopuri comerciale, a mecanismului cognitiv al prejudecății confirmării – tendința de a prefera informații care sunt apropiate de convingerile noastre și care induc să interacționăm cu colegii care împărtășesc preferințele noastre. Cum modifică aceste mecanisme modalitățile tradiționale de formare a opiniilor? Ce impact au asupra fragmentării, polarizării și radicalizării ideilor?
Rețelele sociale sunt din ce în ce mai utilizate pentru a împărtăși idei, dar și, așa cum arată raportul Reuters 2018 de pe Digital News, pentru a citi și a face schimb de știri. Aceasta înseamnă că interlocutorii și conținutul cu care interacționăm, împreună cu efectele externe din dinamica opiniilor, devin susceptibile la influențele care decurg din mecanismele de interacțiune ale platformelor de social media utilizate, construite cu un obiectiv de marketing: maximizarea numărului de utilizatori și a timpului petrecut pe platformă, prin atragerea atenției. Pentru a realiza acest lucru, informațiile care ajung la ei nu sunt selectate aleatoriu. Există o prejudecată algoritmică precisă: suntem expuși în mod sistematic la știrile legate de subiectele care ne plac cel mai mult și la opiniile care sunt cele mai apropiate de ale noastre, astfel încât să fim împinși să interacționăm cu conținutul propus și să revenim la platformă. La urma urmei, marketingul a exploatat întotdeauna un mecanism cognitiv înnăscut oamenilor, tendința de confirmare, definită ca: ”un proces mental care constă în căutarea, selectarea și interpretarea informațiilor pentru a acorda o atenție mai mare și, prin urmare, atribuirea unei credibilități mai mari celor care confirmă propriile credințe sau ipoteze și invers, ignorând sau diminuând informațiile care le contrazic. Fenomenul este mai puternic în contextul subiectelor care stârnesc emoții puternice sau care ating credințe adânc înrădăcinate” (16). Mecanismele de marketing, indiferent dacă sunt comerciale, informaționale sau politice, influențează părtinirea confirmării, deoarece fiecare dintre noi se simte mulțumit atunci când întâlnește subiecte sau conținuturi care îi confirmă convingerile. Propunerea de a interacționa cu oameni și conținut apropiat de credințele utilizatorilor și preferințele consumatorilor asigură o rată de clic mai mare, o probabilitate mai mare de a atrage cumpărături, atenție, aprecieri. În cele din urmă, venituri mai mari pentru platformă.
Acest mecanism de prejudecată de confirmare este exploatat de platformele online, pentru căutarea informațiilor și de rețelele sociale și media, care utilizează algoritmi de recomandare bazate pe inteligența artificială (AI) pentru a cataliza atenția utilizatorilor. Ca efect secundar, platforma amplifică și întărește părtinirea individuală, rezultând polarizarea extremă a opiniilor și bule de filtrare la nivel social, cu consecințe dramatic negative asupra dezbaterii publice pluraliste necesare pentru alimentarea democrației. În plus, accesul la informații este adesea părtinitor rău intenționat de agenții de influență motivați comercial sau politic.
Cel mai șocant rezultat al unei cercetări publicate recent în revista PlosOne (17) este că numărul grupurilor cu opinii diferite crește, în cadrul unei populații, cu intensitatea crescândă a prejudecății algoritmice. Cu alte cuvinte, platformele online pot favoriza fragmentarea opiniilor provocând apariția „partidelor” sau „bulelor” opuse, chiar și atunci când, în absența unei părtiniri, populația ar ajunge la un consens – o diviziune deci care este total artificială, indusă prin mecanismul de interacțiune al platformei care inhibă comparația între diferite poziții. În practică, tendința algoritmică duce la o creștere a polarizării și radicalizării opiniilor, amplificând deja puternicul mecanism cognitiv pe care l-am încorporat, tendința de confirmare.
Al doilea efect al prejudecății algoritmice este asupra vitezei de formare a opiniei: schimbările de opinie ale indivizilor sunt mult mai lente atunci când este introdusă părtinirea și, prin urmare, populația, ca întreg, necesită mult mai mult timp pentru a ajunge la o situație stabilă. Chiar și când vine vorba de consens, timpul pentru a ajunge la el devine extrem de lung.
Particularitatea algoritmică a platformelor poate influența profund rezultatele dezbaterilor publice și formarea consensului în societate. Un mecanism aparent inofensiv, utilizat întotdeauna în marketing, dacă este utilizat pe scară largă are un „efect de rețea” potențial distructiv, capabil să creeze și să întărească „camere de ecou”, bule de informații, radicalizarea dezbaterii publice și destabilizarea democrației. Acesta este un fenomen la care asistăm cu o înțelegere tot mai mare, înregistrat de savanți și experți în dinamica socială din întreaga lume (18). Acest efect de polarizare este probabil și mai periculos pentru democrația noastră decât știrile false și fenomenul discursului de ură, deoarece acesta din urmă poate fi explicat, în majoritatea cazurilor, ca un efect al bulelor întărite artificial de părtinire.
Cu toate acestea, este important să subliniem că știrile false sunt un fenomen grav care s-a amplificat pe platformele media online. Este un fenomen care a fost prezent încă de pe vremea media online și chiar a internetului, dar rețelele sociale au fost un factor important pentru consumul de știri false. Pe rețelele de socializare, știrile false sunt discutate și implicate la fel de mult ca știrile reale, în ciuda faptului că sunt citite de zece ori mai puțin. Într-un studiu al comitetului IMCO (19), știrile false sunt redefinite ca informare eronată, adică tripla conjuncție a relei voințe umane, practicilor eronate de marketing și a rezultatelor creat, iar costurile acestei combinații malefice sunt studiate cu atenție. Printre acestea, există costuri economice, dar, cel mai important, două costuri sociale majore: integritatea informațiilor și integritatea alegerilor. Știrile false creează astfel provocări atât pentru suveranitatea statelor membre, cât și pentru coeziunea Uniunii Europene, care sunt complexe și pot avea consecințe de anvergură. Știrile false conduc la tulburări ale informației legate de efectul transvers al informării eronate, adică natura transfrontalieră, transmedia, translingvă și trans-temporală a rețelelor de internet. Impactul direct și indirect al știrilor false, deși nu a fost încă dovedit de diferite protocoale de cercetare în curs de dezvoltare, poate duce la măsuri de descurajare pe termen lung care să reducă libertatea de exprimare și libertatea de a primi și de a transmite informații. Astfel, eforturile de a inhiba știrile false vor afecta procesele democratice.
Dar tehnologia AI poate ajuta la stoparea știrilor false în aproape toate etapele procesului de știri: editare, amplificare și consum (20). Pentru a stopa știrile false la editare și amplificare, platformele media online sunt un candidat natural pentru discuții. Acestea pot eticheta rezultatele, dezvălui algoritmii de selecție și, în ultimul rând, pot identifica și controla roboții – conturi care par persoane reale pentru oameni și în special algoritmii platformei. De fapt, roboții sunt doar programe care simulează o persoană care folosește aceste platforme și pot determina popularitatea știrilor. Stoparea roboților ar putea fi ușoară dacă platformele impun „identitatea reală” utilizatorilor lor. Identificarea roboților și identificarea știrilor false se poate face manual sau automat prin algoritmi AI care studiază conținutul și contextul social al sursei sale.
AI centrat pe om are o dimensiune socială clară care ne poate ajuta să proiectăm noi platforme și mecanisme de acces la știri și informații, axate pe contrabalansarea prejudecății noastre de confirmare încorporate și eforturile transparente de a expune oamenii la opinii asortate, în mod inteligent. Se pot sezvolta mecanisme care să ajute indivizii și comunitățile să se informeze asupra problemelor controversate, oferind perspective multiple, conectând puncte de vedere opuse și argumente conflictuale și încurajând gândirea critică. De exemplu, un robot într-o conversație de grup poate evidenția informațiile care nu erau disponibile pentru grup sau poate sugera surse omise de informații importante. Progresele în modelele de interacțiune persoană-mașină bazate pe AI explicabilă au potențialul de a ajunge la noi compromisuri cognitive între prejudecățile noastre de confirmare și curiozitatea noastră de noutate și diversitate, făcând posibilă apariția ecosistemelor informaționale mai durabile și umanizate.
Sistemele de navigație oferă recomandări și direcții pentru a ajunge la o destinație:
- Pot avea un sensul perfect pentru un navigator individual;
- Pot fi lipsit de sens și pot induce în eroare colectiv.
Efecte de rețea:
- Situații extraordinare, cum ar fi accidente sau evenimente mari;
- Efect de polarizare: recomandând cele mai populare rute, crescând astfel în mod artificial traficul și riscul pe anumite piste în timp ce evită în mod sistematic piste și zone alternative;
- Din nou, diversitatea este compromisă, cu efecte negative ale rețelei și externalități (în mare parte subestimate astăzi).
Note
(16) S. Plous, The Psychology of Judgment and Decision Making. McGraw-Hill, New York 1993
(17) A. Sirbu et al., Algorithmic bias amplifies opinion fragmentation and polarisation: A bounded confidence model, «PLoS ONE» 14(3), 2019
(18) A.L. Schmidt et al., Polarisation of the vaccination debate on Facebook, National Center for Biotechnology Information 36 (2018) 25, pp. 3606-3612
(19) Divina Frau-Meigs, Societal costs of “fake news” in the Digital Single Market, Study requested by the IMCO committee, 2018
(20) Žiga TURK, Technology as Enabler of Fake News and a Potential Tool to Combat It, In-Depth Analysis requested by the IMCO committee, 2018
Sursa: Pedreschi, D., Artificial Intelligence (AI): new developments and innovations applied to e-commerce, Study for the committee on the Internal Market and Consumer Protection, Policy Department for Economic, Scientific and Quality of Life Policies, European Parliament, Luxembourg, 2020. © European Union, 2020. Traducere și adaptare independentă: Nicolae Sfetcu
© 2021 MultiMedia Publishing, Introducere în inteligența artificială
Lasă un răspuns