Home » Articole » RO » Afaceri » Știința datelor (Data Science) » Inteligența artificială » Inteligența artificială – Riscuri și provocări

Inteligența artificială – Riscuri și provocări

Aspecte importante

Modelele de învățare automată sunt adesea cutii negre:

  • Logica unui model IA de luare a deciziilor poate fi ascunsă chiar și dezvoltatorilor și experților.

Riscuri:

  • Învățarea din date părtinitoare (fie din întâmplare, fie din necesitate);
  • Modelele instruite pentru, de exemplu, viziunea conducerii și recunoașterea obstacolelor, pot moșteni erori dăunătoare pentru siguranță;
  • Modelele de profilare pentru, de exemplu, justiția predictivă, pot moșteni discriminarea grupurilor vulnerabile cunoscute (sau noi).

Direcție de urmărit: IA explicabilă și de încredere:

  • Cheia unei colaborări eficiente om-mașină în luarea deciziilor cu mize mari.

Inteligența artificială a creat oportunități fără precedent, dar și noi riscuri. Creșterea exponențială a capabilităților modelelor de inteligența artificială permite atingerea unor niveluri de valoare și generalizare neatinse până acum. Cu toate acestea, opacitatea acestor modele a crescut, de asemenea, iar natura lor de cutie neagră face dificilă, chiar și pentru experți, explicarea justificării concluziilor lor. Acest lucru poate reprezenta un punct critic din punct de vedere tehnologic și social, deoarece riscul este real, după cum demonstrează episoadele recente, ale sistemelor de antrenament care sunt compromise de părtiniri și prejudecăți de discriminare, care au învățat din datele de instruire. Prin urmare, este posibil ca „învățarea din urmele digitale ale deciziilor trecute să poată duce la încorporarea prejudecăților invizibile existente în modelele rezultate, perpetuându-le”, așa cum s-a raportat în lucrarea care a lansat studiul mineritului de date conștient de discriminare în 2008 (1) .

Parafrazându-l pe Frank Pasquale, autorul cărții The black box society (2), am văzut algoritmi din ce în ce mai opaci răspândiți, folosiți pentru a deduce trăsături intime ale indivizilor. Acești algoritmi generează modele de clasificare și predicție a trăsăturilor comportamentale ale indivizilor, cum ar fi scorul de credit, riscul asigurării, starea de sănătate, înclinația către infracțiuni, preferințele și orientările personale, folosind datele personale difuzate în mediul digital de către cetățeni, cu sau uneori fără conștientizarea lor . Astfel de sisteme automate de luare a deciziilor sunt adesea cutii negre care, respectând caracteristicile utilizatorilor, prezic o clasă, o judecată, un vot și sugerează decizii; dar fără a explica motivul predicției sau recomandării propuse. Nu este doar o chestiune de transparență. Modelele sunt instruite pe exemple reconstituite pe baza urmelor digitale ale activităților utilizatorilor, cum ar fi mișcări, achiziții, căutări online, opinii exprimate pe rețelele de socializare. Drept urmare, modelele moștenesc părtinirile și defectele – prejudecăți – care sunt ascunse în datele de instruire, ascunzându-le, la rândul lor, în algoritmii de decizie care riscă să sugereze alegeri neloiale, discriminatorii sau pur și simplu greșite, posibil fără conștientizarea factorul de decizie și subiectul deciziei finale. Dacă o casetă de chat, o IA care conversează cu utilizatorii de pe rețelele de socializare, învață din exemplele greșite, de exemplu, rostirea rasistă, va fi rasistă la rândul ei – și creatorii săi vor trebui să o elimine rapid și în tăcere. Multe cazuri care s-au întâmplat deja, precum cel al botului Twitter Tay lansat de Microsoft în 2016 și închis rapid după ce a ajuns la un comportament ofensator și rasist din conversațiile online (3), ne avertizează că delegarea alegerilor către algoritmii cutiei negre poate fi o idee rea.

Note

1 D. Pedreschi et al., Discrimination-aware data mining, Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining 2008, pp. 560-568

2 F. Pasquale, The black box society, Harvard University Press 2015

3 Tay (bot) https://en.wikipedia.org/wiki/Tay_(bot) [19-4-2020].

Sursa: Pedreschi, D., Artificial Intelligence (AI): new developments and innovations applied to e-commerce, Study for the committee on the Internal Market and Consumer Protection, Policy Department for Economic, Scientific and Quality of Life Policies, European Parliament, Luxembourg, 2020. © European Union, 2020. Traducere și adaptare independentă: Nicolae Sfetcu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *