Unele utilizări recente ale inteligenței artificiale pentru (de exemplu) recunoașterea facială, evaluarea CV-urilor și sortarea fotografiilor în funcție de subiect au scos la iveală disparități îngrijorătoare în ceea ce privește performanța sau impactul pe baza trăsăturilor demografice (cum ar fi rasa și sexul) populațiilor de subiecte. Aceste disparități ridică întrebări stringente cu privire la modul în care utilizarea inteligenței artificiale poate funcționa pentru a promova justiția sau a consolida nedreptatea. Teoreticienii politici și filozofii au dezvoltat vocabulare nuanțate și cadre teoretice pentru înțelegerea și soluționarea disputelor despre ceea ce cere justiția și ce constituie nedreptate. Comunitatea interdisciplinară angajată să înțeleagă și să utilizeze în mod conștiincios big data ar putea beneficia de această muncă.
Ideea că odată cu progresul tehnologic vine emanciparea se întinde până la Aristotel, care a scris că mașinile autonome ar face ca ierarhia de clasă și sclavia să ajungă să fie perimate: „… dacă fiecare instrument și-ar putea îndeplini propria lucrare, ascultând sau anticipând voința altora… dacă… suveica ar țese și plectrul ar atinge harfa fără o mână care să-l călăuzească, meșteșugarii nu ar mai vrea slujitori, nici stăpânii sclavi” (2001: 1131). Într-o epocă a inteligenței artificiale (IA), acest sentiment oferă o mare mângâiere.
Dar consolarea este iluzorie. Sistemele IA sunt doar mai multe instrumente cu care oamenii își exercită puterea unii asupra altora. Ca întotdeauna, putem exercita puterea de a promova emanciparea sau subjugarea, pe drept sau pe nedrept. IA nu face nimic pentru a schimba asta. De fapt, dacă oamenii deja privilegiați sunt reprezentați în mod disproporționat printre creatorii de sisteme IA și dacă experiențele lor sunt reprezentate în mod disproporționat în datele folosite pentru a le instrui, s-ar putea chiar argumenta că IA va consolida ierarhiile nedrepte existente. (Benjamin (2019) ilustrează mai multe moduri în care s-ar putea întâmpla acest lucru.) Pe baza acestei înțelegeri, IA arată ca una dintre „uneltele maestrului” despre care Lorde (1984: 112, 123) ne avertizează că „nu va demonta niciodată casa stăpânului”, nu va fi o unealtă de eliberare autentică.
Într-adevăr, istoria recentă oferă câteva exemple ale potențialului IA de a reflecta sau consolida prejudecățile umane. Luați în considerare instrumentul de filtrare a CV-urilor bazat pe inteligență artificială dezvoltat recent de Amazon (apoi abandonat) (Dastin, 2018). A automatizat efectiv sexismul – favorizând în mod sistematic CV-urile bărbaților, aparent pentru că a fost instruit pe datele colectate din CV-urile trimise anterior către Amazon, dintre care majoritatea erau de la bărbați (Dastin, 2018). În mod similar, amintiți-vă de sortarea de fotografii bazată pe inteligență artificială de la Google, care a etichetat greșit oamenii de culoare drept „gorile” (BBC, 2015), reflectând și dând credibilitate nejustificată unui stereotip rasist. Sau luați în considerare analiza lui Buolamwini și Gebru (2018: 8) a trei programe de recunoaștere facială bazate pe inteligență artificială, care dezvăluie că au cele mai proaste rezultate la femeile cu pielea închisă la culoare. Având în vedere acest lucru, implementarea acestor programe de recunoaștere facială (de exemplu, în forțele de ordine) ar putea dezavantaja în mod nedrept femeile de culoare (care ar putea fi identificate în mod fals drept infractori) (Buolamwini și Gebru, 2018: 1–3).
După cum arată aceste exemple și după cum recunosc cererile recente de corectitudine, responsabilitate și transparență în IA, utilizarea IA ridică probleme stringente ale justiției. Pentru a naviga cu atenție în aceste probleme, propun să ne întoarcem la teoria politică și filozofia, care au dezvoltat cadre teoretice nuanțate pentru înțelegerea și soluționarea problemelor de justiție. Utilizarea inteligenței artificiale – departe de a îndepărta puterea din mâinile omului – este o modalitate de a valorifica puterea umană, făcând chestiunile de justiție esențiale pentru întreprinderea sa conștiincioasă.
Sursa: Rafanelli, L. M. (2022). Justice, injustice, and artificial intelligence: Lessons from political theory and philosophy. Big Data & Society, 9(1). https://doi.org/10.1177/20539517221080676 . Licența CC BY-NC 4.0. Traducere și adaptare Nicolae Sfetcu
Lasă un răspuns