Home » Articole » Articole » Calculatoare » Internet » Big Data » Big Data ca sursă de discriminare

Big Data ca sursă de discriminare

postat în: Big Data, Etica 0

Media socială

Folosirea metodelor de cercetare Big Data a crescut în ultimii cinci ani atât în ​​mediul academic, cât și în cel al industriei. Pe măsură ce dimensiunea și complexitatea seturilor de date disponibile au crescut, tot așa au crescut și întrebările etice ridicate de cercetările Big Data. Aceste întrebări devin din ce în ce mai urgente, dat fiind că agendele de date și de cercetare merg dincolo de cele tipice științelor computaționale și naturale, pentru a aborda mai direct aspectele sensibile ale comportamentului, interacțiunii și sănătății umane. Instrumentele de cercetare Big Data sunt din ce în ce mai prezente în viața de zi cu zi, incluzând evidența medicală digitală pentru cunoștințe științifice și economice, cartografierea relațiilor prin social media, captarea discursului și acțiunii persoanelor prin intermediul senzorilor, urmărirea circulației în spațiu, etc.

Posibilitățile benefice pentru Big Data din domeniul științei și industriei sunt atenuate de noile provocări cu care se confruntă cercetătorii care se află adesea în afara zonei de formare și de confort. Oamenii de științăe sociale se luptă acum cu structurile de date și cu cloud computing, în timp ce oamenii de știință din domeniul informaticii trebuie să se confrunte cu protocoalele privind subiectele umane și consiliile de evaluare instituțională (IRB). În timp ce legătura dintre individul dat și ființele umane reale poate părea destul de abstractă, amploarea și complexitatea multor forme de Big Data creează un ecosistem bogat în care participanții umani și comunitățile lor sunt profund încorporați și sensibili la rău. Această complexitate provoacă orice set normativ și face dificilă elaborarea orientărilor universale.

Cu toate acestea, este evidentă nevoia de direcție în cercetarea responsabilă a Big Data.

Varietatea surselor de date, a subiectelor de cercetare și a metodologiilor abordate în Big Data se încadrează într-o listă de verificare unică; ca urmare, aceste reguli sunt mai puțin specifice decât ar putea spera unii.

Una dintre cele mai fundamentale reguli ale unei cercetări Big Data este recunoașterea statornică a faptului că majoritatea datelor reprezintă sau influențează oamenii. Pur și simplu pornind de la presupunerea că toate datele sunt persoane până când se dovedește altfel, apare dificultatea dezasocierii datelor de persoane particulare. Această logică este evidentă pentru seturile de date „riscante”, de exemplu, mass-media socială cu limbaj inflamator, dar, chiar dacă datele aparent benigne pot conține informații sensibile și private, este posibil, de exemplu, extragerea datelor despre persoanele de pe YouTube. Chiar și datele care aparent nu au nimic de-a face cu oamenii ar putea influența viețile individuale în moduri neașteptate; de exemplu, datele oceanografice care schimbă profilurile de risc ale valorilor comunităților și proprietăților sau ale înregistrărilor formatelor Exchangeable Image Format (EXIF) dezvăluie mișcarea fotografului sau chiar locația de la domiciliu.

Răul poate avea loc și atunci când seturile de date aparent inofensive despre efectele la nivel de populație sunt folosite pentru a modela viețile indivizilor sau stigmatizarea grupurilor, adesea fără recurs procedural. De exemplu, hărțile de rețele sociale pentru servicii precum Twitter pot determina gradul de creditare, scorurile de recidivă pot determina deciziile în materie de justiție penală într-o manieră discriminatorie, iar clasificarea pe baza codurilor zip a dus la restrângerea accesului la Amazon Prime ca serviciu de livrare în aceeasi zi pentru afro-americani în orașele Statelor Unite. Aceste cazuri demonstrează că datele aparent neutre pot genera rezultate discriminatorii, sporind astfel inegalitățile sociale.

Alte cazuri arată că seturile de date „publice” sunt ușor adaptate pentru cercetarea extrem de invazivă prin încorporarea altor date, cum ar fi utilizarea de înregistrări ale proprietăților și tehnicilor de profilare geografică pentru a identifica persoane. În special, datele neguvernate de practicile de consimțământ de fond, indiferent dacă e vorba de social media sau ADN-ul rezidual pe care îl lăsăm în mod continuu în urma noastră, pot părea publice, dar pot provoca încălcări neintenționate ale confidențialității și alte daune.

Trebuie să primeze presupunerea că datele sunt persoane și nu cifre abstracte, și această idee trebuie să ghideze toate analizele.

Sursa: Matthew Zook, Solon Barocas, Danah Boyd, Kate Crawford, Emily Keller, Seeta Peña Gangadharan, Alyssa Goodman, Rachelle Hollander, Barbara A. Koenig, Jacob Metcalf, Arvind Narayanan, Alondra Nelson, Frank Pasquale, „Ten simple rules for responsible big data research”

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *