Home » Articole » Articole » Calculatoare » Inteligența artificială » Explicabilitatea în inteligența artificială

Explicabilitatea în inteligența artificială

Explicabilitatea în inteligența artificială (IA) a fost reînviată ca subiect de cercetare activă prin nevoia de a transmite utilizatorilor siguranța și încrederea în „cum” și „de ce” în luarea automată a deciziilor în diferite aplicații, cum ar fi conducerea autonomă, diagnosticul medical. , sau bancar și financiar. În timp ce explicabilitatea în IA a primit recent o atenție semnificativă, originile acestei linii de lucru datează de câteva decenii, când sistemele IA au fost dezvoltate în principal ca sisteme expert (bazate pe cunoștințe). De atunci, definirea, înțelegerea și implementarea explicabilității au fost preluate în mai multe linii de cercetare, și anume, sistemele expert, învățarea automată, sistemele de recomandare și în abordări ale învățării și raționamentului neuro-simbolic, care au loc mai ales în diferite perioade. a istoriei IA.

Explicabilitatea în inteligența artificială

(Prezentare generală și discuție asupra diferitelor noțiuni de explicabilitate în abordările sistemelor expert, învățarea automată, sistemele de recomandare și învățarea și raționamentul neuro-simbolic.)

Începând cu 2020, explicabilitatea a fost identificată ca un factor cheie pentru adoptarea sistemelor IA într-o gamă largă de contexte. Discuțiile care însoțesc desfășurarea tot mai frecventă a sistemelor inteligente în domenii de aplicație, cum ar fi vehiculele autonome și transportul, diagnosticul medical sau serviciile de asigurări și financiare, au arătat că atunci când deciziile sunt luate sau sugerate de sisteme automate, sunt esențiale pentru practici, sociale, și cu o frecvență din ce în ce mai mare, motive legale pentru care o explicație poate fi oferită utilizatorilor, dezvoltatorilor și autorităților de reglementare.

Ca exemplu, Regulamentul general privind protecția datelor (GDPR) al Uniunii Europene prevede dreptul de a obține „informații semnificative despre logica implicată” – interpretat în mod obișnuit ca un „drept la o explicație” (1) – pentru consumatorii afectați de o decizie automată. (2)

Motivele echipării sistemelor inteligente cu capacități explicative nu se limitează însă la problemele drepturilor utilizatorului și ale acceptării tehnologiei. Explicabilitatea este, de asemenea, necesară de către designeri și dezvoltatori pentru a îmbunătăți robustețea sistemului și pentru a permite diagnosticarea pentru a preveni părtinirea, inechitabilitatea și discriminarea, precum și pentru a crește încrederea tuturor utilizatorilor în de ce și cum sunt luate deciziile.

A fi capabil să ofere o explicație a motivului pentru care a fost luată o anumită decizie, a devenit astfel o proprietate dezirabilă a sistemelor inteligente. Explicațiile ar trebui să ajute utilizatorii să înțeleagă modelul sistemului, pentru a-l menține și pentru a-l utiliza eficient; de asemenea, ar trebui să asiste utilizatorul la depanarea modelului pentru a preveni și a rectifica concluziile incorecte. În plus, explicațiile pot servi în scopuri educaționale și pot fi utile pentru oameni în descoperirea și înțelegerea conceptelor noi într-un domeniu de aplicație. În cele din urmă, explicațiile sunt legate de încrederea și persuasiunea utilizatorilor, ar trebui să transmită un sentiment de acțiune și să convingă utilizatorii că deciziile sistemului sunt cele mai convenabile pentru ei.

Cu toate acestea, nu există un acord clar despre ce este o explicabilitate și nici despre ce presupune o explicație bună. Manifestările sale au fost studiate în diferite implementări ale sistemelor și disciplinelor IA. Primele noțiuni de explicabilitate în inteligența artificială au dispărut împreună cu cele din sistemele expert după mijlocul anilor 1980 și au fost readuse în centrul atenției de succesele recente în tehnologia învățării automate, atât pentru sisteme autonome, cât și pentru sistemele uman în buclă, cu aplicații în sisteme de recomandare și abordări ale învățării și raționamentului neuro-simbolic.

Note

(1) Dreptul la explicație se referă la dreptul utilizatorilor finali și, în general, al consumatorilor de servicii, de a cere explicații cu privire la motivul pentru care s-a luat o anumită decizie de către un sistem IA, cum ar fi în cazul creditului acordat de o bancă, recomandări, si diagnostic medical.
(2) Regulamentul (UE) 2016/679 privind protecția persoanelor fizice în ceea ce privește prelucrarea datelor cu caracter personal și privind libera circulație a acestor date și de abrogare a Directivei 95/46/CE (Regulamentul general privind protecția datelor) [2016] JO L119/ 1.

Sursa: Confalonieri, R., Çoba, L., Wagner, B., & Besold, T. R. (2020). A historical perspective of explainable artificial intelligence. WIREs Data Mining and Knowledge Discovery, 11(1). https://doi.org/10.1002/widm.1391. Licența CC BY 4.0. Traducere și adaptare Nicoale Sfetcu

Amenințările persistente avansate în securitatea cibernetică – Războiul cibernetic
Amenințările persistente avansate în securitatea cibernetică – Războiul cibernetic

O analiză cuprinzătoare a Amenințărilor Persistente Avansate (Advanced Persistent Threats, APT), inclusiv caracteristicile, originile, metodele, consecințele și strategiile de apărare ale acestora, cu accent pe detectarea acestor amenințări. Se explorează conceptul de amenințări persistente avansate în contextul securității cibernetice și … Citeşte mai mult

Nu a fost votat $1.99$5.41 Selectează opțiunile
Mesaje din trecut
Mesaje din trecut – Câteva scrisori către un prieten din viitor

Am crezut că ar fi bine să adresez câteva scrisori unui necunoscut, situat cândva în viitor. Cât de îndepărtat sau cât de apropiat poate fi acest viitor ? Nu ştiu… Chiar acum, în prezent, când scriu aceste cuvinte, prezentul devine … Citeşte mai mult

Nu a fost votat Citește mai mult
Distincția dintre falsificare și respingere în problema demarcației la Karl Popper
Distincția dintre falsificare și respingere în problema demarcației la Karl Popper

În ciuda criticilor teoriei falsificabilității propuse de Karl Popper pentru demarcarea între știință și ne-știință, în principal pseudoștiință, acest criteriu este încă foarte util, și perfect valabil după perfecționarea lui de către Popper și adepții lui. Mai mult, chiar și … Citeşte mai mult

Nu a fost votat $0.00$2.44 Selectează opțiunile

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *