Dezvoltarea rapidă în inteligența artificială (AI) și învățarea automată aduce beneficii potențiale uriașe. Cu toate acestea, este necesar să examinăm toate aspectele etice, sociale și juridice ale sistemelor AI dacă dorim să evităm consecințele și riscurile negative neintenționate care decurg din implementarea IA în societate.
Comunicarea Comisiei Europene privind inteligența artificială (Comisia Europeană, 2018a) definește inteligența artificială după cum urmează:
„Inteligenta artificiala (AI) se refera la sistemele care afiseaza un comportament inteligent prin analiza mediului lor si prin actiuni – cu un anumit grad de autonomie – pentru a atinge obiective specifice.
Sistemele bazate pe inteligență artificială pot fi pur bazate pe software, acționând în lumea virtuală (de exemplu, asistenți vocali, software de analiză a imaginilor, motoare de căutare, sisteme de recunoaștere a vorbirii și a feței) sau AI poate fi încorporat în dispozitive hardware (de exemplu, roboți avansați, mașini autonome, drone sau aplicații Internet of Things).’
Roboții inteligenți sunt un subset al AI (indiferent dacă folosesc sau nu învățarea automată).
Cum definim inteligența? O definiție simplă este că comportamentul inteligent înseamnă „a face ceea ce trebuie la momentul potrivit”. Legg și Hunt (2007) cercetează o gamă largă de definiții informale ale inteligenței, identificând trei trăsături comune: că inteligența este (1) „o proprietate pe care o are un agent individual în timp ce interacționează cu mediul sau mediile sale”, (2) „în legătură cu capacitatea agentului de a reuși sau de a profita în ceea ce privește un anumit scop sau obiectiv” și (3) „depinde de cât de capabil acel agent să se adapteze la diferite obiective și medii”. Ei subliniază că inteligența implică adaptare, învățare și înțelegere. Așadar, cel mai simplu, inteligența este „abilitatea de a dobândi și de a aplica cunoștințe și abilități și de a-și manipula mediul”.
În interpretarea acestor definiții ale inteligenței, trebuie să înțelegem că pentru un robot fizic mediul său este lumea reală, care poate fi un mediu uman (pentru roboții sociali), o stradă a orașului (pentru un vehicul autonom), o casă de îngrijire sau un spital. (pentru un robot de îngrijire sau de viață asistată) sau un loc de muncă (pentru un robot la locul de muncă). „Mediul” unui software AI este contextul acestuia, care poate fi clinic (pentru un diagnostic medical AI) sau un spațiu public – pentru recunoașterea feței în aeroporturi, de exemplu, sau virtual pentru recunoașterea feței în rețelele sociale. Dar, la fel ca roboții fizici, software-ul IA aproape întotdeauna interacționează cu oamenii, fie prin interfețe de întrebări și răspunsuri: prin text pentru chatboți, sau prin vorbire pentru asistenții digitali pe telefoanele mobile (adică Siri) sau acasă (adică Alexa).
Această interacțiune cu oamenii este cea care dă naștere la aproape toate problemele etice analizate.
Toate IA și roboții actuali sunt exemple de ceea ce numim IA „îngustă”: un termen care reflectă faptul că IA și roboții actuali sunt de obicei capabili să îndeplinească o singură sarcină specializată. Un obiectiv pe termen lung al cercetării în domeniul IA și al roboticii este așa-numita inteligență generală artificială (AGI), care ar fi comparabilă cu inteligența umană. (1) Este important să înțelegem că IA îngustă actuală este adesea mai bună decât majoritatea oamenilor la o anumită sarcină. ; exemple sunt IA pentru șah sau Go-playing, motoarele de căutare sau sistemele de traducere în limbaj natural. Dar un robot de îngrijire de uz general capabil, de exemplu, să pregătească mesele pentru o persoană în vârstă (și să spele vasele după aceea), să-l ajute să se îmbrace sau să se dezbrace, să intre și să se ridice din pat sau să facă baie etc., rămâne un obiectiv îndepărtat al cercetării.
Învățarea automată este termenul folosit pentru IA care sunt capabile să învețe sau, în cazul roboților, să se adapteze la mediul lor. Există o gamă largă de abordări ale învățării automate, dar acestea se încadrează de obicei în două categorii: învățarea supravegheată și nesupravegheată. Sistemele de învățare supravegheată folosesc, în general, rețele neuronale artificiale (ANN), care sunt antrenate prin prezentarea ANN-ului cu intrări (de exemplu, imagini cu animale), fiecare dintre ele etichetate (de oameni) cu o ieșire (adică girafă, leu, gorilă). ). Acest set de intrări și ieșiri potrivite se numește set de date de antrenament. După antrenament, un ANN ar trebui să poată identifica ce animal se află într-o imagine în care este prezentat (de ex., un leu), chiar dacă acea anumită imagine cu un leu nu a fost prezentă în setul de date de antrenament. Dimpotrivă, învățarea nesupravegheată nu are date de antrenament; în schimb, AI (sau robotul) trebuie să descopere singur cum să rezolve o anumită sarcină (adică cum să navigheze cu succes dintr-un labirint), în general prin încercare și eroare.
Atât învățarea supravegheată, cât și cea nesupravegheată au limitările lor. În cazul învățării supravegheate, setul de date de instruire trebuie să fie cu adevărat reprezentativ pentru sarcina cerută; dacă nu, IA va prezenta părtinire. O altă limitare este că ANN-urile învață selectând caracteristici ale imaginilor din datele de antrenament neanticipate de designerii umani. Deci, de exemplu, ar putea identifica în mod greșit o mașină pe un fundal cu zăpadă drept lup, deoarece toate exemplele de lupi din imaginile setului de date de antrenament au avut fundal cu zăpadă, iar ANN a învățat să identifice fundalurile cu zăpadă ca lupi, mai degrabă decât lupul însuși. Învățarea nesupravegheată este, în general, mai robustă decât învățarea supervizată, dar suferă limitarea că este în general foarte lentă (comparativ cu oamenii care pot învăța adesea dintr-un singur studiu).
Termenul de învățare profundă se referă pur și simplu la sisteme de învățare automată (de obicei) supravegheate cu ANN-uri mari (adică cu mai multe straturi) și seturi mari de date de antrenament.
Este important să rețineți că termenii IA și învățarea automată nu sunt sinonimi. Multe IA și roboți de înaltă capacitate nu folosesc învățarea automată.
Sursa: Eleanor Bird, Jasmin Fox-Skelly, Nicola Jenner, Ruth Larbey, Emma Weitkamp și Alan Winfield: The ethics of artificial intelligence: Issues and initiatives. © European Union, 2020. Traducere și adaptare Nicolae Sfetcu
Lasă un răspuns