Home » Articole » Articole » Calculatoare » Inteligența artificială » Etica inteligenței artificiale

Etica inteligenței artificiale

Etica inteligenței artificiale este ramura eticii tehnologiei specifică sistemelor inteligente artificiale. Este uneori împărțită într-o preocupare cu comportamentul moral al oamenilor în timp ce proiectează, fabrică, utilizează și tratează sisteme inteligente artificial și o preocupare privind comportamentul mașinilor, în etica mașinilor. Include, de asemenea, problema unei posibile singularități datorate IA superinteligente.

Etica roboților

Termenul „etică roboților” (uneori „roboetică”) se referă la moralitatea modului în care oamenii proiectează, construiesc, folosesc și tratează roboții. Etica roboților se intersectează cu etica IA. Roboții sunt mașini fizice, în timp ce IA poate fi doar software. Nu toți roboții funcționează prin sisteme IA și nu toate sistemele IA sunt roboți. Etica roboților ia în considerare modul în care mașinile pot fi folosite pentru a dăuna sau aduce beneficii oamenilor, impactul lor asupra autonomiei individuale și efectele lor asupra justiției sociale.

Etica mașinilor

Etica mașinilor (sau moralitatea mașinilor) este domeniul de cercetare preocupat de proiectarea agenților morali artificiali (AMA), roboților sau calculatoarelor inteligente artificiale care se comportă moral sau ca și cum ar fi moral. Pentru a ține seama de natura acestor agenți, s-a sugerat să se ia în considerare anumite idei filozofice, cum ar fi caracterizările standard ale agentului, agentul rațional, agentul moral și agentul artificial, care sunt legate de conceptul de AMA.

Isaac Asimov a analizat problema în anii 1950 în I, Robot. La insistențele editorului său John W. Campbell Jr., el a propus cele trei legi ale roboticii pentru a guverna sistemele inteligente artificial. O mare parte din munca sa a fost apoi petrecută testând limitele celor trei legi ale sale pentru a vedea unde s-ar rupe ele sau unde ar crea un comportament paradoxal sau neprevăzut. Lucrarea sa sugerează că niciun set de legi fixe nu poate anticipa suficient toate circumstanțele posibile. Mai recent, cadrele universitare și multe guverne au contestat ideea că IA poate fi trasă la răspundere în sine. Un panel convocat de Regatul Unit în 2010 a revizuit legile lui Asimov pentru a clarifica faptul că IA este responsabilitatea fie a producătorilor săi, fie a proprietarului/operatorului acestuia.

În 2009, în timpul unui experiment la Laboratorul de Sisteme Inteligente din Ecole Polytechnique Fédérale din Lausanne, Elveția, roboții care au fost programați să coopereze între ei (în căutarea unei resurse benefice și evitarea uneia otrăvitoare) au învățat în cele din urmă să mintă între ei, în încercarea de a tezauriza resursa benefică.

Unii experți și academicieni au pus sub semnul întrebării utilizarea roboților pentru luptă militară, mai ales atunci când unor astfel de roboți li se oferă un anumit grad de funcții autonome. Marina SUA a finanțat un raport care indică faptul că, pe măsură ce roboții militari devin mai complexi, ar trebui să se acorde o atenție sporită implicațiilor capacității lor de a lua decizii autonome. Președintele Asociației pentru Avansarea Inteligenței Artificiale a comandat un studiu pentru a analiza această problemă. El indică programe precum Language Acquisition Device care pot emula interacțiunea umană.

Vernor Vinge a sugerat că poate veni un moment în care unele computere sunt mai inteligente decât oamenii. El numește aceasta „singularitatea”. El sugerează că poate fi oarecum sau posibil foarte periculos pentru oameni. Acest lucru este discutat de o filozofie numită Singularitarism. Institutul de Cercetare a Inteligenței Mașinilor a sugerat necesitatea de a construi „IA prietenoasă”, ceea ce înseamnă că progresele care au loc deja cu IA ar trebui să includă și un efort de a face IA prietenos și uman în mod intrinsec.

Există discuții despre crearea de teste pentru a vedea dacă un IA este capabil să ia decizii etice. Alan Winfield concluzionează că testul Turing este defectuos și că cerințele ca un IA să treacă testul este prea scăzută. Un test alternativ propus este unul numit Testul Etic Turing, care ar îmbunătăți testul actual prin faptul că mai mulți judecători decid dacă decizia IA este etică sau neetică.

În 2009, cadre universitare și experți tehnici au participat la o conferință organizată de Asociația pentru Avansarea Inteligenței Artificiale pentru a discuta despre impactul potențial al roboților și computerelor și impactul posibilității ipotetice ca aceștia să devină autosuficienți și capabili să ia propriile decizii. . Ei au discutat despre posibilitatea și măsura în care computerele și roboții ar putea dobândi orice nivel de autonomie și în ce măsură ar putea folosi astfel de abilități pentru a reprezenta orice amenințare sau pericol. Ei au remarcat că unele mașini au dobândit diferite forme de semi-autonomie, inclusiv posibilitatea de a găsi surse de energie pe cont propriu și posibilitatea de a alege în mod independent ținte pentru a ataca cu arme. Ei au remarcat, de asemenea, că unii viruși informatici pot evita eliminarea și au dobândit „inteligență de gândaci”. Ei au remarcat că conștientizarea de sine așa cum este descrisă în science-fiction este puțin probabilă, dar că există alte pericole și capcane potențiale.

Cu toate acestea, există o tehnologie în special care ar putea aduce cu adevărat posibilitatea roboților cu competență morală la realitate. Într-o lucrare despre dobândirea valorilor morale de către roboți, Nayef Al-Rodhan menționează cazul cipurilor neuromorfe, care urmăresc să proceseze informații în mod similar oamenilor, neliniar și cu milioane de neuroni artificiali interconectați. Roboții încorporați cu tehnologie neuromorfă ar putea învăța și dezvolta cunoștințe într-un mod unic, asemănător omului. În mod inevitabil, acest lucru ridică problema mediului în care astfel de roboți ar învăța despre lume și a cărei moralitate ar moșteni – sau dacă vor ajunge să dezvolte și „slăbiciuni” umane: egoism, o atitudine pro-supraviețuire, ezitare etc.

În Moral Machines: Teaching Robots Right from Wrong,  Wendell Wallach și Colin Allen concluzionează că încercările de a face ca roboții să învețe corect din greșit vor avansa probabil înțelegerea eticii umane, motivând oamenii să abordeze lacunele din teoria normativă modernă și oferind o platformă pentru investigație experimentală. Ca un exemplu, a introdus eticienii normativi în problema controversată a ce algoritmi specifici de învățare să fie utilizați în mașini. Nick Bostrom și Eliezer Yudkowsky au argumentat pentru arbori de decizie (cum ar fi ID3) pe rețelele neuronale și algoritmi genetici pe motiv că arborii de decizie se supun normelor sociale moderne de transparență și predictibilitate (de exemplu stare decisis), în timp ce Chris Santos-Lang a susținut în direcția opusă, pe motiv că normele de orice vârstă trebuie lăsate să se schimbe și că eșecul natural de a satisface pe deplin aceste norme particulare a fost esențial pentru a face oamenii mai puțin vulnerabili la „hackeri” criminali.

Potrivit unui raport din 2019 al Centrului pentru Guvernarea IA de la Universitatea din Oxford, 82% dintre americani cred că roboții și inteligența artificială ar trebui gestionate cu atenție. Preocupările citate au variat de la modul în care IA este utilizată în supraveghere și în răspândirea conținutului fals online (cunoscut sub denumirea de falsuri profunde atunci când includ imagini video manipulate și audio generate cu ajutorul IA) până la atacuri cibernetice, încălcări ale confidențialității datelor, prejudecăți de angajare, vehicule autonome și drone care nu necesită un controler uman.

Principiile etice ale inteligenței artificiale

În revizuirea a 84 orientări de etică pentru IA, au fost găsite 11 grupuri de principii: transparență, justiție și corectitudine, non-malefință, responsabilitate, confidențialitate, binefacere, libertate și autonomie, încredere, durabilitate, demnitate, solidaritate.
Luciano Floridi și Josh Cowls au creat un cadru etic al principiilor IA stabilite de patru principii ale bioeticii (beneficență, non-răutate, autonomie și justiție) și un principiu suplimentar de activare a IA – explicabilitatea.

Transparență, responsabilitate și sursă deschisă

Bill Hibbard susține că, deoarece IA va avea un efect atât de profund asupra umanității, dezvoltatorii IA sunt reprezentanți ai umanității viitoare și, prin urmare, au obligația etică de a fi transparenți în eforturile lor. Ben Goertzel și David Hart au creat OpenCog ca un cadru open source pentru dezvoltarea IA. OpenAI este o companie non-profit de cercetare IA creată de Elon Musk, Sam Altman și alții pentru a dezvolta IA cu sursă deschisă benefică pentru umanitate. Există numeroase alte dezvoltări IA open-source.

Din păcate, a face codul open source nu îl face ușor de înțeles, ceea ce, după multe definiții, înseamnă că codul IA nu este transparent. IEEE face un efort de standardizare privind transparența IA. Efortul IEEE identifică mai multe scări de transparență pentru diferiți utilizatori. În plus, există îngrijorarea că eliberarea întregii capacități a IA contemporană unor organizații poate fi un rău public, adică poate face mai mult daune decât bine. De exemplu, Microsoft și-a exprimat îngrijorarea cu privire la permiterea accesului universal la software-ul său de recunoaștere a feței, chiar și pentru cei care pot plăti pentru el. Microsoft a postat un blog extraordinar pe această temă, cerând reglementări guvernamentale care să ajute la determinarea a ceea ce trebuie făcut.

Nu numai companiile, ci și mulți alți cercetători și susținători cetățeni recomandă reglementarea guvernamentală ca mijloc de asigurare a transparenței și, prin aceasta, a răspunderii umane. Această strategie s-a dovedit controversată, deoarece unii își fac griji că va încetini rata inovației. Alții susțin că reglementarea conduce la o stabilitate sistemică mai capabilă să susțină inovarea pe termen lung. OCDE, ONU, UE și multe țări lucrează în prezent la strategii pentru reglementarea IA și la găsirea cadrelor legale adecvate.

La 26 iunie 2019, Grupul de experți la nivel înalt al Comisiei Europene privind inteligența artificială (AI HLEG) și-a publicat „Recomandările de politică și investiții pentru o inteligență artificială de încredere”. Acesta este cel de-al doilea rezultat al AI HLEG, după publicarea din aprilie 2019 a „Orientărilor de etică pentru IA de încredere”. Recomandările AI HLEG din iunie acoperă patru subiecte principale: oamenii și societatea în general, cercetarea și mediul academic, sectorul privat și sectorul public. Comisia Europeană susține că „recomandările HLEG reflectă o apreciere atât a oportunităților oferite de tehnologiile IA de a stimula creșterea economică, prosperitatea și inovarea, cât și riscurile potențiale implicate” și afirmă că UE își propune să conducă la elaborarea politicilor care guvernează IA. la nivel internațional. Pentru a preveni vătămările, pe lângă reglementări, organizațiile care implementează IA trebuie să joace un rol central în crearea și implementarea IA de încredere în conformitate cu principiile IA de încredere și să își asume responsabilitatea pentru a atenua riscurile. La 21 aprilie 2021, Comisia Europeană a propus Legea privind inteligența artificială.

(Include texte traduse și adaptate din Wikipedia de Nicolae Sfetcu)

Introducere în inteligența artificială
Introducere în inteligența artificială

Pășește în era digitală pregătit să înțelegi și să aplici conceptele care schimbă lumea!

Nu a fost votat 14.43 lei25.29 lei Selectează opțiunile Acest produs are mai multe variații. Opțiunile pot fi alese în pagina produsului.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *