Home » Articole » Articole » Calculatoare » Inteligența artificială » Inteligența artificială prietenoasă

Inteligența artificială prietenoasă

Inteligența artificială prietenoasă (de asemenea IA prietenoasă sau IAP) se referă la inteligența generală artificială ipotetică (IGA) care ar avea un efect pozitiv (benign) asupra umanității sau cel puțin ar fi aliniat cu interesele umane sau ar contribui la stimularea îmbunătățirii speciei umane. Este o parte a eticii inteligenței artificiale și este strâns legată de etica mașinilor. În timp ce etica mașinilor se preocupă de modul în care ar trebui să se comporte un agent inteligent artificial, cercetarea inteligenței artificiale prietenoase se concentrează asupra modului în care se realizează practic acest comportament și se asigură că este limitat în mod adecvat.

Termenul a fost inventat de Eliezer Yudkowsky, care este cel mai bine cunoscut pentru popularizarea ideii, pentru a discuta despre agenți artificiali suprainteligenți care implementează în mod fiabil valorile umane. Manualul principal de inteligență artificială al lui Stuart J. Russell și Peter Norvig, Artificial Intelligence: A Modern Approach, descrie ideea:

”Yudkowsky (2008) intră în mai multe detalii despre modul de proiectare a unei IA prietenoase. El afirmă că prietenia (dorința de a nu dăuna oamenilor) ar trebui să fie concepută de la început, dar că designerii ar trebui să recunoască atât faptul că propriile lor modele pot fi defecte, cât și că robotul va învăța și va evolua în timp. Astfel, provocarea este una de proiectare a mecanismului – de a defini un mecanism pentru evoluția sistemelor IA într-un sistem de verificări și echilibrări și de a oferi sistemelor funcții de utilitate care vor rămâne prietenoase în fața unor astfel de schimbări.”

„Prietenos” este folosit în acest context ca terminologie tehnică și alege agenții care sunt siguri și utili, nu neapărat cei care sunt „prietenoși” în sensul colocvial. Conceptul este invocat în primul rând în contextul discuțiilor despre agenți artificiali recursiv auto-îmbunătățitori, care explodează rapid în inteligență, pe motiv că această tehnologie ipotetică ar avea un impact mare, rapid și greu de controlat asupra societății umane.

Riscuri ale IA neprietenoase

Rădăcinile îngrijorării cu privire la inteligența artificială sunt foarte vechi. Kevin LaGrandeur a arătat că pericolele specifice inteligenței artificiale pot fi văzute în literatura antică cu privire la slujitorii umanoizi artificiali precum golemul sau proto-roboții lui Gerbert de Aurillac și Roger Bacon. În acele povești, inteligența și puterea extremă a acestor creații umanoide se ciocnesc cu statutul lor de sclavi (care, prin natura lor, sunt văzuți ca sub-umani) și provoacă conflicte dezastruoase. Până în 1942, aceste teme l-au determinat pe Isaac Asimov să creeze „Cele trei legi ale roboticii” – principii conectate în toți roboții din ficțiunea sa, menite să-i împiedice să se întoarcă împotriva creatoriloe sau să le permită să facă rău.

În vremurile moderne, pe măsură ce perspectiva IA superinteligentă se apropie, filozoful Nick Bostrom a spus că sistemele IA superinteligente cu obiective care nu sunt aliniate cu etica umană sunt intrinsec periculoase dacă nu se iau măsuri extreme pentru a asigura siguranța umanității. El a spus-o astfel:

”Practic, ar trebui să presupunem că o „superinteligență” ar fi capabilă să atingă orice scop are. Prin urmare, este extrem de important ca obiectivele cu care o înzestram și întregul său sistem de motivare să fie „prietenoase cu oamenii”.”

În 2008, Eliezer Yudkowsky a cerut crearea unei „IA prietenoase” pentru a atenua riscul existențial din inteligența artificială avansată. El explică: „IA nu te urăște și nici nu te iubește, dar ești făcut din atomi pe care îi poate folosi pentru altceva.”

Steve Omohundro spune că un sistem IA suficient de avansat va prezenta, dacă nu este contracarat în mod explicit, o serie de „impulsiuni” de bază, cum ar fi achiziția de resurse, auto-conservarea și auto-îmbunătățirea continuă, din cauza naturii intrinseci a oricărui sistem bazat pe obiective. și că aceste unități vor determina, „fără precauții speciale”, IA să manifeste un comportament nedorit.

Alexander Wissner-Gross spune că IA conduse să-și maximizeze libertatea viitoare de acțiune (sau entropia căii cauzale) ar putea fi considerate prietenoase dacă orizontul lor de planificare este mai lung decât un anumit prag și neprietenos dacă orizontul lor de planificare este mai scurt decât acel prag.

Luke Muehlhauser, scriind pentru Institutul de Cercetare a Inteligenței Mașinilor, recomandă ca cercetătorii în etica mașinilor să adopte ceea ce Bruce Schneier a numit „mentalitatea de securitate”: în loc să vă gândiți la modul în care va funcționa un sistem, imaginați-vă cum ar putea eșua. De exemplu, el sugerează că chiar și un IA care face doar predicții precise și comunică printr-o interfață text ar putea provoca vătămări neintenționate.

În 2014, Luke Muehlhauser și Nick Bostrom au subliniat necesitatea unei „IA prietenoase”; cu toate acestea, dificultățile în proiectarea unei superinteligențe „prietenoase”, de exemplu prin programarea gândirii morale contrafactuale, sunt considerabile.

(Include texte traduse și adaptate din Wikipedia de Nicolae Sfetcu)

Introducere în inteligența artificială
Introducere în inteligența artificială

Pășește în era digitală pregătit să înțelegi și să aplici conceptele care schimbă lumea!

Nu a fost votat 13.67 lei23.95 lei Selectează opțiunile Acest produs are mai multe variații. Opțiunile pot fi alese în pagina produsului.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *