Home » Articole » RO » Afaceri » Știința datelor (Data Science) » Inteligența artificială » Perspective în inteligența artificială

Perspective în inteligența artificială

Superinteligența

O superinteligență, hiperinteligență sau inteligență supraumană este un agent ipotetic care ar poseda o inteligență care o depășește cu mult pe cea a minților umane cele mai strălucitoare și mai talentate. Superinteligența se poate referi și la forma sau gradul de inteligență deținut de un astfel de agent.

Dacă cercetarea în inteligența generală artificială ar produce un software suficient de inteligent, acesta ar putea fi capabil să se reprogrameze și să se îmbunătățească. Software-ul îmbunătățit s-ar putea îmbunătăți și mai mult, ceea ce ar duce la auto-îmbunătățirea recursivă. Inteligența sa ar crește exponențial într-o explozie de inteligență și ar putea depăși dramatic oamenii. Scriitorul de science fiction Vernor Vinge a numit acest scenariu „singularitate”. Pentru că este dificil sau imposibil să cunoști limitele inteligenței sau capacitățile mașinilor superinteligente, singularitatea tehnologică este o întâmplare dincolo de care evenimentele sunt imprevizibile sau chiar insondabile.

Designerul de roboți Hans Moravec, ciberneticianul Kevin Warwick și inventatorul Ray Kurzweil au prezis că oamenii și mașinile se vor contopi în viitor în cyborgi care sunt mai capabili și mai puternici decât oricare dintre ele. Această idee, numită transumanism, își are rădăcinile în Aldous Huxley și Robert Ettinger.

Edward Fredkin susține că „inteligența artificială este următoarea etapă a evoluției”, o idee propusă pentru prima dată de „Darwin printre mașini” a lui Samuel Butler încă din 1863 și extinsă de George Dyson în cartea sa cu același nume în 1998.

Riscuri

Șomajul tehnologic

În trecut, tehnologia a avut tendința să crească mai degrabă decât să reducă numărul total de locuri de muncă, dar economiștii recunosc că „ne aflăm pe un teritoriu neexplorat” cu AI. Un sondaj al economiștilor a arătat că nu sunt de acord dacă utilizarea din ce în ce mai mare a roboților și a inteligenței artificiale va determina o creștere substanțială a șomajului pe termen lung, dar ei sunt, în general, de acord că ar putea fi un beneficiu net, dacă câștigurile de productivitate sunt redistribuite. Estimările subiective ale riscului variază foarte mult; de exemplu, Michael Osborne și Carl Benedikt Frey estimează că 47% dintre locurile de muncă din S.U.A. prezintă „risc ridicat” de automatizare potențială, în timp ce un raport OCDE clasifică doar 9% dintre locurile de muncă din SUA drept „risc ridicat”.

Spre deosebire de valuri anterioare de automatizare, multe locuri de muncă din clasa de mijloc pot fi eliminate de inteligența artificială; The Economist afirmă că „îngrijorarea pe care inteligența artificială ar putea să o genereze este pentru locurile de muncă cu gulere albe, așa cum a făcut energia cu abur celor cu gulere albastre în timpul Revoluției Industriale”, „merită luată în serios”. Locuri de muncă cu risc extrem variază de la asistente juridice la bucătari de fast-food, în timp ce cererea de locuri de muncă este probabil să crească pentru profesiile legate de îngrijire, inclusiv îngrijirea personală a sănătății.

Actori răi și AI cu arme

AI oferă o serie de instrumente care sunt deosebit de utile pentru guvernele autoritare: programele spion inteligente, recunoașterea feței și recunoașterea vocii permit supravegherea pe scară largă; o astfel de supraveghere permite învățării automate să clasifice potențialii inamici ai statului și îi poate împiedica să se ascundă; sistemele de recomandare pot viza cu precizie propaganda și dezinformarea pentru un efect maxim; deepfake ajută la producerea de dezinformări; AI avansată poate face luarea deciziilor centralizată mai competitivă cu sisteme liberale și descentralizate, cum ar fi piețele.

Teroriştii, criminalii şi statele rău intenționate pot folosi alte forme de AI cu arme, cum ar fi războiul digital avansat şi armele autonome letale. Până în 2015, peste cincizeci de țări au fost raportate că cercetează folosirea roboților pe câmpul de luptă.

Prejudecăți algoritmice

Programele AI pot deveni părtinitoare după ce au învățat din datele din lumea reală. De obicei, părtinirea nu este introdusă de către proiectanții de sistem, dar este învățată de program și, astfel, programatorii nu sunt adesea conștienți de existența părtinirii. Prejudecățile pot fi introduse din neatenție prin modul în care sunt selectate datele de antrenament. De asemenea, poate rezulta din corelații: AI este folosită pentru a clasifica indivizii în grupuri și apoi pentru a face predicții presupunând că individul va semăna cu alți membri ai grupului. În unele cazuri, această presupunere poate fi incorectă. Un exemplu în acest sens este COMPAS, un program comercial utilizat pe scară largă de instanțele din SUA pentru a evalua probabilitatea ca un inculpat să devină recidivist. ProPublica susține că nivelul de risc de recidivă atribuit de COMPAS inculpaților de culoare este mult mai probabil să fie o supraestimare decât inculpaților albi, în ciuda faptului că în program nu i s-au spus rasele inculpaților. Alte exemple în care părtinirea algoritmică poate duce la rezultate inechitabile sunt atunci când AI este utilizată pentru evaluarea creditului sau la angajare.

Riscul existential

Inteligența artificială superinteligentă poate fi capabilă să se îmbunătățească până la punctul în care oamenii nu o mai pot controla. Acest lucru ar putea, așa cum spune fizicianul Stephen Hawking, „însemna sfârșitul rasei umane”. Filosoful Nick Bostrom susține că inteligența artificială suficient de inteligentă, dacă alege acțiuni bazate pe atingerea unui obiectiv, va prezenta un comportament convergent, cum ar fi achiziționarea de resurse sau protejarea de a fi oprită. Dacă obiectivele acestei AI nu le reflectă pe deplin pe cele ale umanității, s-ar putea să dăuneze umanității pentru a dobândi mai multe resurse sau pentru a preveni oprirea, și în cele din urmă pentru a-și atinge mai bine obiectivul. El ajunge la concluzia că inteligența artificială prezintă un risc pentru omenire, oricât de umile sau „prietenoase” ar fi obiectivele ei declarate. Politologul Charles T. Rubin susține că „orice bunăvoință suficient de avansată poate fi imposibil de distins de răutate”. Oamenii nu ar trebui să presupună că mașinile sau roboții ne vor trata favorabil pentru că nu există niciun motiv a priori să credem că ar împărtăși sistemul nostru de moralitate.

Opinia experților și a specialiștilor din industrie este mixtă, cu fracții considerabile atât de preocupare, cât și neglijare, a riscului eventualei AI supraomenească. Stephen Hawking, fondatorul Microsoft Bill Gates, profesorul de istorie Yuval Noah Harari și fondatorul SpaceX Elon Musk, și-au exprimat cu toții temeri serioase cu privire la viitorul AI. Titani proeminenți ai tehnologiei, inclusiv Peter Thiel (Amazon Web Services) și Musk, au donat mai mult de 1 miliard de dolari companiilor nonprofit care susțin dezvoltarea responsabilă a inteligenței artificiale, cum ar fi OpenAI și Future of Life Institute. Mark Zuckerberg (CEO, Facebook) a spus că inteligența artificială este utilă în forma sa actuală și va continua să ajute oamenii. Alți experți susțin că riscurile sunt suficient de departe în viitor pentru a nu merita cercetate, sau că oamenii vor fi valoroși din perspectiva unei mașini superinteligente. Rodney Brooks, în special, a spus că AI „rău intenționată” este încă la secole distanță.

Mașini etice

AI prietenoasă sunt mașini care au fost proiectate de la început pentru a minimiza riscurile și pentru a face alegeri de care beneficiază oamenii. Eliezer Yudkowsky, cel care a inventat termenul, susține că dezvoltarea AI prietenoasă ar trebui să fie o prioritate de cercetare mai mare: poate necesita o investiție mare și trebuie finalizată înainte ca AI să devină un risc existențial.

Mașinile cu inteligență au potențialul de a-și folosi inteligența pentru a lua decizii etice. Domeniul eticii mașinilor oferă mașinilor principii și proceduri etice pentru rezolvarea dilemelor etice. Etica mașinilor se mai numește și moralitatea mașinilor, etica computațională, sau moralitatea computațională, și a fost fondată la un simpozion AAAI în 2005.

Alte abordări includ „agenții morali artificiali” ai lui Wendell Wallach și cele trei principii ale lui Stuart J. Russell pentru dezvoltarea mașinilor care se dovedesc benefice.

Reglementări

Reglementarea inteligenței artificiale reprezintă dezvoltarea politicilor și legilor din sectorul public pentru promovarea și reglementarea inteligenței artificiale (AI); este deci legat de reglementarea mai amplă a algoritmilor. Peisajul de reglementare și politici pentru AI este o problemă emergentă în jurisdicțiile la nivel global. Între 2016 și 2020, peste 30 de țări au adoptat strategii dedicate pentru AI. Majoritatea statelor membre UE au lansat strategii naționale de AI, la fel și Canada, China, India, Japonia, Mauritius, Federația Rusă, Arabia Saudită, Emiratele Arabe Unite, SUA și Vietnam. Alții sunt în proces de elaborare a propriei strategii de inteligență artificială, inclusiv Bangladesh, Malaezia și Tunisia. Parteneriatul global pentru inteligența artificială a fost lansat în iunie 2020, afirmând necesitatea ca AI să fie dezvoltată în conformitate cu drepturile omului și valorile democratice, pentru a asigura încrederea publicului în tehnologie. În SUA, Henry Kissinger, Eric Schmidt și Daniel Huttenlocher au publicat o declarație comună în noiembrie 2021, solicitând o comisie guvernamentală care să reglementeze AI.

Traducere și adaptare din Wikipedia

Lasă un răspuns

Adresa ta de email nu va fi publicată.