Definirea inteligenței artificiale
Gândire vs acțiune: testul Turing
Alan Turing a scris în 1950 „Îmi propun să luăm în considerare întrebarea „pot mașinile să gândească”?” El a sfătuit să se schimbe întrebarea dacă o mașină „gândește”, la „dacă este sau nu posibil ca mașinile să arate un comportament inteligent”. Singurul lucru vizibil este comportamentul mașinii, deci nu contează dacă mașina este conștientă sau are o minte sau dacă inteligența este doar o „simulare” și nu „lucru real”. El a remarcat că nici nu știm aceste lucruri despre alți oameni, dar că extindem o „convenție politicoasă” cum că ei de fapt „gândesc”. Această idee stă la baza testului Turing.
A acționa uman vs. a acționa inteligent: agenți inteligenți
Fondatorul AI John McCarthy a spus: „Inteligența artificială nu este, prin definiție, o simulare a inteligenței umane”. Russell și Norvig sunt de acord și critică testul Turing. Ei au scris: „Textele de inginerie aeronautică nu definesc scopul domeniului lor ca „a face mașini care zboară atât de exact ca porumbeii, încât să poată păcăli alți porumbei.” Alți cercetători și analiști nu sunt de acord și au susținut că AI ar trebui să simuleze inteligența naturală prin studierea psihologiei sau neurobiologiei.
Paradigma agentului inteligent definește comportamentul inteligent în general, fără referire la ființele umane. Un agent inteligent este un sistem care își percepe mediul și întreprinde acțiuni care îi maximizează șansele de succes. Orice sistem care are un comportament orientat spre obiectiv poate fi analizat ca un agent inteligent: ceva la fel de simplu ca un termostat, la fel de complex ca o ființă umană, precum și sisteme mari precum firme, biomi sau națiuni. Paradigma agentului inteligent a devenit larg acceptată în anii 1990 și servește în prezent drept definiție a domeniului.
Paradigma are alte avantaje pentru AI. Oferă o modalitate fiabilă și științifică de a testa programele; cercetătorii pot compara direct sau chiar combina abordări diferite ale problemelor izolate, întrebând care agent este cel mai bun pentru a maximiza o anumită „funcție a obiectivului”. De asemenea, le oferă un limbaj comun pentru a comunica cu alte domenii – cum ar fi optimizarea matematică (care este definită în termeni de „obiective”) sau economia (care folosește aceeași definiție a unui „agent rațional”).
Evaluarea abordărilor AI
Nicio teorie sau paradigmă unificatoare stabilită nu a ghidat cercetarea AI în cea mai mare parte a istoriei sale. Succesul fără precedent al învățării automate statistice în anii 2010 a eclipsat toate celelalte abordări (atât de mult încât unele surse, în special din lumea afacerilor, folosesc termenul „inteligență artificială” ca însemnând „învățare automată cu rețele neuronale”). Această abordare este în mare parte sub-simbolică, simplă, soft și îngustă. Criticii susțin că aceste întrebări s-ar putea să trebuiască să fie revizuite de generațiile viitoare de cercetători AI.
AI simbolică și limitele sale
AI simbolică (sau „GOFAI”) a simulat raționamentul conștient de nivel înalt pe care oamenii îl folosesc atunci când rezolvă puzzle-uri, exprimă raționament juridic și fac matematică. A avut mare succes la sarcini „inteligente”, precum algebra sau testele de IQ. În anii 1960, Newell și Simon au propus ipoteza sistemelor de simboluri fizice: „Un sistem de simboluri fizice are mijloacele necesare și suficiente de acțiune generală inteligentă”.
Cu toate acestea, abordarea simbolică a eșuat lamentabil în multe sarcini pe care oamenii le rezolvă cu ușurință, cum ar fi învățarea, recunoașterea unui obiect sau raționamentul de bun simț. Paradoxul lui Moravec este descoperirea că sarcinile „inteligente” de nivel înalt erau ușoare pentru AI, dar sarcinile „instinctive” de nivel scăzut erau extrem de dificile. Filosoful Hubert Dreyfus a susținut încă din anii 1960 că expertiza umană depinde mai degrabă de instinctul inconștient decât de manipularea conștientă a simbolurilor, și de a avea o „simțire” a situației, mai degrabă decât de cunoștințe simbolice explicite. Deși argumentele sale au fost ridiculizate și ignorate atunci când au fost prezentate pentru prima dată, în cele din urmă cercetările AI au ajuns să fie de acord.
Problema nu este rezolvată: raționamentul sub-simbolic poate face multe dintre aceleași greșeli imperceptibile pe care le face intuiția umană, cum ar fi părtinirea algoritmică. Critici precum Noam Chomsky susțin că continuarea cercetării în AI simbolică va fi în continuare necesară pentru a obține inteligența generală, în parte pentru că AI sub-simbolică este o îndepărtare de AI explicabilă: poate fi dificil sau imposibil de înțeles de ce un program statistic modern de AI a luat o decizie anume.
Ordonată vs. dezordonată
„Ordonat” (”neat”) speră ca în AI comportamentul inteligent să fie descris folosind principii simple și elegante (cum ar fi logica, optimizarea sau rețelele neuronale). „Dezordonat” (”scruffy”) se așteaptă că necesită în mod necesar rezolvarea unui număr mare de probleme care nu au legătură. Această problemă a fost discutată activ în anii 70 și 80, dar în anii 1990 metodele matematice și standardele științifice solide au devenit norma, o tranziție pe care Russell și Norvig au numit-o „victoria celor ordonați”.
Computing ordonat vs. dezordonat
Găsirea unei soluții care se dovedește corectă sau optimă este insolubilă pentru multe probleme importante. Soft computing este un set de tehnici, inclusiv algoritmi genetici, logica fuzzy și rețele neuronale, care sunt tolerante la imprecizie, incertitudine, adevăr parțial și aproximare. Soft computing a fost introdus la sfârșitul anilor 80, iar cele mai de succes programe AI din secolul 21 sunt exemple de soft computing cu rețele neuronale.
AI îngustă vs generală
Cercetătorii AI sunt divizați în opinia dacă să urmărească obiectivele inteligenței generale artificiale și ale superinteligenței (AI generală) în mod direct sau să rezolve cât mai multe probleme specifice (AI îngustă) în speranța că aceste soluții vor duce indirect la obiectivele pe termen lung ale domeniului. Inteligența generală este dificil de definit și greu de măsurat, iar AI modernă a avut succese mai verificabile prin concentrarea pe probleme specifice cu soluții specifice. Subdomeniul experimental al inteligenței generale artificiale studiază exclusiv acest domeniu.
Conștiința, simțirea și mintea mașinii
Filosofia minții nu știe dacă o mașină poate avea minte, conștiință și stări mentale, în același sens în care o au ființele umane. Această problemă ia în considerare experiențele interne ale mașinii, mai degrabă decât comportamentul său extern. Cercetarea principală AI consideră această problemă irelevantă, deoarece nu afectează obiectivele domeniului. Stuart Russell și Peter Norvig observă că majorității cercetătorilor AI „nu îi pasă de [filozofia AI] – atâta timp cât programul funcționează, nu îi pasă dacă o numiți o simulare a inteligenței sau inteligență reală”. Cu toate acestea, întrebarea a devenit centrală pentru filosofia minții. De asemenea, este de obicei întrebarea centrală în discuție în inteligența artificială în ficțiune.
Conștiința
David Chalmers a identificat două probleme în înțelegerea minții, pe care le-a numit problemele „grele” și „ușoare” ale conștiinței. Problema ușoară este înțelegerea modului în care creierul procesează semnalele, face planuri și controlează comportamentul. Problema grea este să explici cum simte acest lucru sau de ce ar trebui să se simtă ca orice. Procesarea informațiilor umane este ușor de explicat, totuși experiența subiectivă umană este dificil de explicat. De exemplu, este ușor să ne imaginăm o persoană cu daltonism care a învățat să identifice care obiecte din câmpul său vizual sunt roșii, dar nu este clar ce ar fi necesar ca persoana să știe cum arată roșu.
Computaționalism și funcționalism
Computaționalismul este poziția în filosofia minții conform căreia mintea umană este un sistem de procesare a informațiilor și că gândirea este o formă de calcul. Computaționalismul susține că relația dintre minte și corp este similară sau identică cu relația dintre software și hardware și, prin urmare, poate fi o soluție la problema minte-corp. Această poziție filozofică a fost inspirată de munca cercetătorilor AI și a oamenilor de știință cognitivă în anii 1960 și a fost propusă inițial de filozofii Jerry Fodor și Hilary Putnam.
Filosoful John Searle a caracterizat această poziție drept „AI puternică”: „Computerul programat corespunzător, cu intrările și ieșirile potrivite, ar avea astfel o minte exact în același sens în care ființele umane au mintea”. Searle contracarează această afirmație cu argumentul său din camera chinezească, care încearcă să arate că, chiar dacă o mașină simulează perfect comportamentul uman, încă nu există niciun motiv să presupunem că are și o minte.
Drepturile roboților
Dacă o mașină are minte și o experiență subiectivă, atunci poate avea și simțire (capacitatea de a simți) și, dacă da, atunci ar putea suferi și, astfel, ar avea dreptul la anumite drepturi. Orice drepturi ipotetice ale roboților s-ar afla pe un spectru comun cu drepturile animalelor și drepturile omului. Această problemă a fost luată în considerare în ficțiune de secole și este acum luată în considerare, de exemplu, de Institutul pentru viitor din California. Totuși criticii susțin că discuția este prematură.
Traducere și adaptare din Wikipedia
Lasă un răspuns