Filozofia inteligenței artificiale încearcă să răspundă la întrebări precum:
- Poate o mașină să acționeze inteligent? Poate rezolva orice problemă pe care o persoană o va rezolva gândindu-se?
- Inteligența umană și inteligența mașinilor sunt la fel? Creierul uman este în esență un computer?
- Poate o mașină să aibă minte, stări mentale și conștiință în același mod în care poate fi o ființă umană? Poate simți cum sunt lucrurile?
Aceste trei întrebări reflectă interesele divergente ale cercetătorilor inteligenței artificiale (IA), lingviștilor, oamenilor de știință cognitivi și, respectiv, filosofilor. Răspunsurile științifice la aceste întrebări depind de definiția „inteligenței” și a „conștiinței” și de exact ce „mașini” sunt în discuție.
Propuneri importante în filosofia IA includ:
- „Convenția politicoasă” a lui Turing: Dacă o mașină se comportă inteligent ca o ființă umană, atunci este la fel de inteligentă ca și o ființă umană.
- Propunerea de la Dartmouth: „Fiecare aspect al învățării sau orice altă caracteristică a inteligenței poate fi descrisă atât de precis încât poate fi făcută o mașină să o simuleze”.
- Ipoteza sistemului de simboluri fizice a lui Newell și Simon: „Un sistem de simboluri fizice are mijloacele necesare și suficiente de acțiune inteligentă generală”.
- Ipoteza IA puternică a lui Searle: „Calculatorul programat corespunzător, cu intrările și ieșirile corecte, ar avea astfel o minte în exact același sens ca oamenii”.
- Mecanismul lui Hobbes: „Pentru că ‘motivul‘… nu este altceva decât ‘calcul‘, adică adăugarea și scăderea consecințelor denumirilor generale convenite pentru ‘marcarea‘ și ‘semnificația‘ gândurilor noastre …”
Poate o mașină să aibă o inteligență generală?
Este posibil să creați o mașină care să rezolve toate problemele pe care le rezolvă omul folosind inteligența? Această întrebare definește domeniul de aplicare a mașinilor care se vor putea face în viitor și va îndruma direcția cercetării IA. Se referă numai la comportamentul mașinilor și ignoră problemele de interes pentru psihologi, cercetători cognitivi și filozofi; pentru a răspunde la această întrebare, nu contează dacă o mașină gândește (ca o persoană care gândește) sau se comportă doar ca și cum ar gândi.
Poziția de bază a majorității cercetătorilor IA este rezumată în această declarație, care a apărut în propunerea pentru atelierul de la Dartmouth din 1956:
Fiecare aspect al învățării sau orice altă caracteristică a inteligenței poate fi descrisă atât de precis încât poate fi făcută o mașină să o simuleze.
Argumentele împotriva premisei de bază trebuie să demonstreze că construirea unui sistem de IA funcțional este imposibilă, deoarece există o limită practică a abilităților computerelor sau există o anumită calitate specială a minții umane care este necesară pentru gândire și totuși nu poate fi dublată de mașină (sau prin metodele actuale de cercetare IA). Argumentele în favoarea premizei de bază trebuie să demonstreze că un astfel de sistem este posibil.
Primul pas pentru a răspunde la întrebare este definirea clară a „inteligenței”.
Inteligența
(„Interpretarea standard” a testului Turing.)
Testul Turing
Alan Turing, într-o lucrare faimoasă din 1950, a redus problema definirii inteligenței la o întrebare simplă despre conversație. El sugerează că: dacă o mașină poate răspunde la orice întrebare adresată acesteia, folosind aceleași cuvinte pe care o persoană obișnuită le-ar putea folosi, acea mașină este inteligentă. O versiune modernă a designului său experimental ar folosi o cameră de chat online, unde unul dintre participanți este o persoană reală, iar celălalt este un program de calculator. Programul trece testul dacă nimeni nu poate spune care dintre cei doi participanți este uman. Turing observă că nimeni (cu excepția filosofilor) nu pune vreodată întrebarea „pot gândi oamenii?” El scrie că „în loc să ne certăm continuu asupra acestui punct, se obișnuiește să avem o convenție politicoasă conform căreia toată lumea gândește”. Testul lui Turing extinde această convenție politicoasă la mașini:
Dacă o mașină acționează inteligent ca ființă umană, atunci este la fel de inteligentă ca o ființă umană.
O critică a testului Turing este că este explicit antropomorf. Dacă scopul nostru final este de a crea mașini care sunt mai inteligente decât oameni, de ce ar trebui să insistăm că mașinile noastre trebuie să semene foarte mult cu oamenii? Russell și Norvig scriu că „textele de inginerie aeronautică nu definesc scopul domeniului lor ca fiind „fabricarea de mașini care zboară exact ca porumbeii încât să poată păcăli și alți porumbei”.
Definirea agentului inteligent
De curând, cercetarea IA definește inteligența în termeni de agenți inteligenți. Un „agent” este ceva care percepe și acționează într-un mediu. O „măsură de performanță” definește ceea ce contează ca succes pentru agent.
Dacă un agent acționează astfel încât să maximizeze valoarea așteptată a unei măsurări de performanță bazată pe experiența și cunoștințele anterioare, atunci este inteligent.
Definiții ca aceasta încearcă să surprindă esența inteligenței. Ele au avantajul că, spre deosebire de testul Turing, nu testează, de asemenea, trăsăturile umane pe care probabil că nu le considerăm inteligente, cum ar fi abilitatea de a fi insultat sau tentația de a minți. Ele au dezavantajul că nu reușesc să facă diferențierea comună între „lucrurile care gândesc” și „lucrurile care nu gândesc”. Prin această definiție, chiar și un termostat are o inteligență rudimentară.
Argumente că o mașină poate avea inteligență generală
Creierul poate fi simulat
(O scanare MRI a unui creier normal adult uman)
Hubert Dreyfus descrie acest argument ca susținând că „dacă sistemul nervos respectă legile fizicii și chimiei, având toate motivele să le presupunem că este așa, atunci … noi … ar trebui să putem reproduce comportamentul sistemul nervos cu un dispozitiv fizic”. Acest argument, introdus pentru prima dată în 1943 și descris pe latg de către Hans Moravec în 1988, este acum asociat cu futuristul Ray Kurzweil, care estimează că puterea calculatorului va fi suficientă pentru o simulare completă a creierului până în anul 2029. O simulare în timp non-real a unui model talamocortic care are dimensiunea creierului uman (1011 neuroni) a fost efectuată în 2005 și a fost nevoie de 50 de zile pentru a simula 1 secundă dinamică a creierului pe un grup de 27 de procesoare.
Sunt puțini cei care nu sunt de acord că o simulare a creierului este posibilă în teorie, chiar și critici ai IA, cum ar fi Hubert Dreyfus și John Searle. Cu toate acestea, Searle subliniază că, în principiu, orice poate fi simulat de un computer; astfel, aducerea definiției la punctul ei de eșec conduce la concluzia că orice proces poate fi considerat din punct de vedere tehnic „calcul”. „Ceea ce am vrut să știm este ceea ce distinge mintea de termostate și de ficat”, scrie el. Astfel, simpla mimare a funcționării unui creier ar fi în sine o recunoaștere a ignoranței în ceea ce privește inteligența și natura minții.
Gândirea umană este procesarea simbolurilor
În 1963, Allen Newell și Herbert A. Simon au sugerat că „manipularea simbolurilor” era esența inteligenței umane și a mașinilor. Ei au scris:
Un sistem de simboluri fizice dispune de mijloacele necesare și suficiente de acțiune inteligentă generală.
Această afirmație este foarte puternică: presupune atât că gândirea umană este un fel de manipulare a simbolurilor (deoarece un sistem de simboluri este necesar pentru inteligență) și că mașinile pot fi inteligente (deoarece un sistem de simbol este suficient pentru inteligență). O altă versiune a acestei poziții a fost descrisă de filosoful Hubert Dreyfus, care l-a numit „ipoteza psihologică”:
Mintea poate fi privită ca un dispozitiv care operează pe fragmente de informații conform regulilor formale.
O distincție se face de obicei între tipurile de simboluri de nivel înalt care corespund în mod direct obiectelor din lume, cum ar fi <câine> și <coadă> și „simbolurile” mai complexe care sunt prezente într-o mașină ca o rețea neurală. Cercetarea timpurie în IA, numită „bună inteligență artificială în stil vechi” (GOFAI) de John Haugeland, s-a concentrat asupra acestor simboluri de nivel înalt.
Argumente împotriva procesării simbolurilor
Aceste argumente arată că gândirea umană nu constă (exclusiv) în manipularea simbolurilor de nivel înalt. Nu arată că inteligența artificială este imposibilă, doar că este necesară o prelucrare a simbolurilor.
Argumente anti-mecanistice gödeliene
În 1931, Kurt Gödel a dovedit cu o teoremă a incompletitudinii că este întotdeauna posibilă construirea unei ”declarații Gödel” pe care un sistem consistent formal de logică (cum ar fi un program de manipulare a simbolurilor la nivel înalt) nu ar putea-o face. În ciuda faptului că este o afirmație adevărată, declarația Gödel construită este de nedovedit în sistemul dat. (Adevărul declarației Gödel construite este condiționat de consecvența sistemului dat, aplicarea aceluiași proces într-un sistem subtil inconsistent va părea că va reuși, dar va da în schimb o ”declarație Gödel” falsă .) Mai speculativ, Gödel a conjectat că mintea umană poate determina corect în cele din urmă adevărul sau falsitatea oricărei declarații matematice bine fundamentate (inclusiv orice afirmație Gödel posibilă) și că, prin urmare, puterea minții umane nu poate fi redusă la un mecanism. Filosofii John Lucas (în 1961) și Roger Penrose (în 1989) au susținut acest argument filosofic anti-mecanicist. Argumentele anti-mecanistice gödeliene tind să se bazeze pe afirmația inofensivă că un sistem de matematicieni umani (sau o idealizare a matematicienilor umani) este atât consistent (complet lipsit de eroare), cât și în deplină consecvență (și poate face toate inferențele logice care rezultă din consistența proprie, inclusiv credința în declarația sa Gödel). Acest lucru este cu siguranță imposibil pentru o mașină Turing (și, printr-o extensie informală, orice tip cunoscut de calculator mecanic); prin urmare, gödelianul concluzionează că raționamentul uman este prea puternic pentru a fi capturat într-o mașină.
Totuși, consensul modern în comunitatea științifică și matematică este că raționamentul uman real este inconsecvent; că orice „idealizată versiune” H a raționamentului uman ar fi logic forțată să adopte un scepticism sănătos, dar contra-intuitiv, cu privire la coerența lui H (în caz contrar, H este inconsecvent); și că teoremele lui Gödel nu duc la niciun argument valabil că oamenii au capacități matematice de raționament dincolo de ceea ce o mașină ar putea vreodată să copieze. Acest consens că argumentele anti-mecanistice gödeliene sunt condamnate la eșec este prezentat puternic în Inteligența artificială: „orice încercare de a folosi (rezultatele incompletenței lui Gödel) pentru a ataca teza computationalistă este obligată să fie ilegitimă, deoarece aceste rezultate sunt în concordanță cu teza computaționalistă.„
Mai pragmatic, Russell și Norvig observă că argumentul lui Gödel se aplică numai la ceea ce poate fi dovedit teoretic, dat fiind o cantitate infinită de memorie și timp. În practică, mașinile reale (inclusiv oamenii) au resurse finite și vor avea dificultăți în a demonstra multe teoreme. Nu este necesar să dovedești totul pentru a fi inteligent.
Mai puțin formal, Douglas Hofstadter, în cartea lui cu care a câștigat premiul Pullitzer, Gödel, Escher, Bach: „Ramurile unei ghirlande eterne”, spune că aceste „declarații Gödel” se referă întotdeauna la sistemul însuși, făcând o analogie cu modul în care paradoxul Epimenides folosește declarații care se referă la ele însele, cum ar fi „această afirmație este falsă” sau „eu mint”. Dar, desigur, paradoxul Epimenides se aplică oricărui lucru care face declarații, fie că sunt mașini sau oameni, chiar lui Lucas însuși. Să considerăm:
Lucas nu poate afirma adevărul acestei afirmații.
Această afirmație este adevărată, dar nu poate fi susținută de Lucas. Acest lucru arată că Lucas însuși este supus acelorași limite pe care le descrie pentru mașini, la fel ca toți oamenii, astfel încât argumentul lui Lucas este inutil.
După ce a concluzionat că raționamentul uman nu este calculabil, Penrose a continuat să speculeze controversabil că un fel de procese ipotetice non-computabile care implică prăbușirea stărilor mecanice cuantice oferă oamenilor un avantaj special față de computerele existente. Computerele cuantice existente sunt capabile doar să reducă complexitatea sarcinilor computabile Turing și sunt încă limitate la sarcini care se află în sfera de aplicare a mașinilor Turing. . Prin argumentele lui Penrose și Lucas, calculatoarele cuantice existente nu sunt suficiente, așa că Penrose caută un alt proces care implică o nouă fizică, de exemplu o gravitație cuantică, care ar putea manifesta o nouă fizică la scara maselor Planck prin colapsul spontan cuantic al funcției de undă. Aceste stări, a sugerat el, apar în interiorul neuronilor, și se răspândesc și în mai mulți neuroni. Cu toate acestea, alți oameni de știință subliniază faptul că nu există mecanisme organice plauzibile în creier pentru valorificarea oricărui tip de calcul cuantic și, în plus, că intervalul de timp al decoerenței cuantice pare prea rapid pentru a influența arderea neuronilor.
Dreyfus: primatul abilităților inconștiente
Hubert Dreyfus a susținut că inteligența și expertiza umană depind în primul rând de instinctele inconștiente, mai degrabă decât de manipularea simbolică conștientă, și au susținut că aceste abilități inconștiente nu ar fi niciodată capturate în regulile formale.
Argumentul lui Dreyfus fusese anticipat de Turing în lucrarea din 1950 a mașinilor de calcul și a informațiilor despre computere, unde acesta clasificase acest lucru drept „argumentul informalității comportamentului”. Turing a argumentat în răspuns că, doar pentru că nu știm regulile care guvernează un comportament complex, acest lucru nu înseamnă că nu există astfel de reguli. El a scris: „nu ne putem convinge cu ușurință de absența unor legi complete de comportament … Singurul mod în care știm că găsim astfel de legi este o observație științifică și cu siguranță nu știm nicio circumstanță în care să putem spune: am căutat suficient, nu există astfel de legi”.
Russell și Norvig subliniază că, în anii de când Dreyfus și-a publicat critica, s-au făcut progrese în descoperirea „regulilor” care guvernează raționamentul inconștient. Mișcarea situată în cercetarea robotică încearcă să ne surprindă abilitățile inconștiente la percepție și atenție. Complicațiile inteligenței computaționale, cum ar fi plasele neuronale, algoritmii evoluționiști și așa mai departe, sunt orientate în principal către raționarea și învățarea simulată inconștientă. Abordările statistice pentru IA pot face previziuni care să abordeze precizia ghicirilor intuitive umane. Cercetarea în domeniul cunoașterii comunității s-a axat pe reproducerea „fundalului” sau a contextului cunoașterii. De fapt, cercetarea IA, în general, s-a îndepărtat de manipularea simbolurilor la nivel înalt sau „GOFAI”, spre noi modele care sunt destinate să surprindă mai mult din raționamentul nostru inconștient. Istoricul și cercetătorul IA, Daniel Crevier, a scris că „timpul a dovedit acuratețea și percepția unor comentarii ale lui Dreyfus. Dacă le-ar fi formulat mai puțin agresiv, acțiunile constructive pe care le-au sugerat ar fi putut fi luate în considerare mult mai devreme”.
Lasă un răspuns