În inteligența artificială, inteligența artificială simbolică este termenul pentru colectarea tuturor metodelor de cercetare în domeniul inteligenței artificiale care se bazează pe reprezentări simbolice de nivel înalt (lizibile de către om) ale problemelor, logicii și căutării. IA simbolică a folosit instrumente precum programarea logică, regulile de producție, rețelele și cadrele semantice, și a dezvoltat aplicații precum sisteme bazate pe cunoștințe (în special, sisteme experte), matematică simbolică, demonstratori de teoreme automate, ontologii, semantică web și sisteme automate de planificare si programare. Paradigma IA simbolică a condus la idei fundamentale în căutare, limbaje de programare simbolică, agenți, sisteme multi-agenți, semantică web și punctele forte și limitările cunoștințelor formale și sistemelor de raționament.
IA simbolică a fost paradigma dominantă a cercetării IA de la mijlocul anilor 1950 până la mijlocul anilor 1990. Cercetătorii din anii 1960 și 1970 erau convinși că abordările simbolice vor reuși în cele din urmă să creeze o mașină cu inteligență generală artificială și au considerat că acesta este scopul final al domeniului lor. Un boom timpuriu, cu succese timpurii, cum ar fi Teoreticianul logicii și Programul de joc de dame al lui Samuel, a dus la așteptări și promisiuni nerealiste și a fost urmat de Prima Iarnă IA pe măsură ce finanțarea s-a epuizat. Un al doilea boom (1969–1986) a avut loc odată cu ascensiunea sistemelor expert, promisiunea lor de a capta expertiza corporativă și o îmbrățișare corporativă entuziastă. Acest boom și câteva succese timpurii, de exemplu, cu XCON la DEC, au fost urmate din nou de dezamăgirea ulterioară. Au apărut probleme legate de dificultăți în dobândirea cunoștințelor, menținerea unor baze mari de cunoștințe și fragilitatea în gestionarea problemelor din afara domeniului. A urmat o A doua iarnă IA (1988–2011). Ulterior, cercetătorii IA s-au concentrat pe abordarea problemelor de bază în gestionarea incertitudinii și în achiziționarea de cunoștințe. Incertitudinea a fost abordată cu metode formale, cum ar fi modelele Markov ascunse, raționamentul bayesian și învățarea relațională statistică. Învățarea automată simbolică a abordat problema achiziției de cunoștințe cu contribuții inclusiv Spațiul versiunii, învățarea PAC a lui Valiant, învățarea arborelui de decizie ID3 al lui Quinlan, învățarea bazată pe cazuri și programarea logică inductivă pentru a învăța relațiile.
Rețelele neuronale, o abordare subsimbolică, au fost urmărite încă de la început și urmau să reapară puternic în 2012. Exemplele timpurii sunt munca de învățare a perceptronului lui Rosenblatt, munca de propagare inversă a lui Rumelhart, Hinton și Williams și munca în rețelele neuronale convoluționale de către LeCun. et al. în 1989.[14] Cu toate acestea, rețelele neuronale nu au fost văzute ca un succes până în 2012: „Până când Big Data a devenit un loc obișnuit, consensul general în comunitatea Al a fost că așa-numita abordare a rețelelor neuronale era fără speranță. Sistemele pur și simplu nu au funcționat atât de bine, în comparație cu alte metode… O revoluție a venit în 2012, când un număr de oameni, inclusiv o echipă de cercetători care lucrează cu Hinton, au găsit o modalitate de a folosi puterea GPU-urilor pentru a crește enorm puterea rețelelor neuronale.” (Marcus, Gary; Davis, Ernest (2019). Rebooting AI: Building Artificial Intelligence We Can Trust) În următorii câțiva ani, învățarea profundă a avut un succes spectaculos în gestionarea vizualizării, recunoașterii vorbirii, sintezei vorbirii, generarea de imagini și traducerea automată. Cu toate acestea, din 2020, pe măsură ce dificultățile inerente cu părtinirea, explicația, comprehensibilitatea și robustețea au devenit mai evidente cu abordările de învățare profundă; un număr tot mai mare de cercetători în domeniul inteligenței artificiale au cerut combinarea celor mai bune dintre abordările rețelelor simbolice și neuronale și abordarea domeniilor cu care ambele abordări au dificultăți, cum ar fi raționamentul de bun simț.
Idei fundamentale
Abordarea simbolică a fost exprimată succint în „ipoteza sistemelor de simboluri fizice” propusă de Newell și Simon în 1976:
- „Un sistem de simboluri fizice are mijloacele necesare și suficiente de acțiune generală inteligentă.”
Mai târziu, practicienii care folosesc abordări bazate pe cunoștințe au adoptat o a doua maximă:
- „În cunoaștere stă puterea.”
pentru a descrie că performanța înaltă într-un domeniu specific necesita atât cunoștințe generale, cât și foarte specifice domeniului. Ed Feigenbaum și Doug Lenat au numit acest principiu Principiul cunoașterii:
- Principiul cunoașterii: dacă un program urmează să îndeplinească bine o sarcină complexă, trebuie să cunoască multe despre lumea în care operează.
- O extensie plauzibilă a acestui principiu, numită Ipoteza lățimii: există două abilități suplimentare necesare pentru un comportament inteligent în situații neașteptate: recurgerea la cunoștințe din ce în ce mai generale și analogia cu cunoștințele specifice, dar îndepărtate.
În cele din urmă, odată cu creșterea învățării profunde, abordarea simbolică a inteligenței artificiale a fost comparată cu învățarea profundă ca fiind complementară „… paralele fiind făcute de multe ori de către cercetătorii IA între cercetările lui Kahneman privind raționamentul uman și luarea deciziilor – reflectate în cartea sa Thinking. , Fast și Slow – și așa-numitele „sisteme IA 1 și 2”, care ar fi, în principiu, modelate de învățarea profundă și, respectiv, raționamentul simbolic.” Din această perspectivă, raționamentul simbolic este mai apt pentru raționamentul deliberativ, planificare și explicație, în timp ce învățarea profundă este mai aptă pentru recunoașterea rapidă a modelelor în aplicațiile perceptuale cu date cu zgomot de fond.
(Include texte traduse și adaptate din Wikipedia de Nicolae Sfetcu)
Lasă un răspuns