IA clasică
Cercetarea modernă a inteligenței artificiale a început la mijlocul anilor 1950. Prima generație de cercetători IA a fost convinsă că inteligența generală artificială era posibilă și că va exista în doar câteva decenii. Pionierul inteligenței artificiale Herbert A. Simon a scris în 1965: „mașinile vor fi capabile, în decurs de douăzeci de ani, să facă orice muncă pe care o poate face un om.” Predicțiile lor au fost inspirația pentru personajul HAL 9000 al lui Stanley Kubrick și Arthur C. Clarke, care a întruchipat ceea ce cercetătorii IA credeau că s-ar putea crea până în anul 2001. Pionierul IA Marvin Minsky a fost consultant în proiectul de a face HAL 9000 cât mai realist posibil, conform predicțiilor consensuale ale vremii; Crevier îl citează ca a spus despre acest subiect în 1967: „Într-o generație… problema creării „inteligenței artificiale” va fi în mod substanțial rezolvată”.
Mai multe proiecte clasice de IA, cum ar fi proiectul Cyc al lui Doug Lenat (care a început în 1984) și proiectul Soar al lui Allen Newell, au fost direcționate în mod special către inteligența artificială generală (IAG).
Cu toate acestea, la începutul anilor 1970 și apoi din nou la începutul anilor 90, a devenit evident că cercetătorii au subestimat mult dificultatea proiectului. Agențiile de finanțare au devenit sceptice față de IAG și au pus cercetătorii sub o presiune din ce în ce mai mare pentru a produce „IA aplicată” utilă. Odată cu începutul anilor 1980, Proiectul de calculatoare de generație a cincea din Japonia a reînviat interesul pentru IAG, stabilind o cronologie de zece ani care includea obiective IAG precum „purtați o conversație obișnuită”. Ca răspuns la acest lucru și la succesul sistemelor expert, atât industria, cât și guvernul au pompat bani înapoi în domeniu. Cu toate acestea, încrederea în inteligența artificială s-a prăbușit în mod spectaculos la sfârșitul anilor 1980, iar obiectivele Proiectului de calculatoare de generația a cincea nu au fost niciodată îndeplinite. Pentru a doua oară în 20 de ani, cercetătorii IA care preziseseră realizarea iminentă a IAG s-au dovedit a greși fundamental. Până în anii 1990, cercetătorii IA și-au câștigat reputația de a face promisiuni zadarnice. Au devenit reticenți în a face previziuni și pentru a evita orice mențiune despre inteligența artificială „la nivel uman” de teamă să nu fie etichetați „visători cu ochi deschiși”.
Cercetare îngustă a IA
În anii 1990 și începutul secolului 21, IA de masă a obținut un succes comercial mult mai mare și respectabilitate academică, concentrându-se pe sub-probleme specifice în care pot produce rezultate verificabile și aplicații comerciale, cum ar fi rețelele neuronale artificiale și învățarea automată statistică. Aceste sisteme de „IA aplicată” sunt acum utilizate pe scară largă în industria tehnologiei, iar cercetarea în acest sens este foarte mult finanțată atât în mediul academic, cât și în industrie. În prezent, dezvoltarea în acest domeniu este considerată o tendință emergentă și se așteaptă să aibă loc o etapă de maturitate peste 10 ani.
Cei mai mulți cercetători în domeniul inteligenței artificiale tradiționale speră că o inteligență artificială puternică poate fi dezvoltată prin combinarea programelor care rezolvă diferite sub-probleme. Hans Moravec a scris în 1988:
”Sunt încrezător că acest drum de jos în sus către inteligența artificială se va întâlni într-o zi cu drumul tradițional de sus în jos la jumătatea drumului, gata să ofere competența lumii reale și cunoștințele de bun simț care au fost atât de frustrant de evazive în programele de raționament. Mașini complet inteligente vor rezulta atunci când se va ajunge la vârful de aur etaporic unind cele două eforturi.”
Cu toate acestea, chiar și această filozofie fundamentală a fost contestată; de exemplu, Stevan Harnad de la Princeton și-a încheiat lucrarea din 1990 despre ipoteza de fundamentare a simbolurilor afirmând:
”A fost adesea exprimată așteptarea că abordările „de sus în jos” (simbolice) ale modelării cogniției vor întâlni cumva abordările „de jos în sus” (senzoriale) undeva la mijloc. Dacă considerentele de bază din această lucrare sunt valide, atunci această așteptare este iremediabil modulară și există într-adevăr o singură cale viabilă de la sens la simboluri: pornind de la zero. Un nivel simbolic care plutește liber, cum ar fi nivelul software al unui computer, nu va fi niciodată atins pe această cale (sau invers) – și nici nu este clar de ce ar trebui să încercăm să atingem un astfel de nivel, deoarece se pare că ajungerea acolo ar fi echivalentă cu dezrădăcinarea simbolurilor noastre din semnificațiile lor intrinseci (reducându-se prin aceasta la echivalentul funcțional al unui computer programabil).”
Cercetarea modernă a inteligenței artificiale generale
Termenul „inteligență artificială generală” a fost folosit încă din 1997, de către Mark Gubrud într-o discuție despre implicațiile producției și operațiunilor militare complet automatizate. Termenul a fost reintrodus și popularizat de Shane Legg și Ben Goertzel în jurul anului 2002. Activitatea de cercetare a IAG din 2006 a fost descrisă de Pei Wang și Ben Goertzel drept „producerea de publicații și rezultate preliminare”. Prima școală de vară pentru IAG a fost organizată în Xiamen, China, în 2009 de către Laboratorul de creier artificial al universității din Xiamen și OpenCog. Primul curs universitar a fost susținut în 2010 și 2011 la Universitatea din Plovdiv, Bulgaria, de Todor Arnaudov. MIT a prezentat un curs în IAG în 2018, organizat de Lex Fridman și cu o serie de lectori invitați.
Cu toate acestea, până în prezent, majoritatea cercetătorilor IA au acordat puțină atenție IAG, unii susținând că inteligența este prea complexă pentru a fi replicată complet în termen scurt. Cu toate acestea, un număr mic de informaticieni sunt activi în cercetarea IAG și mulți dintre cei din grup contribuie la o serie de conferințe IAG. Cercetarea este extrem de diversă și adesea de pionierat în natură.
Scale de timp: în introducerea cărții sale din 2006, Goertzel spune că estimările privind timpul necesar înainte de construirea unei IAG cu adevărat flexibilă variază de la 10 ani la peste un secol, dar consensul din 2007 în comunitatea de cercetare IAG pare să fie că scala dew timp discutată de Ray Kurzweil în The Singularity is Near (adică între 2015 și 2045) este plauzibilă. Cu toate acestea, cercetătorii mainstream IA au oferit o gamă largă de opinii despre dacă progresul va fi atât de rapid. O meta-analiză din 2012 a 95 de astfel de opinii a găsit o prejudecată în direcția că apariția IAG va avea loc în decurs de 16-26 de ani, atât pentru predicțiile moderne, cât și pentru cele istorice. Ulterior s-a constatat că setul de date a enumerat unii experți ca non-experți și invers.
În 2017, cercetătorii Feng Liu, Yong Shi și Ying Liu au efectuat teste de inteligență pe IA slabă disponibilă public și accesibilă gratuit, cum ar fi Google IA sau Siri de la Apple și altele. La maxim, aceste IA au atins o valoare IQ de aproximativ 47, ceea ce corespunde aproximativ unui copil de șase ani în clasa I. Un adult ajunge la aproximativ 100 în medie. Teste similare au fost efectuate în 2014, scorul IQ atingând o valoare maximă de 27.
În 2020, OpenAI a dezvoltat GPT-3, un model de limbaj capabil să îndeplinească multe sarcini diverse fără o pregătire specifică. Potrivit lui Gary Grossman într-un articol VentureBeat, deși există un consens că GPT-3 nu este un exemplu de IAG, unii consideră că este prea avansat pentru a fi clasificat ca un sistem IA îngust. În același an, Jason Rohrer și-a folosit contul GPT-3 pentru a dezvolta un chatbot și a furnizat o platformă de dezvoltare a chatbot numită „Project December”. OpenAI a cerut modificări la chatbot pentru a se conforma cu liniile directoare de siguranță ale acestora; Rohrer a deconectat Project December de la API-ul GPT-3.
În 2022, DeepMind a dezvoltat Gato, un sistem „de uz general” capabil să îndeplinească peste 600 de sarcini diferite.
(Include texte traduse și adaptate din Wikipedia de Nicolae Sfetcu)
Lasă un răspuns