Inteligența artificială (Artificial Intelligence, AI) este inteligența demonstrată de mașini, spre deosebire de inteligența naturală afișată de animale, inclusiv de oameni. Cele mai importante manuale de inteligență artificială definesc domeniul ca fiind studiul „agenților inteligenți”: orice sistem care își percepe mediul și întreprinde acțiuni care îi maximizează șansele de a-și atinge obiectivele. Unele relatări populare folosesc termenul „inteligență artificială” pentru a descrie mașinile care imită funcțiile „cognitive” pe care oamenii le asociază cu mintea umană, cum ar fi „învățarea” și „rezolvarea problemelor”, cu toate acestea, această definiție este respinsă de marii cercetători AI.
Aplicațiile AI includ motoare de căutare web avansate (de exemplu, Google), sisteme de recomandare (utilizate de YouTube, Amazon și Netflix), înțelegerea vorbirii umane (cum ar fi Siri și Alexa), mașini cu conducere autonomă (de exemplu, Tesla), luarea automată a deciziilor și concurarea la cel mai înalt nivel în sisteme de joc strategice (cum ar fi șah și go). Pe măsură ce mașinile devin din ce în ce mai capabile, sarcinile considerate a necesita „inteligență” sunt adesea eliminate din definiția AI, un fenomen cunoscut sub numele de efectul AI. De exemplu, recunoașterea optică a caracterelor este adesea exclusă din lucrurile considerate a fi AI, devenind o tehnologie de rutină.
Inteligența artificială a fost înființată ca disciplină academică în 1956, iar în anii care au urmat a cunoscut mai multe valuri de optimism, urmate de dezamăgire și pierderea finanțării (cunoscută sub numele de „iarna AI”), urmate de noi abordări, succes și finanțare reînnoită. . Cercetarea AI a încercat și a renunțat la multe abordări diferite de la înființare, inclusiv simularea creierului, modelarea rezolvării problemelor umane, logica formală, bazele de date mari de cunoștințe și imitarea comportamentului animal. În primele decenii ale secolului 21, învățarea automată statistică extrem de matematică a dominat domeniul, iar această tehnică s-a dovedit un mare succes, ajutând la rezolvarea multor probleme provocatoare din industrie și mediul academic.
Diferitele subdomenii ale cercetării AI sunt centrate pe anumite obiective și pe utilizarea unor instrumente speciale. Obiectivele tradiționale ale cercetării AI includ raționamentul, reprezentarea cunoștințelor, planificarea, învățarea, procesarea limbajului natural, percepția și capacitatea de a muta și manipula obiecte. Inteligența generală (abilitatea de a rezolva o problemă arbitrară) se numără printre obiectivele pe termen lung ale domeniului. Pentru a rezolva aceste probleme, cercetătorii AI au adaptat și integrat o gamă largă de tehnici de rezolvare a problemelor – inclusiv căutare și optimizare matematică, logică formală, rețele neuronale artificiale și metode bazate pe statistică, probabilitate și economie. AI se bazează, de asemenea, pe informatică, psihologie, lingvistică, filozofie și multe alte domenii.
Domeniul a fost întemeiat pe presupunerea că inteligența umană „poate fi descrisă atât de precis încât să poată fi făcută o mașină să o simuleze”. Acest lucru ridică argumente filozofice despre minte și etica creării de ființe artificiale înzestrate cu inteligență asemănătoare omului. Aceste probleme au fost explorate prin mit, ficțiune și filozofie încă din antichitate. Literatura științifico-fantastică și futurologia au sugerat, de asemenea, că, cu potențialul și puterea sa enormă, inteligența artificială poate deveni un risc existențial pentru umanitate.
Istorie
(Didrahma de argint din Creta înfățișând pe Talos, un automat mitic antic cu inteligență artificială)
Ființe artificiale cu inteligență au apărut ca dispozitive de povestire în antichitate și au fost comune în ficțiune, ca în Frankenstein de Mary Shelley sau R.U.R. de Karel Čapek. Aceste personaje și destinele lor au ridicat multe dintre aceleași probleme discutate acum în etica inteligenței artificiale.
Studiul raționamentului mecanic sau „formal” a început cu filozofii și matematicienii din antichitate. Studiul logicii matematice a condus direct la teoria calculului a lui Alan Turing, care sugera că o mașină, amestecând simboluri la fel de simple ca „0” și „1”, ar putea simula orice act imaginabil de deducție matematică. Această înțelegere conform căreia computerele digitale pot simula orice proces de raționament formal este cunoscută sub numele de teza Church-Turing.
Teza Church-Turing, împreună cu descoperirile concomitente în neurobiologie, teoria informației și cibernetică, i-au determinat pe cercetători să ia în considerare posibilitatea construirii unui creier electronic. Prima lucrare care este acum în general recunoscută ca AI a fost designul formal al lui McCullouch și Pitts din 1943 pentru „neuroni artificiali” cu Turing-complet.
Când accesul la computere digitale a devenit posibil la mijlocul anilor 1950, cercetarea AI a început să exploreze posibilitatea ca inteligența umană să poată fi redusă la manipularea pas cu pas a simbolurilor, cunoscută sub numele de simbolică AI sau GOFAI. Abordările bazate pe cibernetică sau rețele neuronale artificiale au fost abandonate sau împinse în fundal.
Domeniul cercetării AI a luat naștere la un workshop la Dartmouth College în 1956. Participanții au devenit fondatorii și liderii cercetării AI. Ei și studenții lor au produs programe pe care presa le-a descris drept „uimitoare”: computerele învățau strategii de verificare, rezolvau probleme de cuvinte în algebră, demonstrau teoreme logice și vorbeau engleza. La mijlocul anilor 1960, cercetările în SUA au fost finanțate puternic de Departamentul Apărării și au fost înființate laboratoare în întreaga lume.
Cercetătorii din anii 1960 și 1970 erau convinși că abordările simbolice vor reuși în cele din urmă să creeze o mașină cu inteligență generală artificială și au considerat acest lucru scopul domeniului lor. Herbert Simon a prezis că „mașinile vor fi capabile, în termen de douăzeci de ani, să facă orice muncă pe care o poate face un om”. Marvin Minsky a fost de acord, scriind, „într-o generație … problema creării „inteligenței artificiale” va fi în mod substanțial rezolvată”.
Progresul a încetinit și, în 1974, ca răspuns la criticile aduse de Sir James Lighthill și la presiunea continuă din partea Congresului SUA de a finanța proiecte mai productive, atât guvernele SUA, cât și cele britanice au întrerupt cercetările exploratorii în AI. Următorii câțiva ani aveau să fie numiți mai târziu „iarna AI”, perioadă în care obținerea de finanțare pentru proiectele AI a fost dificilă.
La începutul anilor 1980, cercetarea AI a fost reînviată de succesul comercial al sistemelor expert, o formă de program AI care simula cunoștințele și abilitățile analitice ale experților umani. Până în 1985, piața pentru AI ajunsese la peste un miliard de dolari. În același timp, proiectul de computer de generația a cincea al Japoniei a inspirat guvernele SUA și Marea Britanie să restabilească finanțarea pentru cercetarea academică. Cu toate acestea, începând cu prăbușirea pieței Lisp Machine în 1987, AI a căzut din nou în desuetitudine și a început o a doua iarnă, mai lungă.
Mulți cercetători au început să se îndoiască de faptul că abordarea simbolică ar fi capabilă să imite toate procesele cogniției umane, în special percepția, robotica, învățarea și recunoașterea modelelor. O serie de cercetători au început să caute abordări „subsimbolice” ale problemelor specifice ale AI. Cercetătorii în robotică, cum ar fi Rodney Brooks, au respins AI simbolică și s-au concentrat pe problemele de bază de inginerie care le-ar permite roboților să se miște, să supraviețuiască și să învețe de la mediul lor. Interesul pentru rețelele neuronale și „conexionism” a fost reînviat de Geoffrey Hinton, David Rumelhart și alții la mijlocul anilor 1980. Instrumentele soft de calcul au fost dezvoltate în anii 80, cum ar fi rețelele neuronale, sistemele fuzzy, teoria sistemului Gray, calculul evolutiv și multe instrumente extrase din statistică sau optimizare matematică.
AI și-a restabilit treptat reputația la sfârșitul anilor 1990 și începutul secolului XXI, găsind soluții specifice la probleme specifice. Accentul restrâns a permis cercetătorilor să producă rezultate verificabile, să exploateze mai multe metode matematice și să colaboreze cu alte domenii (cum ar fi statistica, economia și matematica). Până în 2000, soluțiile dezvoltate de cercetătorii AI erau utilizate pe scară largă, deși în anii 1990 erau rareori descrise drept „inteligență artificială”.
Calculatoare mai rapide, îmbunătățiri algoritmice și acces la cantități mari de date, au permis progrese în învățarea automată și percepție; metodele de învățare profundă avidă de date au început să domine criteriile de referință de acuratețe în jurul anului 2012. Potrivit lui Jack Clark de la Bloomberg, 2015 a fost un an de referință pentru inteligența artificială, numărul proiectelor software care utilizează AI în cadrul Google a crescut de la o „utilizare sporadică” în 2012 la peste 2.700 de proiecte. El atribuie acest lucru unei creșteri a rețelelor neuronale la prețuri accesibile, din cauza creșterii infrastructurii de cloud computing și a creșterii instrumentelor de cercetare și a seturilor de date. Într-un sondaj din 2017, una din cinci companii a raportat că a „încorporat AI în unele oferte sau procese”. Cantitatea de cercetare în domeniul AI (măsurată prin totalul publicațiilor) a crescut cu 50% în anii 2015–2019.
Numeroși cercetători academicieni au devenit îngrijorați de faptul că AI nu mai urmărea obiectivul inițial de a crea mașini versatile, complet inteligente. O mare parte din cercetările actuale implică AI statistică, folosită în mod covârșitor pentru a rezolva probleme specifice, chiar și tehnici de mare succes, cum ar fi învățarea profundă. Această preocupare a condus la subdomeniul inteligență generală artificială (sau „AGI”), care a fost abordată de mai multe instituții bine finanțate până în anii 2010.
Traducere și adaptare din Wikipedia
Lasă un răspuns