Home » Articole » Articole » Calculatoare » Inteligența artificială » Singularitatea tehnologică

Singularitatea tehnologică

Robots

Singularitatea tehnologică – sau pur și simplu singularitatea – este un moment viitor ipotetic în timp în care creșterea tehnologică devine incontrolabilă și ireversibilă, rezultând schimbări imprevizibile ale civilizației umane. Potrivit celei mai populare versiuni a ipotezei singularității, modelul de explozie a inteligenței al lui I.J. Good, un agent inteligent actualizabil va intra în cele din urmă într-o „reacție fugitivă” de cicluri de auto-îmbunătățire, fiecare generație nouă și mai inteligentă apărând din ce în ce mai rapid, provocând o „explozie” a inteligenței și rezultând o superinteligență puternică care calitativ depășește cu mult orice inteligență umană.

Prima persoană care a folosit conceptul de „singularitate” în contextul tehnologic a fost matematicianul maghiar-american din secolul al XX-lea John von Neumann. Stanislaw Ulam relatează în 1958 o discuție anterioară cu von Neumann „centrată pe progresul accelerat al tehnologiei și pe schimbările în modul de viață uman, ceea ce dă aparența abordării unei singularități esențiale în istoria rasei dincolo de care treburile umane, așa cum le cunoaștem, nu vor putea continua”. Autorii ulteriori au făcut ecou acest punct de vedere.

Conceptul și termenul „singularitate” au fost popularizate de Vernor Vinge pentru prima dată în 1983 într-un articol care susținea că odată ce oamenii își vor crea inteligențe mai mari decât ale lor, va exista o tranziție tehnologică și socială similară într-un anumit sens cu „spațiu-timpul din centrul unei găuri negre”, și mai târziu în eseul său din 1993 The Coming Technological Singularity, în care scria că aceasta va semnala sfârșitul erei umane, deoarece noua superinteligență va continua. să se modernizeze și ar avansa tehnologic într-un ritm de nedescris. El a scris că ar fi surprins dacă ar avea loc înainte de 2005 sau după 2030. Un alt contributor semnificativ la circulația mai largă a noțiunii a fost cartea lui Ray Kurzweil din 2005, The Singularity Is Near, care prezice singularitatea până în 2045.

Unii oameni de știință, inclusiv Stephen Hawking, și-au exprimat îngrijorarea că superinteligența artificială (SIA) ar putea duce la dispariția umană. Consecințele singularității și potențialul beneficiu sau dezastru asupra rasei umane au fost intens dezbătute.

Tehnologi și academicieni proeminenți contestă plauzibilitatea unei singularități tehnologice și a exploziei inteligenței artificiale asociate, inclusiv Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier, Steven Pinker Theodore Modis și Gordon Moore. O afirmație făcută a fost că creșterea inteligenței artificiale este probabil să se întâmple cu profituri descrescătoare în loc de accelerate, așa cum sa observat în tehnologiile umane dezvoltate anterior.

(Include texte traduse și adaptate din Wikipedia de Nicolae Sfetcu)

Introducere în inteligența artificială
Introducere în inteligența artificială

Inteligența artificială s-a dezvoltat exploziv în ultimii ani, facilitând luarea deciziilor inteligente și automate în cadrul scenariilor de implementare. Inteligența artificială se referă la un ecosistem de modele și tehnologii pentru percepție, raționament, interacțiune și învățare.  Asistăm la o convergență … Citeşte mai mult

Nu a fost votat 13.71 lei24.03 lei Selectează opțiunile Acest produs are mai multe variații. Opțiunile pot fi alese în pagina produsului.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *