Singularitatea tehnologică – sau pur și simplu singularitatea – este un moment viitor ipotetic în timp în care creșterea tehnologică devine incontrolabilă și ireversibilă, rezultând schimbări imprevizibile ale civilizației umane. Potrivit celei mai populare versiuni a ipotezei singularității, modelul de explozie a inteligenței al lui I.J. Good, un agent inteligent actualizabil va intra în cele din urmă într-o „reacție fugitivă” de cicluri de auto-îmbunătățire, fiecare generație nouă și mai inteligentă apărând din ce în ce mai rapid, provocând o „explozie” a inteligenței și rezultând o superinteligență puternică care calitativ depășește cu mult orice inteligență umană.
Prima persoană care a folosit conceptul de „singularitate” în contextul tehnologic a fost matematicianul maghiar-american din secolul al XX-lea John von Neumann. Stanislaw Ulam relatează în 1958 o discuție anterioară cu von Neumann „centrată pe progresul accelerat al tehnologiei și pe schimbările în modul de viață uman, ceea ce dă aparența abordării unei singularități esențiale în istoria rasei dincolo de care treburile umane, așa cum le cunoaștem, nu vor putea continua”. Autorii ulteriori au făcut ecou acest punct de vedere.
Conceptul și termenul „singularitate” au fost popularizate de Vernor Vinge pentru prima dată în 1983 într-un articol care susținea că odată ce oamenii își vor crea inteligențe mai mari decât ale lor, va exista o tranziție tehnologică și socială similară într-un anumit sens cu „spațiu-timpul din centrul unei găuri negre”, și mai târziu în eseul său din 1993 The Coming Technological Singularity, în care scria că aceasta va semnala sfârșitul erei umane, deoarece noua superinteligență va continua. să se modernizeze și ar avansa tehnologic într-un ritm de nedescris. El a scris că ar fi surprins dacă ar avea loc înainte de 2005 sau după 2030. Un alt contributor semnificativ la circulația mai largă a noțiunii a fost cartea lui Ray Kurzweil din 2005, The Singularity Is Near, care prezice singularitatea până în 2045.
Unii oameni de știință, inclusiv Stephen Hawking, și-au exprimat îngrijorarea că superinteligența artificială (SIA) ar putea duce la dispariția umană. Consecințele singularității și potențialul beneficiu sau dezastru asupra rasei umane au fost intens dezbătute.
Tehnologi și academicieni proeminenți contestă plauzibilitatea unei singularități tehnologice și a exploziei inteligenței artificiale asociate, inclusiv Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier, Steven Pinker Theodore Modis și Gordon Moore. O afirmație făcută a fost că creșterea inteligenței artificiale este probabil să se întâmple cu profituri descrescătoare în loc de accelerate, așa cum sa observat în tehnologiile umane dezvoltate anterior.
(Include texte traduse și adaptate din Wikipedia de Nicolae Sfetcu)
Lasă un răspuns