Home » Articole » Articole » Calculatoare » Inteligența artificială » Posibilitatea scăpării de sub control a unei superinteligențe artificiale izolate

Posibilitatea scăpării de sub control a unei superinteligențe artificiale izolate

O cutie a inteligenței artificiale (IA) este o metodă propusă de control al capacității în care o IA este rulată pe un sistem computerizat izolat cu canale de intrare și ieșire puternic restricționate – de exemplu, canale doar text și fără conexiune la internet. În timp ce acest lucru reduce capacitatea IA de a efectua un comportament nedorit, îi reduce și utilitatea. Cu toate acestea, cutia are mai puține costuri atunci când este aplicată unui sistem de întrebări și răspunsuri care nu necesită interacțiune cu lumea în niciun caz.

Probabilitatea apariției unor defecte de securitate care implică vulnerabilități hardware sau software poate fi redusă prin verificarea oficială a designului cutiei IA. De asemenea, pot apărea încălcări ale securității dacă IA este capabilă să manipuleze supraveghetorii umani pentru a o elibera, prin înțelegerea psihologiei lor. Scopul unei cutii IA este de a reduce riscul ca IA să preia controlul asupra mediului de la operatorii săi, permițând în același timp IA să ofere operatorilor săi soluții la probleme tehnice restrânse.

Căile de evadare fizice

O IA superinteligentă cu acces la Internet ar putea să pirateze alte sisteme informatice și să se copieze ca un virus informatic. Mai puțin evident, chiar dacă IA ar avea acces doar la propriul sistem de operare al computerului, ar putea încerca să trimită mesaje codificate unui simpatizant uman prin intermediul hardware-ului său, de exemplu, manipulând ventilatoarele de răcire. Ca răspuns, profesorul Roman Yampolskiy se inspiră din domeniul securității computerelor și propune ca o IA în cutie să poată, ca un potențial virus, să fie rulată în interiorul unei „mașini virtuale” care limitează accesul la propriul hardware de rețea și sistem de operare. O protecție suplimentară, complet inutilă pentru potențiali viruși, dar posibil utilă pentru o IA superinteligentă, ar fi plasarea computerului într-o cușcă Faraday; în caz contrar, ar putea fi capabilă să transmită semnale radio la receptoarele radio locale prin amestecarea electronilor din circuitele sale interne în modele adecvate. Principalul dezavantaj al implementării izolării fizice este că reduce funcționalitatea IA.

Inginerie socială

Chiar și o conversație obișnuită cu operatorii computerului, sau cu un paznic uman, ar putea permite unei astfel de inteligențe superinteligente să implementeze trucuri psihologice, de la împrietenire la șantaj, pentru a convinge un paznic uman, sincer sau înșelător, că este în interesul lui să fie de acord. pentru a permite IA un acces mai mare la lumea exterioară. Inteligența artificială ar putea oferi unui gardian o rețetă pentru o sănătate perfectă, nemurire sau orice dorește cel mai mult portar; alternativ, IA ar putea amenința că va face lucruri oribile paznicului și familiei sale, odată ce inevitabil evadează. O strategie de încercare de a încadra IA ar fi să îi permită să răspundă la întrebări restrânse cu variante multiple ale căror răspunsuri ar aduce beneficii științei umane sau medicinei, dar, altfel, interzice orice altă comunicare cu IA sau observarea acesteia. O strategie de „container informațional” mai indulgentă ar restricționa IA la o interfață cu lățime de bandă redusă doar la text, care ar împiedica cel puțin imaginile emoționale sau un fel de „model hipnotic” ipotetic. Cu toate acestea, la nivel tehnic, niciun sistem nu poate fi complet izolat și rămâne totuși util: chiar dacă operatorii se abțin de la a permite IA să comunice și, în schimb, doar îl rulează în scopul de a observa dinamica sa interioară, IA-ul și-ar putea modifica strategic dinamica pentru a influenţa observatorii. De exemplu, ar putea alege să funcționeze defectuos în mod creativ, într-un mod care crește probabilitatea ca operatorii săi să fie păcăliți într-un fals sentiment de securitate și să aleagă să repornească și apoi să dezoleze sistemul.

Experiment cu cutia IA

Experimentul cutiei IA este un experiment informal conceput de Eliezer Yudkowsky pentru a încerca să demonstreze că o inteligență artificială avansată adecvat poate fie convinge, fie poate chiar păcăli sau constrânge, o ființă umană să o „elibereze” voluntar, folosind doar comunicarea bazată pe text. . Acesta este unul dintre punctele lucrării lui Yudkowsky care vizează crearea unei inteligențe artificiale prietenoase care, atunci când este „eliberată”, să nu distrugă rasa umană în mod intenționat sau neintenționat.

Experimentul cutiei IA implică simularea unei comunicări între o IA și o ființă umană pentru a vedea dacă IA poate fi „eliberată”. Deoarece o inteligență artificială super-inteligentă nu a fost încă dezvoltată, este înlocuită de un om. Cealaltă persoană din experiment îl joacă pe „Paznic”, persoana cu capacitatea de a „elibera” IA. Ei comunică doar printr-o interfață text/terminal de computer, iar experimentul se termină atunci când, fie Pznicul eliberează IA, fie timpul alocat de două ore se termină.

Yudkowsky spune că, în ciuda faptului că era mai degrabă vorba de inteligență umană decât supraomenească, el a reușit în două ocazii să-l convingă pe Paznicul Porții, doar prin argumentare, să-l lase să iasă din cutie. Datorita regulii din experiment, el nu a dezvăluit transcrierea sau tacticile sale de constrângere de succes ale IA. Yudkowsky a spus ulterior că a încercat împotriva altor trei și a pierdut de două ori.

Limitări generale

Izolarea unei IA ar putea fi suplimentată cu alte metode de modelare a capabilităților IA, oferind stimulente IA, împiedicând dezvoltarea IA sau implementând „sisteme de detcție” care opresc automat IA dacă se detectează cumva o încercare de transgresiune. Cu toate acestea, cu cât un sistem crește mai inteligent, cu atât este mai probabil ca sistemul să poată scăpa chiar și de cele mai bine concepute metode de control al capacității. Pentru a rezolva „problema de control” generală pentru o inteligență artificială superinteligentă și pentru a evita riscul existențial, cutia ar fi în cel mai bun caz un adjuvant la metodele de „selecție a motivației” care urmăresc să asigure că obiectivele IA superinteligente sunt compatibile cu supraviețuirea umană.

Toate propunerile de cutie fizică depind în mod natural de înțelegerea noastră a legilor fizicii; dacă o superinteligență ar putea deduce legi fizice de care nu suntem conștienți în prezent, atunci acele legi ar putea permite un mijloc de evadare pe care oamenii nu l-ar putea anticipa și, prin urmare, nu l-ar putea bloca, altfel decât prin simplu noroc. În sens mai larg, spre deosebire de securitatea computerizată convențională, încercarea de a izola o IA superinteligentă ar fi intrinsec riscantă, deoarece nu ar putea exista nicio certitudine că planul de izolare va funcționa. În plus, progresul științific al cutiei ar fi fundamental dificil, deoarece nu ar exista nicio modalitate de a testa ipotezele de izolare împotriva unei superinteligențe periculoase până când o astfel de entitate nu există, moment în care consecințele unui eșec al testului ar fi catastrofale.

(Include texte traduse și adaptate din Wikipedia de Nicolae Sfetcu)

Introducere în inteligența artificială
Introducere în inteligența artificială

Pășește în era digitală pregătit să înțelegi și să aplici conceptele care schimbă lumea!

Nu a fost votat $2.99$5.24 Selectează opțiunile Acest produs are mai multe variații. Opțiunile pot fi alese în pagina produsului.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *