În cercetarea inteligenței artificiale (IA), cunoștințele de bun simț constau în fapte despre lumea de zi cu zi, cum ar fi „Lămâile sunt acre” sau „Vacile spun muu”, pe care toți oamenii ar trebui să le cunoască. În prezent aceasta este o problemă nerezolvată în inteligența artificială generală. Primul program IA care a abordat cunoștințele de bun simț a fost Advice Taker în 1959 al lui John McCarthy.[1]
Cunoștințele de bun simț pot sprijini un proces de raționament de bun simț, pentru a încerca inferențe precum „Poți coace o prăjitură pentru că vrei ca oamenii să mănânce prăjitura”. Un proces de procesare a limbajului natural poate fi atașat bazei de cunoștințe de bun simț pentru a permite bazei de cunoștințe să încerce să răspundă la întrebări despre lume.[2] Cunoștințele de bun simț ajută și la rezolvarea problemelor în fața informațiilor incomplete. Folosind credințe larg răspândite despre obiectele de zi cu zi sau cunoștințele de bun simț, sistemele IA fac presupuneri de bun simț sau presupuneri implicite despre necunoscut, similar cu felul în care o fac oamenii. Într-un sistem IA, acest lucru este exprimat ca „În mod normal P este”, „De obicei P” sau „De obicei P, deci presupun P”. De exemplu, dacă știm că „Vrabia este o pasăre”, pentru că cunoaștem credința comună despre păsări, „de obicei păsările zboară”, fără să știm nimic altceva despre vrabie, putem presupune în mod rezonabil faptul că „Vrabia poate zbura.” Pe măsură ce se descoperă sau se învață mai multe cunoștințe despre lume în timp, sistemul IA își poate revizui ipotezele despre vrabie folosind un proces de menținere a adevărului. Dacă mai târziu aflăm că „Vrabia este un pinguin”, atunci menținerea adevărului revizuiește această presupunere, deoarece știm și că „pinguinii nu zboară”.
Raționament de bun simț
Raționamentul de bun simț simulează capacitatea umană de a folosi cunoștințele de bun simț pentru a face presupuneri despre tipul și esența situațiilor obișnuite pe care le întâlnesc în fiecare zi și de a se ”răzgândi” în cazul în care noi informații ies la lumină. Aceasta include timpul, informațiile lipsă sau incomplete și cauza și efectul. Abilitatea de a explica cauza și efectul este un aspect important al IA explicabilă. Algoritmii de menținere a adevărului oferă automat o facilitate de explicație deoarece creează înregistrări elaborate ale prezumțiilor. În comparație cu oamenii, toate programele de calculator existente care încearcă IA la nivel uman au rezultate extrem de slabe la testele de referință moderne de „raționament de bun simț”, cum ar fi Winograd Schema Challenge.[3] Problema dobândirii competenței la nivel uman la sarcinile de „cunoaștere de bun simț” este considerată probabil a fi „IA completă” (adică, rezolvarea acesteia ar necesita capacitatea de a sintetiza o inteligență completă la nivel uman),[4][5], deși unii se opun acestei noțiuni și cred că inteligența plină de compasiune este necesară și pentru IA la nivel uman.[6] Raționamentul de bun simț a fost aplicat cu succes în domenii mai limitate, cum ar fi procesarea limbajului natural[7][8] și diagnosticarea [9] sau analiza automată.[10]
Construcția bazei de cunoștințe de bun simț
Compilarea bazelor de cunoștințe cuprinzătoare ale aserțiilor de bun simț (CSKB) este o provocare de lungă durată în cercetarea IA. Din eforturile timpurii conduse de experți, cum ar fi CYC și WordNet, au fost obținute progrese semnificative prin intermediul proiectului OpenMind Commonsense, care a condus la proiectul participativ ConceptNet KB. Mai multe abordări au încercat să automatizeze construcția CSKB, în special prin extragerea textului (WebChild, Quasimodo, TransOMCS, Ascent), precum și recoltarea acestora direct din modele de limbaj pre-antrenate (AutoTOMIC). Aceste resurse sunt semnificativ mai mari decât ConceptNet, deși construcția automată le face în mare parte de o calitate moderat mai scăzută. De asemenea, provocările rămân în ceea ce privește reprezentarea cunoștințelor de bun simț: Majoritatea proiectelor CSKB urmează un model de date triplu, care nu este neapărat cel mai potrivit pentru a sparge afirmațiile mai complexe ale limbajului natural. O excepție notabilă aici este GenericsKB, care nu aplică o nouă normalizare propozițiilor, dar le păstrează în întregime.
Aplicații
În jurul anului 2013, cercetătorii MIT au dezvoltat BullySpace, o extensie a bazei de cunoștințe de bun simț ConceptNet, pentru a surprinde comentariile batjocoritoare din rețelele sociale. BullySpace a inclus peste 200 de afirmații semantice bazate pe stereotipuri, pentru a ajuta sistemul să deducă faptul că comentariile precum „Pune-ți o perucă și ruj și fii cine ești cu adevărat.” au mai multe șanse să fie o insultă dacă sunt îndreptate către un băiat decât către o fată.[11] ][12][13]
ConceptNet a fost folosit și de chatbot[14] și de computerele care compun ficțiune originală.[15] La Lawrence Livermore National Laboratory, cunoștințele de bun simț au fost folosite într-un agent software inteligent pentru a detecta încălcările unui tratat cuprinzător de interzicere a testelor nucleare.[16]
(Include texte traduse și adaptate din Wikipedia de Nicolae Sfetcu)
Lasă un răspuns