Conștiința joacă un rol important în dezbaterile despre problema minte-corp, controversa privind inteligența artificială (IA) puternică vs. slabă și bioetică. În mod surprinzător, totuși, nu este proeminent în dezbaterile actuale privind aspectele etice ale inteligenței artificiale și roboticii.
Întrebarea dacă mașinile pot avea conștiință nu este nouă, susținătorii inteligenței artificiale puternice (IA puternică) și IA slabă făcând schimb de argumente filozofice pentru o perioadă considerabilă de timp. John R. Searle, deși critic față de IA puternică, a caracterizat IA puternică prin următoarea presupunere:: „…calculatorul programat corespunzător este într-adevăr o minte, în sensul că se poate spune că acele computere cărora li se oferă programele potrivite înțeleg și au stări cognitive” ( Searle, 1980, p. 417). În schimb, IA slabă presupune că mașinile nu au conștiință, minte și simțire, ci doar simulează gândirea și înțelegerea.
Când ne gândim la conștiința artificială, ne confruntăm cu mai multe probleme (Manzotti și Chella, 2018). Cea mai fundamentală, este dificultatea de a explica conștiința, de a explica modul în care subiectivitatea poate apărea din materie – adesea numită „problema grea a conștiinței” (Chalmers, 1996). În plus, înțelegerea noastră asupra conștiinței umane este modelată de propria noastră experiență fenomenală. În timp ce știm despre conștiința umană din perspectiva persoanei întâi, conștiința artificială ne va fi accesibilă doar din perspectiva persoanei a treia. Legat de aceasta este întrebarea cum să știm dacă o mașină are conștiință.
O presupunere de bază pentru conștiința artificială este că aceasta se găsește în lumea fizică a mașinilor și roboților (Manzotti și Chella, 2018). Mai mult, orice definiție a conștiinței artificiale dată de oameni va trebui făcută din perspectiva persoanei a treia, fără a se baza pe conștiința fenomenală.
O strategie este de a evita o definiție restrânsă a conștiinței mașinii sau de a evita complet o definiție. Un exemplu al acestei strategii este dat de David Levy (Levy, 2009, p. 210) care preferă să aibă o viziune pragmatică, conform căreia este suficient să avem un acord general asupra a ceea ce înțelegem prin conștiință și sugerează „să folosim pur și simplu cuvântul și să continuăm cu el.”
Alți autori se concentrează pe conștientizarea de sine. În ceea ce privește roboții conștienți de sine, Chatila și colab. (2018, p. 1) consideră relevante: „… principiile și metodele de bază care le-ar permite roboților să-și înțeleagă mediul, să fie conștienți de ceea ce fac, să ia inițiative adecvate și oportune, să învețe din propria experiență și să arate că știu că au învățat și cum.” În contrast, Kinouchi și Mackin se concentrează pe adaptarea la nivel de sistem (Kinouchi și Mackin, 2018, p. 1), „Conștiința este privită ca o funcție pentru adaptarea eficientă la nivel de sistem, bazată pe potrivirea și organizarea rezultatelor individuale. a unităților de procesare paralelă subiacente. Se presupune că această conștiință corespunde modului în care mintea noastră este „conștientă” atunci când luăm decizii în fiecare moment în viața noastră de zi cu zi.
Pentru a rezolva întrebările specifice conștiinței artificiale, este util să luăm în considerare reflecția filozofică în jurul conștiinței, care se concentrează pe conștiința umană (și animală). Există multe concepte de conștiință. În mod normal, distingem între (a) o entitate conștientă, adică o entitate care este simțitoare, trează, care are conștiință de sine și experiențe calitative subiective, (b) a fi conștientă de ceva, de exemplu un trandafir și (c) mentală conștientă. stări, adică stări mentale în care o entitate este conștientă de a se afla, cum ar fi a fi conștientă de a mirosi un trandafir (Van Gulick, 2018; Gennaro, 2019).
Pentru discuția despre conștiința artificială, distincția lui Ned Block între conștiința fenomenală și conștiința de acces se dovedește a fi deosebit de utilă (Block, 1995). În timp ce conștiința fenomenală se referă la experiență, la cum este să fii într-o stare mentală conștientă, conștiința de acces se referă la disponibilitatea unei stări mentale pentru utilizare de către organism, de exemplu în raționament și îndrumarea comportamentului, și descrie modul în care o stare mentală are legătură cu alte stări mentale. Dezbaterea asupra conștiinței artificiale ar beneficia în mod clar de concentrarea asupra conștiinței de acces.
Dehaene și colab. (2017) disting două dimensiuni esențiale ale calculului conștient: disponibilitatea globală (C1) și auto-monitorizarea (C2). Disponibilitatea globală, pe care o caracterizează ca informație disponibilă la nivel global pentru organism, seamănă cu conștiința de acces a lui Ned Block (Block, 1995). Automonitorizarea (C2), pe care o consideră corespunzând introspecției, „se referă la o relație autoreferențială în care sistemul cognitiv este capabil să-și monitorizeze propria procesare și să obțină informații despre sine” (pp. 486–487).
După cum arată exemplele de abordări de definire a conștiinței artificiale prezentate mai sus, diferiți autori subliniază diferite aspecte. În mod clar, este loc pentru mai multă reflecție și cercetare cu privire la cum ar putea arăta definițiile la persoana a treia ale conștiinței artificiale.
Referințe
- Searle, J. R. (1980). Minds, brains and programs. Behav. Brain Sci. 3, 417–424. doi: 10.1017/S0140525X00005756
- Manzotti, R., and Chella, A. (2018). Good old-fashioned artificial consciousness and the intermediate level fallacy. Front. Robot. A. I. 5:39. doi: 10.3389/frobt.2018.00039
- Chalmers, D. J. (1996). The Conscious Mind: In Search of a Fundamental Theory (New York, NY: Oxford University Press).
- Levy, D. (2009). The ethical treatment of artificially conscious robots. Int. J. Soc. Robot. 1, 209–216. doi: 10.1007/s12369-009-0022-6
- Chatila, R., Renaudo, E., Andries, M., Chavez-Garcia, R.-O., Luce-Vayrac, P., Gottstein, R., et al. (2018). Toward self-aware robots. Front. Robot. 5:88. doi: 10.3389/frobt.2018.00088
- Kinouchi, Y., and Mackin, K. J. (2018). A basic architecture of an autonomous adaptive system with conscious-like function for a humanoid robot. Front. Robot. 5:30. doi: 10.3389/frobt.2018.00030
- Van Gulick, R. (2018). “Consciousness,” in The Stanford Encyclopedia of Philosophy, ed E. N. Zalta. Available online at: https://plato.stanford.edu/entries/consciousness/
- Gennaro, R. J. (2019). Consciousness, The Internet Encyclopedia of Philosophy, ISSN 2161-0002. Available online at: https://www.iep.utm.edu/consciou/
- Block, N. (1995). On a confusion about the function of consciousness, behavioral and brain. Sciences 18, 227–247. doi: 10.1017/S0140525X00038188
- Dehaene, S., Lau, H., and Kouider, S. (2017). What is consciousness, and could machines have it? Science 358, 486–492. doi: 10.1126/science.aan8871
- Dehaene, S., Lau, H., and Kouider, S. (2017). What is consciousness, and could machines have it? Science 358, 486–492. doi: 10.1126/science.aan8871
Sursa: Hildt E (2019) Artificial Intelligence: Does Consciousness Matter? Front. Psychol. 10:1535. doi: 10.3389/fpsyg.2019.01535, licența CC BY 4.0. Traducere și adaptare Nicolae Sfetcu
ion adrian
PS: IA este felul in care au progresat PROGRAMELE EXPERT desvoltate mai intai pentru o cat mai buna diagnoza in medicina sau in descoperirea de zacamin cu ajutorul observatiilor satelitilor. . AZi cred ca multe articole din Wiki sunt facute cu ajutorul IA foarte indicata la asa ceva dar totusi sub control uman .Nu-i asa? 🙂
ion adrian
Raspuns: Niciodata!
PS: Dar tuturor CRACIUN FERICIT!