Inteligența artificială (AI) permite luarea automată a deciziilor și facilitează multe aspecte ale vieții de zi cu zi, aducând cu ea îmbunătățiri ale operațiunilor și numeroase alte beneficii. Cu toate acestea, sistemele AI se confruntă cu numeroase amenințări la adresa securității cibernetice, și AI în sine trebuie să fie securizat, deoarece au fost deja raportate cazuri de atacuri rău intenționate, de ex. Tehnicile AI și sistemele bazate pe AI pot duce la rezultate neașteptate și pot fi modificate pentru a manipula rezultatele așteptate (51) (52) (53). Prin urmare, este esențial să înțelegem peisajul amenințărilor AI și să existe o bază comună și unificatoare pentru înțelegerea potențialului amenințărilor și, în consecință, pentru a realiza evaluări specifice ale riscurilor. Acestea din urmă vor sprijini implementarea unor măsuri și controale de securitate direcționate și proporționale pentru a contracara amenințările legate de AI.
4.1 Actorii de amenințare
Există diferite grupuri de actori ai amenințărilor care ar putea dori să atace sistemele AI folosind mijloace cibernetice (54).
Infractorii cibernetici sunt motivați în primul rând de profit. Infractorii cibernetici vor avea tendința de a utiliza AI ca instrument pentru a conduce atacuri, dar și pentru a exploata vulnerabilitățile sistemelor AI existente (55). De exemplu, ar putea încerca să pirateze chatbot-uri activate cu AI pentru a fura cardul de credit sau alte date. Alternativ, aceștia pot lansa un atac ransomware împotriva sistemelor bazate pe inteligență artificială utilizate pentru gestionarea lanțului de aprovizionare și depozitare.
Personalul companiei, inclusiv angajații și contractanții care au acces la rețelele unei organizații, pot implica fie pe cei care au intenții rău intenționate, fie pe cei care pot dăuna companiei în mod neintenționat. De exemplu, persoanele din interior rău intenționate ar putea încerca să fure sau să saboteze setul de date utilizat de sistemele AI ale companiei. În schimb, persoanele care nu sunt rău intenționate pot corupe accidental un astfel de set de date.
Actorii de stat național și alți atacatori sponsorizați de stat sunt, în general, avansați. Pe lângă dezvoltarea modalităților de a folosi sistemele AI pentru a ataca alte țări (inclusiv industriile și infrastructurile critice), precum și utilizarea sistemelor AI pentru a-și apăra propriile rețele, actorii din statele naționale caută în mod activ vulnerabilități în sistemele AI pe care le pot exploata. Acest lucru ar putea fi un mijloc de a provoca prejudicii unei alte țări sau ca un mijloc de colectare de informații.
Alți actori de amenințare includ teroriștii, care încearcă să provoace daune fizice sau chiar pierderi de vieți. De exemplu, teroriștii pot dori să spargă mașini fără șofer pentru a le folosi ca armă.
Hacktiviștii, care au tendința de a fi în mare parte motivați ideologic, pot încerca, de asemenea, să pirateze sistemele AI pentru a arăta că se poate face. Există un număr tot mai mare de grupuri preocupate de potențialele pericole ale AI și nu este de neconceput că ar putea pirata un sistem AI pentru a obține publicitate. Există, de asemenea, actori de amenințări nesofisticați, cum ar fi hackerii amatori (haxori), care pot fi motivați penal sau ideologic. Aceștia sunt, în general, persoane necalificate care folosesc scripturi sau programe pre-scrise pentru a ataca sistemele, deoarece le lipsește expertiza necesară pentru a le scrie pe ale lor. Dincolo de actorii tradiționali ai amenințărilor discutați mai sus, devine din ce în ce mai necesar să se includă și concurenții ca actori ai amenințărilor, deoarece unele companii au din ce în ce mai mult intenția de a-și ataca rivalii pentru a câștiga cotă de piață. (56)
Note
(51) A se vedea https://www.idgconnect.com/news/1506124/deepfakes-ai-deceives, septembrie 2020
(52) A se vedea https://thenewstack.io/camouflaged-graffiti-road-signs-can-fool-machine-learning-models/, septembrie 2017
(53) A se vedea https://www.media.mit.edu/publications/adversarial-attacks-on-medical-machine-learning/, martie 2019
(54) Având în vedere natura largă a sistemelor AI și implementarea lor în diverse sectoare, listarea este generică și nu implică o clasare a probabilității ca un actor de amenințare să atace sistemele AI.
(55) Pe măsură ce AI-as-a-service câștigă teren, astfel de sisteme vor fi din ce în ce mai disponibile pentru actorii care nu se pricep la tehnică.
(56) Vezi, Sailio, M.; Latvala, O.-M.; Szanto, A. Cyber Threat Actors for the Factory of the Future. Appl. Sci. 2020, 10, 4334 https://www.mdpi.com/2076-3417/10/12/4334/htm
Sursa: ENISA, AI Cybersecurity Challenges – Threat Landscape for Artificial Intelligence, December 2020. Editora: Apostolos Malatras, Georgia Dede – European Union Agency for Cybersecurity. © European Union Agency for Cybersecurity (ENISA), 2020. Traducere și adaptare independentă: Nicolae Sfetcu
© 2021 MultiMedia Publishing, Introducere în inteligența artificială
Lasă un răspuns