Semnificația și impactul inteligenței artificiale în societatea de astăzi sunt departe de a fi supraevaluate (64). Ea pătrunde în fiecare aspect al vieții noastre de zi cu zi și, prin urmare, este de o importanță capitală să asigurăm securitatea cibernetică a AI pentru a ne asigura că AI și setul de tehnologii asociate vor fi de încredere, fiabile și robuste.
Stabilirea unei linii de bază pentru o înțelegere comună a amenințărilor relevante pentru securitatea cibernetică AI, cum ar fi peisajul de amenințări, va fi esențială pentru implementarea și acceptarea pe scară largă a sistemelor și aplicațiilor AI. Peisajul amenințărilor AI evidențiază o serie de provocări de securitate cibernetică în jurul complexității, problemelor tehnice, integrității, confidențialității și intimității. Trecerea către o transformare digitală sigură înseamnă pași diferiți pentru diferiți actori. În consecință, ar trebui dezvoltat un set de instrumente AI cu măsuri concrete de atenuare a amenințărilor AI identificate în peisaj pe baza evaluărilor de risc.
Întrucât amenințările la adresa sistemelor AI pot fi văzute dintr-un punct de vedere orizontal, se aplică tuturor sistemelor/aplicațiilor AI (pe baza configurației lor și a tehnicilor utilizate), evaluările specifice ale riscurilor sistemelor AI trebuie să ia în considerare contextul de utilizare. Diferite sectoare prezintă grade diferite de risc care trebuie evaluate și, în consecință, trebuie puse în aplicare diferite măsuri de securitate și controale. Acestea fiind spuse, introducerea metodelor/metodologiilor orizontale și a celor mai bune practici ar putea fi utilă pentru stabilirea unei linii de bază comune și, astfel, promovarea unui nivel comun de securitate cibernetică și încredere între sectoare. O astfel de abordare orizontală ar trebui să se bazeze pe peisajul amenințărilor AI, care este, de asemenea, agnostic sectorial, și să se introducă controale și practici de securitate conform setului de instrumente AI, pentru a promova terminologia la nivelul UE, înțelegerea și atenuarea amenințărilor relevante.
În plus, peisajul amenințărilor AI a subliniat necesitatea de a dezvolta măsuri de control pentru o varietate de amenințări la adresa AI și a subliniat faptul că mai sunt necesare cercetări pentru a promova mai bine sisteme și soluții robuste. Aceasta include activitatea de previziune a organelor de aplicare a legii, care ar trebui să evalueze și să prezică în mod proactiv utilizarea abuzivă a inteligenței artificiale pentru a îmbunătăți pregătirea, cum ar fi raportul Europol, TrendMicro și UNICRI privind „Utilizările rău intenționate și abuzurile inteligenței artificiale” (65).
În plus, ar trebui întreprinsă o mapare a decalajelor în direcțiile viitoare de cercetare în contextul AI și al securității cibernetice pentru a avea o mai mare previziune cu privire la viitorul tehnologiei emergente și a interacțiunii dintre securitatea cibernetică și AI. Din peisajul amenințărilor reiese că trebuie să se lucreze în domeniul verificării și validării formale automate, al explicabilității și transparenței, tehnici noi de securitate pentru a contracara amenințările AI emergente, pentru a numi câteva. Sunt necesare activități de cercetare în diverse domenii în vederea dezvoltării de algoritmi, sisteme și soluții de încredere în inteligență artificială care să îmbunătățească operațiunile industriale și de securitate și competitivitatea piețelor UE prin dezvoltarea mărcii „AI made in Europe” ca un sigiliu de calitate pentru etica, siguranța și ultimă generație. AI care poate deveni o referință la nivel mondial.
Avantajele pe care tehnologiile AI le aduc digitalizării societăților noastre sunt numeroase. AI poate sprijini operațiunile de securitate cibernetică și criminalitate cibernetică cu tehnici care pot fi utilizate pentru a crește/automatiza operațiunile de securitate cibernetică, cum ar fi firewall-uri inteligente. În plus, este esențial să se securizeze diversele active ale ecosistemului și ale ciclului de viață AI, active care rezidă în lanțuri de aprovizionare complexe și implică relații transfrontaliere și interindustriale. Securitatea și integritatea lanțului de aprovizionare cu inteligență artificială este, așadar, de o importanță capitală.
În acest sens, importanța valorificării parteneriatelor public-privat și a încurajării înființării de grupuri multidisciplinare de experți în securitate cibernetică AI, cum ar fi Grupul de lucru ad hoc ENISA pentru securitatea cibernetică AI, sunt ambele esențiale. În plus, lucrări precum cea desfășurată în contextul ETSI ISG SAI sunt extrem de importante, deoarece securitatea AI nu a fost până în prezent studiată pe scară largă în contextul standardizării.
Complexitatea și vastitatea peisajului amenințărilor pentru securitatea cibernetică AI necesită încurajarea unui ecosistem al UE pentru AI sigur și de încredere, inclusiv toate elementele lanțului de aprovizionare AI. Aceasta este o cursă care are o importanță deosebită pentru UE, având în vedere obiectivele strategice pe termen lung privind AI. Ecosistemul AI securizat al UE ar trebui să plaseze securitatea cibernetică și protecția datelor pe primul plan și să încurajeze inovarea relevantă, consolidarea capacităților, creșterea gradului de conștientizare și inițiativele de cercetare și dezvoltare.
Note
(64) Mai mult, impactul AI nu poate fi anticipat în totalitate, ceea ce ne-a pus în situația, poate, de a rescrie toate regulile pe care le-am folosit până acum.
(65) A se vedea https://www.europol.europa.eu/newsroom/news/new-report-finds-criminals-leverage-ai-for-malicious-use-%E2%80%93-and-it%E2%80%99s-not-just-deep-fakes
Sursa: ENISA, AI Cybersecurity Challenges – Threat Landscape for Artificial Intelligence, December 2020. Editora: Apostolos Malatras, Georgia Dede – European Union Agency for Cybersecurity. © European Union Agency for Cybersecurity (ENISA), 2020. Traducere și adaptare independentă: Nicolae Sfetcu
© 2021 MultiMedia Publishing, Introducere în inteligența artificială
Lasă un răspuns