Inteligența artificială (AI) a câștigat tracțiune în ultimii ani, facilitând luarea deciziilor inteligente și automate în cadrul scenariilor de implementare și a zonelor de aplicare. Asistăm la o convergență a diferitelor tehnologii (de exemplu, Internetul obiectelor, robotică, tehnologii cu senzori etc.) și o cantitate și o varietate în creștere de date, precum și la caracteristicile lor noi (de exemplu, date distribuite) pentru a utiliza AI la scară. În contextul securității cibernetice, AI poate fi văzută ca o abordare emergentă și, în consecință, tehnicile AI au fost utilizate pentru a sprijini și automatiza operațiunile relevante, de ex. filtrarea traficului, analiza criminalistică automatizată etc. Deși este, fără îndoială, benefică, nu ar trebui să ocolim faptul că AI și aplicarea acesteia pentru, de exemplu, luarea automată a deciziilor — în special în implementări critice pentru siguranță, cum ar fi vehiculele autonome, producția inteligentă, eHealth etc.— poate expune indivizii și organizațiile la riscuri noi și uneori imprevizibile, și poate deschide noi căi în metodele și tehnicile de atac, precum și crearea de noi provocări în materie de protecție a datelor.
Inteligența artificială influențează din ce în ce mai mult viața de zi cu zi a oamenilor și joacă un rol cheie în transformarea digitală prin capacitățile sale automate de luare a deciziilor. Beneficiile acestei tehnologii emergente sunt semnificative, dar la fel sunt și preocupările. Prin urmare, este necesar să evidențiem rolul securității cibernetice în stabilirea fiabilității și implementării unei AI de încredere.
Când luăm în considerare securitatea în contextul AI, trebuie să fim conștienți de faptul că tehnicile și sistemele AI pot duce la rezultate neașteptate și pot fi modificate pentru a manipula rezultatele așteptate. Acesta este cazul în special atunci când se dezvoltă software AI care se bazează adesea pe modele de cutie neagră complet (2) sau poate fi chiar folosită cu intenții rău intenționate, de ex. AI ca mijloc de a spori criminalitatea cibernetică și de a facilita atacurile adversarilor rău intenționați. Prin urmare, este esențial să se securizeze AI în sine. În special, este important:
- să se înțeleagă ce trebuie securizat (activele care sunt supuse amenințărilor specifice AI și modelelor adverse);
- să se înțeleagă modelele aferente de guvernare a datelor (inclusiv proiectarea, evaluarea și protejarea datelor și procesul de instruire a sistemelor AI);
- să se gestioneze amenințările într-un ecosistem multipartid într-un mod cuprinzător, utilizând modele și taxonomii comune;
- să se dezvolte controale specifice pentru a se asigura că AI în sine este sigură.
Inteligența artificială și securitatea cibernetică au o relație multidimensională și o serie de interdependențe. Dimensiunile care pot fi identificate includ următoarele trei:
- Securitate cibernetică pentru AI: lipsa de robustețe și vulnerabilitățile modelelor și algoritmilor AI, de ex. Inferența și manipularea modelelor adverse, atacurile împotriva sistemelor ciberfizice alimentate de AI, manipularea datelor utilizate în sistemele AI, exploatarea infrastructurii de calcul utilizate pentru a alimenta funcționalitățile sistemelor AI, otrăvirea datelor, variații de mediu care provoacă variații în natura intrinsecă a datelor (3), seturi de date de antrenament credibile și de încredere, validare/verificare algoritmică (inclusiv integritatea lanțului de aprovizionare cu software), validarea proceselor de instruire și evaluare a performanței, identificarea credibilă și fiabilă a caracteristicilor, protecția datelor/confidențialitatea în contextul sistemelor AI etc.
- AI pentru a sprijini securitatea cibernetică: AI utilizată ca instrument/mijloc pentru a crea securitate cibernetică avansată prin dezvoltarea unor controale de securitate mai eficiente (de exemplu, firewall-uri active, antivirus inteligent, operațiuni automate CTI (cyber threat intelligence), AI fuzzing, criminalistică inteligentă, scanare e-mail, sandboxing adaptiv, analiză automată de malware, apărare cibernetică automatizată etc.) și pentru a facilita eforturile forțelor de ordine și ale altor autorități publice pentru a răspunde mai bine la criminalitatea informatică, inclusiv analiza creșterii exponențiale a Big Data în contextul investigațiilor, ca și utilizarea abuzivă criminală a AI.
- Utilizarea rău intenționată a AI: utilizarea rău intenționată/adversă a AI pentru a crea tipuri mai sofisticate de atacuri, de ex. malware bazat pe inteligență artificială, inginerie socială avansată, exploatare de conturi de rețele sociale false bazate pe inteligență artificială, atacuri DDoS intensificate cu inteligență artificială, modele generative profunde pentru a crea date false, spargerea parolelor susținută de inteligență artificială etc. Această categorie include atât atacuri vizate de inteligență artificială (concentrate pe subminarea sistemelor AI existente pentru a-și modifica capacitățile), precum și atacurile susținute de AI (cele care includ tehnici bazate pe AI care vizează îmbunătățirea eficacității atacurilor tradiționale).
Securitatea cibernetică poate fi unul dintre fundamentele soluțiilor de inteligență artificială de încredere. Va servi drept o rampă de lansare pentru desfășurarea securizată pe scară largă a IA în întreaga UE. Cu toate acestea, va face acest lucru numai atunci când înțelegerea comună a peisajului amenințărilor relevante și a provocărilor asociate sunt mapate într-o manieră consecventă. Peisajul amenințărilor AI este vast și dinamic, deoarece evoluează alături de inovațiile observate în domeniul AI și de integrarea continuă a numeroase alte tehnologii.
Note
(2) Evident, modelele de cutie albă sunt, de asemenea, susceptibile la atacuri cibernetice, deoarece adversarii au informații la scară largă pentru a adapta atacurile.
(3) Aceasta se referă atât la atacurile fizice asupra sistemelor AI, cât și la robustețea sistemelor AI împotriva variațiilor și evenimentelor care apar în mod natural.
Sursa: ENISA, AI Cybersecurity Challenges – Threat Landscape for Artificial Intelligence, December 2020. Editora: Apostolos Malatras, Georgia Dede – European Union Agency for Cybersecurity. © European Union Agency for Cybersecurity (ENISA), 2020. Traducere și adaptare independentă: Nicolae Sfetcu
© 2021 MultiMedia Publishing, Introducere în inteligența artificială
Lasă un răspuns