Home » Articole » Articole » Afaceri » Știința datelor (Data Science) » Inteligența artificială » Taxonomia amenințărilor în inteligența artificială

Taxonomia amenințărilor în inteligența artificială

Lista de mai jos prezintă o listă de clasificare la nivel înalt a amenințărilor bazată pe taxonomia amenințărilor ENISA (62), care a fost utilizată pentru a mapa peisajul amenințărilor AI.

  • Activitate/abuz nefast (NAA): „acțiuni intenționate care vizează sistemele TIC, infrastructura și rețelele prin intermediul actelor rău intenționate cu scopul de a fura, de a modifica sau de a distruge o țintă specificată”.
  • Ascultare/Interceptare/Deturnare (EIH): „acțiuni care vizează ascultarea, întreruperea sau preluarea controlului asupra comunicării unei terțe părți fără consimțământ”.
  • Atacuri fizice (PA): „acțiuni care au ca scop distrugerea, expunerea, modificarea, dezactivarea, furtul sau obținerea accesului neautorizat la active fizice, cum ar fi infrastructura, hardware-ul sau interconectarea”.
  • Daune neintenționate (UD): acțiuni neintenționate care provoacă „distrugerea, vătămarea sau vătămarea proprietății sau a persoanelor și are ca rezultat o defecțiune sau o reducere a utilității”.
  • Eșecuri sau defecțiuni (FM): „Funcționarea parțială sau totală insuficientă a unui activ (hardware sau software)”.
  • Întreruperi (OUT): „întreruperi neașteptate ale serviciului sau scăderea calității sub nivelul cerut”.
  • Dezastre (DIS): „un accident brusc sau o catastrofă naturală care provoacă pagube mari sau pierderi de vieți omenești”.
  • Legal (LEG): „acțiuni legale ale terților (contractant sau de altă natură), pentru a interzice acțiunile sau a compensa pierderea în baza legii aplicabile”.

Figura anterioară ilustrează principalele categorii ale taxonomiei amenințărilor AI pe baza categorizării menționate mai sus, în timp ce anexa B descrie cele 74 de amenințări identificate la adresa AI așa cum sunt descrise în taxonomia amenințărilor și enumeră activele afectate per amenințare, precum și impactul potențial cu privire la proprietățile menționate mai sus ale sistemelor AI. Anexa D cartografiază amenințările pentru fiecare etapă a ciclului de viață. Unele amenințări se repetă în mai multe categorii, deoarece pot apărea atât ca daune neintenționate, cât și ca activitate nefastă, de exemplu. Trebuie remarcat faptul că amenințările identificate sunt specifice contextului sistemelor AI, iar amenințările la adresa altor elemente ale ecosistemului nu au fost pe deplin explorate. De exemplu, amenințările la adresa infrastructurii cloud (pe care se bazează majoritatea sistemelor AI) au fost evidențiate pe scurt aici. Același lucru este valabil și pentru amenințările la adresa infrastructurilor rețelelor de comunicații sau a senzorilor care colectează date care alimentează sistemele AI.

Tabelul de mai jos detaliază amenințările specifice din fiecare dintre categorii.

Anexa B descrie cele 74 de amenințări identificate la adresa AI, așa cum sunt descrise în taxonomia amenințărilor și enumeră activele afectate per amenințare, precum și impactul potențial cu privire la proprietățile menționate mai sus ale sistemelor AI. Anexa D cartografiază amenințările pentru fiecare etapă a ciclului de viață (așa cum este descris în Capitolul 2). Unele amenințări se repetă în mai multe categorii, deoarece pot apărea atât ca daune neintenționate, cât și ca activitate nefastă, de exemplu. Trebuie remarcat faptul că amenințările identificate sunt specifice contextului sistemelor AI, iar amenințările la adresa altor elemente ale ecosistemului nu au fost pe deplin explorate. De exemplu, amenințările la adresa infrastructurii cloud (pe care se bazează majoritatea sistemelor AI) au fost evidențiate pe scurt aici. Același lucru este valabil și pentru amenințările la adresa infrastructurilor rețelelor de comunicații sau a senzorilor care colectează date care alimentează sistemele AI. Peisajele relevante ale amenințărilor ENISA (63) ar trebui utilizate în tandem pentru evaluări cuprinzătoare ale riscurilor.


Activitate/abuz nefast

Atacuri fizice

Legal
• Acces neautorizat la seturile de date și procesul de transfer de date
• Manipularea seturilor de date și procesul de transfer de date
• Acces neautorizat la codul modelelor
• Rezultate de compromis și limită de Al
• Compromiterea datelor de corectitudine a inferențelor Al
• Compromiterea algoritmilor de corectitudine a inferenței ML
• Otrăvirea datelor
• Modificarea datelor
• Elevarea privilegiilor
• Amenințare internă
• Manipularea algoritmului de optimizare
• Clasificarea greșită bazată pe exemple contradictorii
• Otrăvirea modelului
• Transferabilitatea atacurilor adverse
• Manipularea online a sistemului
• Sabotajul modelului
• Date limitate
• Cutie albă, țintită sau ne-țintită
• Introducerea prejudiciului de selecție
• Manipularea datelor etichetate
• Atacuri de inserare backdoor asupra seturi de date de antrenament
• Supraîncărcarea setului de date etichetat confuz
• Compromiterea datelor de validare a instruirii ML
• Compromiterea datelor augmentate de antrenament ML
• Exemple contradictorii
• Reducerea acurateței datelor
• Manipularea integrității modelului ML
• Confidențialitatea modelului ML
• Compromisul furnizorilor de brokeri de date
• Manipularea tuning-ului modelului
• Sabotaj
• DDoS
• Manipularea listei de control acces ACL
• Compromiterea preprocesării ML
• Compromiterea cadrelor model
• Coruperea indicilor de date
• Reduce eficacității rezultatelor Al ML
• Manipularea etichetelor sau etichetarea slabă
• Backdoor pentru model
• Erori sau restricții în timp util din cauza infrastructurilor de date nefiabile
• Sabotajul modelului
• Atacurile fizice ale sistemului de infrastructură
• Falsificarea rețelelor de comunicații:
• Sabotaj


Dezastre

• Dezastre naturale (cutremur, inundații, incendii etc.)
• Fenomene de mediu: încălzire, răcire, schimbări climatice


Eșecuri sau defecțiuni

• Viabilitatea aplicației de Al compromisă
• Erori sau restricții în timp util din cauza infrastructurilor de date nefiabile
• Eșecul furnizorului terț
• Degradarea performanței modelului ML
• Date limitate
• Întreruperea fluxului
• Verificări inadecvate sau absente ale calității datelor
• Lipsa documentatiei
• Analiza cerințelor slabe
• Planificare slabă a resurselor
• Politici slabe de guvernare a datelor
• Compromiterea preprocesării ML
• Coruperea indicilor de date
• Manipularea etichetelor sau etichetarea slabă
• Compromiterea cadrelor model


Ascultare/Interceptare/Deturnare

• Inferența datelor
• Furtul de date
• Dezvăluirea modelului
• Întreruperea fluxului
• Criptare slabă

• Coruperea indicilor de date
• Compromiterea confidențialității în timpul operațiunilor de date
• Profilarea utilizatorilor finali
• Lipsa de conformitate cu protecția datelor de către terți
• Blocarea vânzătorului
• Încălcarea SLA
• Analiza slabă a cerințelor
• Lipsa politicilor de guvernare a datelor
• Dezvăluirea informațiilor personale
• Coruperea indicilor de date


Întreruperi

• Întreruperea infrastructurii/sistemului
• Întreruperea rețelelor de comunicații


Daune neintenționate

• Compromiterea și limitarea rezultatelor Al
• Compromiterea confidențialității în timpul operațiunilor de date
• Compromiterea datelor de corectitudine ale inferențelor Al
• Compromiterea selectății caracteristicilor
• Compromiterea algoritmilor de corectitudine a inferenței ML
• Configurare greșită sau manipulare greșită a sistemului Al
• Degradarea performanței modelului ML
• Manipularea online a sistemului
• Lipsa unei reprezentări suficiente în date
• Manipularea greșită a datelor statistice
• Manipularea datelor etichetate
• Compromiterea datelor augmentate de antrenament ML
• Reducerea acurateței datelor
• Compromiterea furnizorilor de brokeri de date
• Configurare eronată a modelelor
• Prejudecățile introduse de proprietarii de date
• Manipularea etichetelor sau etichetarea slabă
• Dezvăluirea informațiilor personale
• Compromiterea cadrelor model

(Tabel: Taxonomie detaliată a amenințărilor AI)

Note

(62) A se vedea https://www.enisa.europa.eu/topics/threat-risk-management/threats-and-trends/enisa-threat-landscape/threat-taxonomy/view

(63) A se vedea, de ex., https://www.enisa.europa.eu/publications/cloud-computing-risk-assessment, https://www.enisa.europa.eu/publications/enisa-threat-landscape-for-5g-networks and https://www.enisa.europa.eu/publications/baseline-security-recommendations-for-iot

Sursa: ENISA, AI Cybersecurity Challenges – Threat Landscape for Artificial Intelligence, December 2020. Editora: Apostolos Malatras, Georgia Dede – European Union Agency for Cybersecurity. © European Union Agency for Cybersecurity (ENISA), 2020. Traducere și adaptare independentă: Nicolae Sfetcu

© 2021 MultiMedia Publishing, Introducere în inteligența artificială

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *