Convenții metodologice
Un element critic în peisajul amenințărilor este identificarea categoriilor de active pentru care pot fi amenințări. Activele sunt definite ca orice lucru care are valoare pentru o persoană sau organizație și, prin urmare, necesită protecție. În cazul AI, activele sunt, de asemenea, cele care sunt cruciale pentru a răspunde nevoilor pentru care sunt utilizate.
Pe lângă activele generice legate de TIC, cum ar fi datele, software-ul, hardware-ul, rețelele de comunicații, printre altele, AI implică un set de active specifice, cum ar fi modele, procesoare și artefacte care pot fi compromise și/sau deteriorate, fie din cauze intenționate, cât și din cauza lipsei. – cauze intenționate.
Taxonomia activelor
Pentru fiecare dintre etapele ciclului de viață AI, au fost identificate cele mai relevante active, pe baza descrierii funcționale a etapelor specifice și pentru a reflecta componentele AI, dar și activele care sprijină dezvoltarea și implementarea sistemelor AI. Activele includ și procese legate de IA, având în vedere natura lor transversală. Activele au fost clasificate în următoarele 6 categorii (vezi Figura 3):
- Date
- Model
- Actori
- Procese
- Mediu/Instrumente
- Artefacte
Figura 4 ilustrează taxonomia detaliată a activelor pentru AI bazată pe modelul de referință generic al ciclului de viață AI descris în capitolul anterior. Mai mult, Anexa A descrie în detaliu diferitele active, iar Anexa C enumeră etapa ciclului de viață AI din care fac parte.
(Taxonomia activelor AI)
În încheiere, merită menționat că, datorită complexității AI și sferei extinse a ecosistemului AI, precum și naturii în evoluție a sistemelor și tehnicilor AI, maparea activelor este o sarcină continuă care va avea nevoie de ceva timp pentru a ajunge la un stadiu de maturitate. Acest lucru se datorează unei varietăți de motive/probleme privind natura sistemelor AI (pletor de tehnici și abordări diferite, scenarii diferite de implementare a aplicațiilor, domenii asociate, cum ar fi recunoașterea facială și robotica etc.). O provocare suplimentară implică complexitatea și amploarea lanțului de aprovizionare AI/ML și toate implicațiile pe care acesta le implică pentru peisajul activelor și amenințărilor (50).
Nota
(50) A se vedea https://stiftung-nv.de/ml-supplychain
Sursa: ENISA, AI Cybersecurity Challenges – Threat Landscape for Artificial Intelligence, December 2020. Editora: Apostolos Malatras, Georgia Dede – European Union Agency for Cybersecurity. © European Union Agency for Cybersecurity (ENISA), 2020. Traducere și adaptare independentă: Nicolae Sfetcu
© 2021 MultiMedia Publishing, Introducere în inteligența artificială
Lasă un răspuns