Home » Articole » RO » Afaceri » Știința datelor (Data Science) » Inteligența artificială » Metodologii de modelare a amenințărilor în inteligența artificială

Metodologii de modelare a amenințărilor în inteligența artificială

Modelarea amenințărilor în inteligența artificială implică procesul de identificare a amenințărilor și, eventual, de listare și prioritizare a acestora (57). Există diverse metodologii cu privire la modul de realizare a modelării amenințărilor, STRIDE (58) fiind una dintre cele mai proeminente. În contextul viitoarelor evaluări risc/tratament pentru inteligența artificială (AI) pentru cazuri specifice de utilizare, metodologia de modelare a amenințărilor pe care am urmat-o presupune 5 pași, și anume:

  1. Identificarea obiectivelor: identificați proprietățile de securitate pe care ar trebui să le aibă sistemul.
  2. Studiu: mapați sistemul, componentele sale și interacțiunile acestora și interdependențele cu sistemele externe.
  3. Identificarea activelor: identificați activele critice din punct de vedere al securității care au nevoie de protecție.
  4. Identificarea amenințărilor: identificați amenințările la adresa activelor care vor duce la neîndeplinirea obiectivelor menționate mai sus.
  5. Identificarea vulnerabilităților: determinați – de obicei pe baza atacurilor existente – dacă sistemul este vulnerabil în raport cu amenințările identificate (59).

Pentru a dezvolta peisajul amenințărilor AI, luăm în considerare atât proprietățile tradiționale de securitate, cât și proprietățile de securitate care sunt mai relevante pentru domeniul AI. Primele includ confidențialitatea, integritatea și disponibilitatea cu proprietăți de securitate suplimentare, inclusiv autenticitatea, autorizarea și non-repudierea, în timp ce cele din urmă sunt mai specifice AI și includ robustețe, încredere, siguranță, transparență, explicabilitate, responsabilitate, precum și protecția datelor (60).

Este prezentat impactul amenințărilor asupra confidențialității, integrității și disponibilității și, în consecință, pe baza impactului asupra acestor proprietăți fundamentale de securitate, impactul amenințărilor asupra proprietăților suplimentare de securitate este mapat după cum urmează:

  • Autenticitatea poate fi afectată atunci când integritatea este compromisă, deoarece autenticitatea datelor sau a rezultatelor ar putea fi afectată.
  • Autorizarea poate fi afectată atunci când confidenţialitatea şi integritatea sunt afectate, având în vedere că legitimitatea operaţiunii ar putea fi afectată.
  • Nerepudierea poate fi afectată atunci când integritatea este afectată.
  • Robustețea unui sistem/aplicație AI poate fi afectată atunci când disponibilitatea și integritatea sunt afectate.
  • Încrederea în un sistem/aplicație AI poate fi afectată atunci când integritatea, confidențialitatea și disponibilitatea sunt afectate, deoarece sistemul/aplicația AI poate funcționa cu date corupte sau cu performanțe slabe.
  • Siguranța poate fi afectată atunci când integritatea sau disponibilitatea sunt afectate, deoarece aceste proprietăți pot avea un impact negativ asupra funcționării corespunzătoare a unui sistem/aplicație AI.
  • Transparența poate fi afectată atunci când confidențialitatea, integritatea sau disponibilitatea sunt afectate, deoarece împiedică dezvăluirea de ce și cum s-a comportat un sistem/aplicație AI așa cum s-a comportat.
  • Explicabilitatea poate fi afectată atunci când confidențialitatea, integritatea sau disponibilitatea sunt afectate, deoarece împiedică deducerea explicațiilor adecvate cu privire la motivul pentru care un sistem/aplicație AI s-a comportat așa cum s-a comportat.
  • Responsabilitatea poate fi afectată atunci când integritatea este afectată, deoarece împiedică repartizarea acțiunilor verificate către proprietari.
  • Protecția datelor cu caracter personal poate fi afectată atunci când confidențialitatea, integritatea sau disponibilitatea sunt afectate. De exemplu, încălcarea confidențialității (de exemplu, realizată prin combinarea diferitelor seturi de date pentru aceeași persoană) poate duce la dezvăluirea datelor cu caracter personal către destinatari neautorizați. Încălcarea integrității (de exemplu, calitatea slabă a datelor sau seturi de date de intrare „părtinitoare”) poate duce la sisteme automate de luare a deciziilor care clasifică greșit persoanele și îi exclud de la anumite servicii sau îi privează de drepturile lor. Problemele de disponibilitate pot perturba accesul la datele personale în servicii importante, bazate pe AI. Transparența și explicabilitatea pot afecta direct protecția datelor cu caracter personal, în timp ce responsabilitatea este, de asemenea, un aspect inerent al protecției datelor cu caracter personal. În general, sistemele și aplicațiile AI pot limita în mod semnificativ controlul uman asupra datelor cu caracter personal, conducând astfel la concluzii despre indivizi, care au impact direct asupra drepturilor și libertăților acestora. Acest lucru se poate întâmpla fie pentru că rezultatele mașinii se abat de la rezultatele așteptate de indivizi, fie pentru că nu îndeplinesc așteptările indivizilor.

Taxonomia amenințărilor în inteligența artificială (Taxonomia amenințărilor în inteligența artificială)

După ce s-au introdus proprietățile de securitate și pe baza modelului de referință al ciclului de viață AI introdus și a activelor identificate, următorul pas în metodologia luată în considerare presupune identificarea amenințărilor și vulnerabilităților. Pentru a identifica amenințările, se iau în considerare fiecare activ individual și ca grup și se evidențiază modurile de eșec relevante (61) în ceea ce privește proprietățile de securitate menționate mai sus. Prin identificarea amenințărilor la adresa activelor, suntem capabili să mapăm peisajul amenințărilor din sistemele AI. Mai mult, efectele identificării amenințării la adresa vulnerabilităților sistemelor AI sunt subliniate și prin referirea la manifestări specifice ale atacurilor. Acest lucru ar duce în viitor la introducerea unor măsuri și controale de securitate proporționale.

Note

57 A se vedea Shostack, Adam (2014). “Threat Modeling: Designing for Security“. John Wiley & Sons Inc: Indianapolis.

58 A se vedea https://docs.microsoft.com/en-us/previous-versions/commerce-server/ee823878(v=cs.20). STRIDE este un acronim care reprezintă 6 categorii de amenințări, și anume falsificarea, manipularea datelor, repudierea, divulgarea informațiilor, refuzul serviciului și creșterea privilegiilor (Spoofing, Tampering with data, Repudiation, Information disclosure, Denial of Service și Elevation of privilege).

59 Identificarea vulnerabilităților nu a fost explorată pe larg aici, având în vedere că situațiile de utilizare specifice trebuie luate în considerare pentru a efectua acest pas.

60 Proprietățile de securitate specifice AI s-au bazat pe activitatea HLEG EC AI privind lista de evaluare pentru IA de încredere: https://ec.europa.eu/digital-single-market/en/news/assessment-list-trustworthy- inteligenta-artificiala-altai-autoevaluare

61 A se vedea https://link.springer.com/article/10.1186/s40887-018-0025-1

Sursa: ENISA, AI Cybersecurity Challenges – Threat Landscape for Artificial Intelligence, December 2020. Editora: Apostolos Malatras, Georgia Dede – European Union Agency for Cybersecurity. © European Union Agency for Cybersecurity (ENISA), 2020. Traducere și adaptare independentă: Nicolae Sfetcu

© 2021 MultiMedia Publishing, Introducere în inteligența artificială

Lasă un răspuns

Adresa ta de email nu va fi publicată.