Cartea albă a Comisiei Europene privind inteligența artificială (4) a evidențiat necesitatea ca Uniunea Europeană să analizeze subiectul securității cibernetice pentru inteligența artificială (AI). Accentul este în mare parte din perspectiva securizării AI, dar și asupra altor aspecte ale AI și al securității cibernetice, într-o manieră holistică și coordonată. Maparea peisajului amenințărilor inteligenței artificiale (AI) folosind tehnici de modelare și evaluare a amenințărilor a apărut ca o abordare importantă, ca și elaborarea de măsuri și recomandări de securitate proporționale (5).
Comisia Europeană (CE) a evidențiat importanța inteligenței artificiale în societate și economie în Cartea albă privind inteligența artificială, care este cadrul pentru viitoarele inițiative politice referitoare la tehnologie. Comisia a recunoscut, de asemenea, importanța strategică a inteligenței artificiale în „Planul coordonat privind inteligența artificială” (6), care urmărește să armonizeze și să coordoneze inițiativele de inteligență artificială în întreaga Uniune, inclusiv abordând aspectele sale legate de securitate. În plus, în iulie 2020, noua Strategie a Securității Uniunii (7) a Comisiei Europene a subliniat importanța inteligenței artificiale, menționând că aceasta va aduce atât noi beneficii, cât și noi riscuri.
În iunie 2018, CE a înființat Grupul de experți la nivel înalt pentru inteligența artificială (High-Level Expert Group on Artificial Intelligence, AI HLEG) (8) cu obiectivul general de a sprijini punerea în aplicare a Strategiei europene privind inteligența artificială (9). AI HLEG a analizat nu numai evoluțiile politice conexe, ci și aspectele etice, juridice și societale legate de AI. În consecință, AI HLEG a înaintat recomandări de politici și investiții pentru inteligența artificială de încredere (10), precum și Orientări de etică pentru IA de încredere (11) și o listă de evaluare pentru IA de încredere (12), inclusiv recomandări specifice privind evaluarea fiabilității sistemelor AI.
În ceea ce privește contextul politicii și evoluțiile relevante din UE, este demn de menționat activitatea Agenției Europene de Apărare (European Defence Agency, EDA) care a elaborat o taxonomie aprofundată pentru AI (13) în domeniul apărării. Taxonomia EDA este structurată pe trei linii: algoritmi, funcții realizate de algoritmi și suport sau domenii conexe precum etica, implementarea hardware sau tehnicile de învățare. Identificând impactul potențial al AI în securitate și interacțiunea dintre cele două domenii, Institutul European de Standarde de Telecomunicații (ETSI) a înființat un Grup de Specificații în Industrie pentru Securizarea Inteligenței Artificiale (ISG SAI) (14). Obiectivul ISG SAI este de a crea standarde pentru păstrarea și îmbunătățirea securității noilor tehnologii AI. În plus, Centrul Comun de Cercetare (JRC) al CE a înființat inițiativa AI Watch ca un serviciu de cunoștințe pentru a monitoriza dezvoltarea, adoptarea și impactul inteligenței artificiale pentru Europa și pentru a monitoriza cercetările relevante în vastul domeniu al AI. Una dintre lucrările fundamentale ale AI Watch este raportul privind definirea AI (15) care stabilește baza convențiilor metodologice relevante, introduce vocabularul comun și, mai important, înțelegerea comună a diverșilor termeni.
4 A se vedea Cartea albă a CE privind IA în curs de consultare la: https://ec.europa.eu/info/files/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en
5 Procedând astfel, ENISA va face bilanțul inițiativelor și studiilor existente care sunt în curs de desfășurare în domeniul securității cibernetice IA, cum ar fi rezultatele proiectelor UE în acest domeniu (H2020) și va evita dublarea eforturilor, ci mai degrabă se va concentra pe oferirea unei perspective armonizate asupra lucrări în derulare.
In terms of policy context and relevant developments in the EU, it is noteworthy to mention the work of the European Defence Agency (EDA) that has developed a thorough taxonomy for AI13 in the domain of defence. EDA’s taxonomy is structured along three lines: algorithms, functions carried out by algorithms and support or related areas such as ethics, hardware implementation or learning techniques. Identifying the potential impact of AI in security and the interplay between the two domains, the European Telecommunication Standards Institute (ETSI) has set up an Industry Specification Group on Securing Artificial Intelligence (ISG SAI)14. The objective of the ISG SAI is to create standards to preserve and improve the security of new AI technologies. Additionally, the EC’s Joint Research Centre (JRC) has established the AI Watch initiative in order to serve as a knowledge service to monitor the development, uptake and impact of artificial intelligence for Europe and monitor relevant research across the vast field of AI. One of the seminal works of the AI Watch is the report on defining AI15 that sets the basis for relevant methodological conventions, introduces common vocabulary and more importantly common understanding of the diverse terms.
Note
- (4) A se vedea EC White Paper on Ai under consultation at: https://ec.europa.eu/info/files/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en
- (5) Procedând astfel, ENISA va face bilanțul inițiativelor și studiilor existente care sunt în curs de desfășurare în domeniul securității cibernetice IA, cum ar fi rezultatele proiectelor UE în acest domeniu (H2020) și va evita dublarea eforturilor, ci mai degrabă se va concentra pe oferirea unei perspective armonizate asupra lucrări în derulare.
- (6) A se vedea https://ec.europa.eu/digital-single-market/en/news/coordinated-plan-artificial-intelligence
- (7) A se vedea https://ec.europa.eu/info/sites/info/files/communication-eu-security-union-strategy.pdf
- (8) A se vedea https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence
- (9) A se vedea http://ec.europa.eu/digital-single-market/en/artificial-intelligence
- (10) A se vedea https://ec.europa.eu/digital-single-market/en/news/policy-and-investment-recommendations-trustworthy-artificial-intelligence
- (11) A se vedea https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines
- (12) A se vedea https://ec.europa.eu/digital-single-market/en/news/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment
- (13) A se vedea https://www.eda.europa.eu/info-hub/press-centre/latest-news/2020/08/25/artificial-intelligence-joint-quest-for-future-defence-applications
- (14) A se vedea https://www.etsi.org/technologies/securing-artificial-intelligence
- (15) A se vedea https://ec.europa.eu/jrc/en/publication/ai-watch-defining-artificial-intelligence
Sursa: ENISA, AI Cybersecurity Challenges – Threat Landscape for Artificial Intelligence, December 2020. Editora: Apostolos Malatras, Georgia Dede – European Union Agency for Cybersecurity. © European Union Agency for Cybersecurity (ENISA), 2020. Traducere și adaptare independentă: Nicolae Sfetcu
© 2021 MultiMedia Publishing, Introducere în inteligența artificială
Video: AI de încredere: Noul regulament al UE privind o abordare europeană pentru inteligența artificială
Lasă un răspuns