CONVENZIONE QUADRO DEL CONSIGLIO D’EUROPA SULL’ “INTELLIGENZA ARTIFICIALE E I DIRITTI UMANI, LA DEMOCRAZIA E LO STATO DI DIRITTO”
Approfondimento n. 6/2024
Il 17 maggio 2024 è stata adottata la Convenzione quadro del Consiglio d’Europa sull’ “Intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto” (CETS 225). L’adozione è avvenuta nell’ambito della 133ª sessione del Comitato dei Ministri a Strasburgo. È stata aperta alla firma il 5 settembre 2024 nella Conferenza dei Ministri della Giustizia a Vilnius, Lituania. La Convenzione mira a stabilire un quadro giuridico comune volto a garantire che le attività legate ai sistemi di intelligenza artificiale (di seguito IA) siano coerenti con i principi fondamentali dei diritti umani, della democrazia e dello Stato di diritto.
La Convenzione si distingue come il primo trattato internazionale che obbliga giuridicamente gli Stati a prevenire e mitigare i rischi legati all’uso dell’intelligenza artificiale che, al giorno d’oggi, pervade ogni aspetto della nostra vita.
I negoziati per la Convenzione hanno avuto inizio nel settembre 2022, sotto l’egida del Comitato per l’IA (CAI), istituito dal Consiglio d’Europa a Strasburgo. Hanno partecipato alla negoziazione, oltre alla Commissione europea per conto dell’UE, numerosi Stati membri del Consiglio d’Europa, la Santa Sede, gli Stati Uniti, il Canada, il Messico, il Giappone, Israele, l’Australia, l’Argentina, il Perù, l’Uruguay e il Costa Rica.
Inoltre, sono stati coinvolti nei negoziati anche diversi stakeholder della società civile provenienti, ad esempio, dal mondo universitario e dell’industria, a conferma dell’approccio multidisciplinare e inclusivo, che contraddistingue le negoziazioni nell’ambito del Consiglio d’Europa. Ciò riflette al meglio la natura globale delle sfide e delle opportunità legate all’IA, riconoscendo che una regolamentazione efficace del settore può essere perseguita esclusivamente attraverso una cooperazione internazionale/universale estesa anche alla società civile.
La Convenzione del Consiglio d’Europa sull’Intelligenza Artificiale (IA) è aperta alla firma degli Stati membri del Consiglio d’Europa, degli Stati non membri che hanno partecipato alla sua elaborazione e dell’Unione Europea (Articolo 30, comma 1).
Per l’entrata in vigore, è necessario che esprimano il consenso a vincolarsi almeno cinque Stati firmatari, di cui almeno tre Stati membri del Consiglio d’Europa (Articolo 30, comma 3). Al momento, la Convenzione è stata firmata da 8 Stati membri del Consiglio, da 2 Stati non membri e dall’Unione europea, che ha già adottato in materia il Regolamento 2024/1689 che stabilisce regole armonizzate sull’intelligenza artificiale. Tuttavia, nessuno di questi soggetti ha ancora completato il processo di ratifica.
Sotto il profilo sostanziale la Convenzione si compone di un preambolo e 8 capitoli, per un totale di 36 articoli.
Il Preambolo della Convenzione chiarisce, sin da subito, che l’obiettivo principale è garantire che le attività connesse al ciclo di vita dei sistemi di IA rispettino pienamente i principi della democrazia, dei diritti umani e dello Stato di diritto. I membri del Consiglio d’Europa si dicono consapevoli che i sistemi di IA hanno il potenziale di promuovere la prosperità umana, il benessere sociale, lo sviluppo sostenibile, l’emancipazione di tutte le donne e l’uguaglianza di genere, potenziando allo stesso tempo il progresso e l’innovazione. In tale contesto è emersa anche la convinzione che fosse necessario stabilire un quadro giuridico applicabile a livello globale e capace di definire le regole per disciplinare le attività nell’ambito del ciclo di vita dei sistemi di IA, con lo scopo di preservarne i valori e sfruttarne i vantaggi per la promozione di una innovazione responsabile.
Nel preambolo, la Convenzione evidenzia anche la possibilità di essere integrata tramite protocolli aggiuntivi che stabiliscano obiettivi specifici per affrontare le sfide emergenti. Questi protocolli dovrebbero incoraggiare la valutazione dei rischi associati a tali tecnologie, inclusi quelli relativi alla salute umana, all’ambiente e agli aspetti socioeconomici, come lavoro e occupazione.
Con queste premesse giuridiche la Convenzione prevede una serie di norme volte a regolare l’utilizzo dell’IA in vista di una maggiore tutela dei diritti umani. Per incontrare tale necessità di cui al preambolo, la Convenzione prevede nel suo articolato una serie di norme atte a ciò. In tale prospettiva si offre una definizione di “intelligenza artificiale”, quale sistema basato su una macchina che, per obiettivi espliciti o impliciti, genera dagli input che riceve una serie di output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare le condizioni fisiche o ambienti virtuali.
Sotto il profilo teleologico la Convenzione si pone l’obiettivo secondo cui gli Stati Parti dovranno adottare misure di valutazione continua dei rischi associati alle tecnologie IA e gestirli tramite un approccio preventivo (art. 1 della Convenzione).
L’articolo 3, invece, definisce l’ambito di applicazione della Convenzione, prevedendo che la stessa si applichi principalmente alle attività svolte da autorità pubbliche o da soggetti privati che operano per conto dello Stato, lasciando però margine di azione anche per regolamentare le attività di IA dei privati indipendenti, in modo conforme agli obiettivi della Convenzione. Nel presente articolo sono stabilite anche alcune eccezioni come l’esclusione esplicita delle questioni legate alla difesa nazionale. Questo significa che le attività connesse allo sviluppo e all’uso di sistemi di intelligenza artificiale per scopi militari o di sicurezza nazionale non sono regolate dalla Convenzione, lasciando tali responsabilità ai singoli Stati. L’articolo 3 esclude inoltre le attività di ricerca e sviluppo di sistemi di IA ancora in fase sperimentale (non in uso), a meno che tali attività non impattino direttamente negativamente sui diritti fondamentali o sulla democrazia. In questo modo, la Convenzione tenta di bilanciare le esigenze di tutela dei diritti fondamentali con quelle della sicurezza nazionale e della sovranità statale.
Sotto il profilo generale, la Convenzione istituisce degli obblighi giuridici secondo cui tutti gli Stati Parti dovranno adottare misure a garanzia che le attività svolte dalle IA siano coerenti con gli obblighi di tutela dei diritti umani (ex art 4).
In particolare, l’art. 5 stabilisce che, ciascuna parte deve adottare misure per garantire che i sistemi di IA non minaccino l’integrità e l’efficacia delle istituzioni e dei processi democratici, istituendo (o mantenendo) meccanismi come l’equa partecipazione degli individui al dibattito pubblico e la loro capacità di formarsi opinioni in maniera libera.
In aggiunta, la Convenzione non dimentica di regolare gli aspetti dell’IA collegati alla trasparenza e alla privacy.
L’articolo 8, infatti, riveste un’importanza rilevante poiché introduce il principio della trasparenza e della supervisione. Esso stabilisce che le decisioni automatizzate basate su sistemi di IA devono essere chiare e sottoposte a un controllo adeguato. Gli Stati sono tenuti a garantire che i cittadini possano accedere alle informazioni riguardanti il funzionamento di tali sistemi, consentendo loro di contestare le decisioni quando necessario. L’uso dell’IA deve supportare, e non compromettere, i processi democratici. Ad esempio, nei contesti elettorali, l’impiego di IA deve essere trasparente e non deve influenzare o alterare la volontà degli elettori. È fondamentale evitare applicazioni dell’IA che possano limitare la libertà di espressione o ridurre la partecipazione politica. Inoltre, le decisioni automatizzate, soprattutto quelle con conseguenze politiche, devono essere soggette a supervisione pubblica e trasparenza. Le tecnologie di IA dovrebbero promuovere una partecipazione informata e una responsabilità civica, evitando disinformazione e garantendo un accesso equo alle informazioni.
Ogni Stato Parte, ex art. 14 della Convenzione, dovrà poi adottare o mantenere misure volte a consentire agli individui di far valere le violazioni della Convenzione. Questo implica che i sistemi IA devono essere progettati in modo tale da permettere una comprensione chiara del processo decisionale algoritmico, cosicché gli individui possano contestare eventuali decisioni che ledano i loro diritti dinnanzi alle autorità competenti (art. 14, par. 2, lett. c).
Ai sensi dell’art 19, invece, la Convenzione stabilisce che gli Stati Parti dovranno promuovere consultazioni pubbliche e dibattiti informati sulle questioni legate all’intelligenza artificiale, garantendo il coinvolgimento della società civile e delle ONG nei processi decisionali, sottolineando quindi l’importanza della trasparenza e della partecipazione democratica.
Al fine di promuovere la cooperazione internazionale, viene istituita, altresì, una Conferenza delle Parti, un organismo sovranazionale incaricato di monitorare l’attuazione della Convenzione, facilitare la cooperazione internazionale e promuovere lo scambio di informazioni tra gli Stati membri.
Con riferimento specifico alle attività di monitoraggio della Convenzione, l’articolo 26 stabilisce l’obbligo di istituire organi indipendenti dotati delle risorse umane e finanziare necessarie per vigilare sull’attuazione delle disposizioni della Convenzione.
Questa rapida panoramica sugli obblighi previsti dalla Convenzione in commento, ci consente di evidenziare come l’adozione di tale strumento rappresenti un importante progresso verso una regolazione responsabile ed inclusiva dell’intelligenza artificiale, ponendo la tutela dei diritti umani, della democrazia e dello Stato di diritto al centro della discussione.
Una delle innovazioni principali della Convenzione è la sua capacità di fissare standard minimi obbligatori per gli Stati membri, nel tentativo di prevenire, così, un uso distorto dell’IA. Ciò è particolarmente rilevante in un contesto di rapida evoluzione tecnologica, in cui gli sviluppatori e gli utilizzatori di IA devono operare entro un quadro giuridico chiaro e trasparente, senza violare le normative nazionali o internazionali. Le tecnologie di IA, in particolare gli algoritmi che elaborano grandi quantità di dati sensibili, devono essere gestite con attenzione e prudenza per proteggere i diritti fondamentali degli individui.
In conclusione, la Convenzione istituisce in capo agli Stati parti una molteplicità di obblighi volti a regolare lo sviluppo delle nuove tecnologie in modo conforme al diritto internazionale dei diritti umani. Tali obblighi, sebbene siano in parte sovrapponibili a quelli previsti dal Regolamento 2024/1689 dell’Unione europea, nel caso della Convenzione assumono un campo applicativo ben più ampio, in quanto vincolano, potenzialmente, non soltanto gli Stati membri dell’Unione ma tutti i Paesi membri del Consiglio d’Europa e gli Stati non membri che esprimeranno il loro consenso a vincolarsi. Da questa prospettiva, dunque, la Convenzione sembra cogliere meglio la sfida “globale” posta dal progresso tecnologico, in particolare quella di bilanciare l’innovazione nel campo delle nuove tecnologie con la protezione dei diritti umani, della democrazia e dello Stato di diritto, nel tentativo di rendere l’innovazione tecnologica non soltanto compatibile ma anche funzionale allo sviluppo umano.
Sara Ramundo
Studentessa del Master in Tutela Internazionale dei Diritti Umani “Maria Rita Saulle”.
Materiali e link utili:
Agenda Digitale (2024) – AI e diritti umani: i paletti della Convenzione del Consiglio d’Europa – Agenda Digitale
Council of Europe Treaty Series – No. 225. Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law – Vilnius, 5.IX.2024 – CETS 225 – Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law
Council of Europe Treaty Series – No. 225 Explanatory Report to the Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law Vilnius, 5.IX.2024 – CETS *** – Explanatory Report to the ***
Council of Europe and Artificial Intelligence website – Council of Europe and Artificial Intelligence – Artificial Intelligence
Italian strategy for artificial intelligence 2024-2026 Strategia_italiana_per_l_Intelligenza_artificiale_2024-2026.pdf
Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance) – Regulation – EU – 2024/1689 – EN – EUR-Lex
Artificial Intelligence: A Modern Approach Third Edition; Stuart J. Russell and Peter Norvig. (Pearson, 2016) – Artificial Intelligence: A Modern Approach
UNESCO, Ethics of Artificial Intelligence – Ethics of Artificial Intelligence | UNESCO
Report of the UN Secretary-General’s High-level Panel on Digital Cooperation “ the age of digital interdependence” – DigitalCooperation-report-for web.pdf
United Nations (2024): United Nations Global Principles For Information Integrity Recommendations for Multi-stakeholder Action – un-global-principles-for-information-integrity-en.pdf
Agenzia dell’Unione europea per i diritti fondamentali (2021) – Preparare un giusto futuro. L’intelligenza artificiale e i diritti fondamentali. Sintesi