I pericoli dell’intelligenza artificiale per i diritti umani: il rapporto dell’Alto commissariato sul diritto alla privacy nell’era digitale

Approfondimento n. 10/2021                                      

La formidabile espansione delle tecnologie digitali in ogni contesto della vita umana è senza dubbio un fenomeno dalla duplice valenza.

Da un lato, i benefici che la rivoluzione tecnologica ha apportato in ogni campo sono innegabili: si pensi agli straordinari progressi compiuti in medicina, con dispositivi in grado di diagnosticare malattie o di effettuare operazioni chirurgiche con straordinaria precisione; in meteorologia, con strumenti capaci di prevedere in anticipo fenomeni naturali come terremoti o inondazioni; nelle pubbliche amministrazioni, con la digitalizzazione delle procedure; o, ancora, ai grandi passi avanti compiuti nel contesto dell’ingegneria, della meccanica, delle telecomunicazioni, e persino della giustizia.

Dall’altro lato, non è certo possibile ignorare i gravi rischi che il fenomeno porta con sé. Negli ultimi anni, soprattutto lo straordinario sviluppo dell’intelligenza artificiale (IA) di machine learning deep learning ha sollevato importanti preoccupazioni relative al godimento dei diritti umani. Primo tra tutti, il diritto alla privacy, fortemente minacciato dalla sempre maggiore pervasività delle tecniche di raccolta dati.

Uno studio approfondito e una regolamentazione attenta risultano pertanto indispensabili per limitare le gravi conseguenze che lo sviluppo dell’IA può produrre.

Fortunatamente, diverse istituzioni internazionali, sia regionali che globali, hanno già iniziato a muovere dei passi in questa direzione. Nel contesto dell’Unione Europea si può fare riferimento, oltre che al rinomato GDPR (il primo e più importante strumento europeo a tutela dei dati personali), alla recente proposta da parte del Consiglio e del Parlamento europeo di regolamento in materia di IA. Ma anche le istituzioni del Consiglio d’Europa sono molto attive su questo fronte. Particolarmente interessanti risultano, per esempio, l’esperimento della “Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi giudiziari e in ambiti connessi” elaborata dalla Commissione per l’Efficienza della Giustizia (CEPEJ) nel 2018, ma anche lo studio dottrinale “Algorithms and human rights” del 2017, redatto dal comitato di esperti sull’intelligenza artificiale. Data l’importanza di tali questioni, inoltre, nel 2020 è stato fondato il CAHAI, il comitato ad hoc sull’intelligenza artificiale, con l’obiettivo di elaborare un quadro giuridico per lo sviluppo, la progettazione e l'applicazione dell'intelligenza artificiale basato sulle norme del Consiglio d'Europa sui diritti umani, la democrazia e lo stato di diritto.

Chiaramente, lo scopo di tutte queste misure non è quello di porre un freno allo sviluppo tecnologico (cosa che, peraltro, sarebbe di fatto impossibile), ma dirigerlo nella giusta direzione, così che si possano sfruttare i potenziali benefici, limitandone al contempo le conseguenze negative.

Lungo la stessa linea si pone anche il recente report elaborato dall’Alto Commissario delle Nazioni Unite per i diritti umani, pubblicato il 13 settembre 2021 con il titolo “Il diritto alla privacy nell’era digitale”.

Si tratta del terzo rapporto elaborato in materia sotto l’impulso del Consiglio dei diritti umani: gli altri due erano stati pubblicati, con lo stesso titolo, rispettivamente nel 2014 e nel 2018.

Nonostante dal titolo potrebbe sembrare diversamente, il contenuto del documento non tratta di tutti i generi di tecnologie digitali, ma solo di intelligenza artificiale (IA), e soprattutto delle tecniche di profiling, di decisione automatica e apprendimento automatico, con particolare attenzione ai rischi per il godimento del diritto alla privacy e agli altri diritti associati.

Il report è strutturato in cinque parti: (I) un’introduzione; (II) una panoramica sul quadro giuridico internazionale in materia di privacy; (III) un approfondimento relativo agli aspetti dell’IA che rischiano di creare interferenze con il godimento dei diritti umani, con esempi relativi a quattro settori chiave; (IV) alcuni principi generali che devono informare l’azione degli Stati in materia; (V) un elenco di raccomandazioni volte a prevenire e ridurre al minimo gli esiti dannosi dell’IA, rivolti sia agli Stati che alle imprese commerciali operanti nell’ambito in questione.

La terza sezione si intitola “Impatti dell’IA sul diritto alla privacy e sugli altri diritti umani”, e si apre con una panoramica delle caratteristiche rilevanti dei sistemi di IA e delle loro possibili interferenze con il diritto alla privacy e altri diritti connessi. Il rapporto evidenzia le specifiche caratteristiche collegate al funzionamento dei sistemi di IA: per esempio, il fatto che gli strumenti per funzionare necessitano di essere “alimentati” da milioni di dati, molti dei quali rientranti nella categoria dei “dati personali” o, addirittura, dei “dati sensibili”, con tutti i problemi che derivano dalla loro raccolta, archiviazione e circolazione; poi, il problema della black box, ovvero dell’opacità degli algoritmi, il cui funzionamento non consente di conoscere il procedimento che li conduce a un determinato risultato, elemento che può costituire un problema soprattutto negli impieghi in contesti decisionali, per esempio nell’ambito delle pubbliche amministrazioni; e anche il fatto che gli strumenti non sono, a differenza di quanto si potrebbe pensare, infallibili, ma al contrario sono spesso gravati da bias, dipendenti da errori di programmazione, dall’utilizzo di dati non rappresentativi, o anche dall’inevitabile elaborazione di false correlazioni statistiche.

A seconda degli usi, inoltre, l’IA può dare adito ad ulteriori problematiche: i cosiddetti “algoritmi predittivi”, per esempio, sono in grado di effettuare deduzioni su preferenze, caratteristiche, stato di salute di ognuno. Il pericolo, quindi, è che possano essere utilizzati per prevedere ed influenzare il comportamento di individui o gruppi di persone.

Elaborata questa panoramica delle caratteristiche dei sistemi di IA, il report passa a descrivere gli specifici problemi che possono sorgere dal loro impiego in alcuni “settori chiave”: si tratta degli usi nell’ambito della sicurezza (attività di polizia, sicurezza nazionale, giustizia penale e gestione delle frontiere); dei servizi pubblici; del lavoro, e infine della gestione delle informazioni online.

È interessante notare come, in ognuno di questi ambiti, il documento sottolinei più volte l’esistenza di possibili problemi relativi, oltre che alla privacy, al principio di non discriminazione: tale elemento dipende direttamente dalle caratteristiche di funzionamento degli strumenti di machine learning che, al fine di elaborare previsioni, “classificano” gli individui in gruppi, riproducendo i pattern contenuti nei dati inseriti in input. Dal metodo statistico utilizzato derivano inevitabili generalizzazioni che possono essere, in alcuni casi, molto pericolose. Per esempio, moltissimi software di polizia predittiva e di previsione della recidiva utilizzati negli Stati Uniti sono risultati discriminatori nei confronti di individui afroamericani, probabilmente a causa della sovra-rappresentazione di tale gruppo etnico nelle carceri americane.

Sempre per quanto riguarda l’uso dei software di IA in ambito sicuritario, il report sottolinea anche preoccupazioni relative, tra le altre, alla tenuta del diritto all’equo processo e della libertà da arresti e detenzioni arbitrarie, sottolineando soprattutto i rischi insiti nell’uso delle tecnologie di riconoscimento biometrico.

Nel contesto della gestione delle informazioni online, invece, evidenzia la necessità di prestare particolare attenzione alle tecniche di profiling e targeting delle informazioni, spesso lesive delle libertà di opinione ed espressione.

Dopo la quarta parte del report, intitolata “affrontare le sfide” e dedicata all’individuazione di principi generali volti a creare un approccio human rights-based all’intelligenza artificiale, il documento si conclude con un elenco di suggerimenti e raccomandazioni. Alcune sono rivolte agli Stati: tra queste, garantire che l’uso dell’IA sia conforme a tutti i diritti umani e che ogni eventuale interferenza sia prevista dalla legge, persegua uno scopo legittimo e sia conforme ai principi di necessità e proporzionalità; vietare espressamente tutte le applicazioni di IA che non possono essere gestite in conformità con i diritti umani, nello specifico le tecnologie di riconoscimento biometrico negli spazi pubblici, almeno fino a quando le autorità responsabili non saranno in grado di dimostrarne il rispetto della privacy e l’assenza di impatti discriminatori; garantire che ogni vittima di violazione abbia accesso a specifici rimedi; tutelare da possibili discriminazioni anche attraverso l’imposizione di controlli sugli algoritmi; e richiedere la spiegazione di tutte le decisioni operate dall’intelligenza artificiale. 

Altre raccomandazioni sono indirizzate contemporaneamente agli Stati e alle imprese commerciali produttrici dei software. Ad essi si richiede un particolare sforzo in materia di due diligence, e si sottolinea l’importanza di garantire trasparenza, trasparenza dei procedimenti e partecipazione di tutte le parti interessate alle decisioni in materia.

Si tratta grossomodo delle stesse raccomandazioni rivolte alle imprese commerciali, a cui si richiede specificamente di prevedere efficaci strumenti di reclamo idonei a fornire adeguata tutela in casi di violazioni dei diritti umani.

In conclusione, si può affermare che il report presenta senza dubbio il pregio di offrire una buona panoramica dei principali problemi che l’intelligenza artificiale può provocare per il godimento dei diritti umani.

L’impressione, però, è quella di un documento che, a causa forse dell’adozione di un focus molto ampio, risulta non esauriente e piuttosto generico, soprattutto nella parte delle raccomandazioni (a eccezione soltanto di quella relativa al divieto di utilizzo di dispositivi biometrici in spazi pubblici). Si tratta infatti di suggerimenti e raccomandazioni che sono, per quanto di assoluto buon senso, molto generali, e che non danno alcuna indicazione utile alle imprese commerciali che intendano implementare i propri software nel rispetto dei diritti umani o agli Stati che intendano elaborare un quadro giuridico in materia.

Affinché si possano elaborare indicazioni più mirate, sarebbe sicuramente utile, in futuro, elaborare studi e documenti dotati di un raggio meno esteso, per esempio con trattazioni divise per ambiti di applicazione. Tuttavia, è importante rilevare in senso assolutamente positivo il lavoro che a livello internazionale e regionale è stato attivato al fine di valutare l’impatto delle nuove tecnologie sui diritti umani.

Francesca Ceresa Gastaldo

Studentessa del Master in Tutela internazionale dei diritti umani “Maria Rita Saulle”

Link utili: 

reports dell’Alto commissariato per i diritti umani sul diritto alla privacy nell’era digitale: https://www.ohchr.org/EN/Issues/DigitalAge/Pages/DigitalReports.aspx

Il sito del CAHAI: https://www.coe.int/en/web/artificial-intelligence/cahai

La proposta di regolamento europeo sull’intelligenza artificiale: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:52021PC0206

2018  ©  Sapienza Università di Roma