L’Intelligenza Artificiale lede i diritti umani?

Trasformare l’Intelligenza Artificiale etica in realtà, implica valutare i rischi dell’IA nel contesto, in particolare in termini di impatto sui diritti civili e sociali e quindi, a seconda del rischio valutato, definire standard o regolamentare la progettazione etica, lo sviluppo e l’implementazione dei sistemi algoritmici. Questo è l’obiettivo di questo manuale introduttivo del Consiglio d’Europa e dell’Alan Turing Institute, «Intelligenza artificiale, diritti umani, democrazia e stato di diritto: un primer».

Una iniziativa chiave, in tale processo, è stata lo studio di fattibilità elaborato e approvato dal Comitato ad hoc sull’intelligenza artificiale (Cahai) del Consiglio d’Europa, che esplora le opzioni per una risposta legale internazionale, basata sugli standard del Consiglio d’Europa nel campo dell’intelligenza artificiale, dei diritti, della democrazia e dello stato di diritto: esso propone nove principi e priorità i quali ben si adattano alle nuove sfide poste dalla progettazione, sviluppo e implementazione di sistemi di Intelligenza Artificiale. Una volta codificati in legge, questi principi e priorità creano una serie di diritti e obblighi interconnessi che lavoreranno per garantire che la progettazione e l’uso delle tecnologie di intelligenza artificiale siano conformi ai valori dei diritti umani, della democrazia e dello stato di diritto.

La questione chiave è se esistano risposte ai rischi e alle opportunità specifici, presentati dai sistemi di IA, che possano e debbano essere affrontati mediante l’uso di strumenti giuridici internazionali vincolanti e non vincolanti, per mezzo dell’agenzia del Consiglio d’Europa, la quale è custode della Convenzione Europea sui Diritti Umani, della Convenzione 108+, che tutela il trattamento dei dati personali, e della Carta Sociale Europea.

«Tutti i diritti umani sono universali, indivisibili, interdipendenti e interconnessi» (Dichiarazione di Vienna delle Nazioni Unite, 1993).

L’insieme dei principi che costituiscono i diritti umani può essere suddiviso in due gruppi: diritti civili e politici e diritti culturali sociali ed economici. Oltre a valutare le caratteristiche tecniche di un particolare sistema o tecnologia, la responsabilità dell’IA richiede che consideriamo attentamente anche i potenziali danni e benefici verso individui e gruppi. Tra i potenziali danni vi è un pregiudizio ingiusto, che può verificarsi esplicitamente, ad esempio quando i modelli di IA fanno previsioni discriminatorie o trattano in altro modo un particolare gruppo demografico o identità in modo diverso da altri senza giustificazione. Valutare i sistemi di Intelligenza Artificiale per il loro potenziale di causare danni è reso più difficile dall’opacità di alcuni sistemi di Intelligenza Artificiale. Oltre ad essere costruito utilizzando conoscenze specializzate, il lavoro delle tecnologie di intelligenza artificiale può essere difficile da interpretare o spiegare a causa della sua complessità tecnica e delle protezioni della proprietà intellettuale.

I diritti identificati potrebbero essere: attinti direttamente dai diritti esistenti; diritti di nuova costituzione adattati alle sfide e alle opportunità sollevate dall’IA; rappresentativi di ulteriori chiarimenti sui diritti esistenti. Ad ogni diritto dovrebbe essere connesso un obbligo, per esempio: dignità umana se c’è rischio che la macchina violi la dignità, tale compito va demandato all’uomo. Elementi principali di un approccio basato sul rischio e attento ai vantaggi dovrebbero: tenere conto di utilizzare il contesto e l’impatto potenziale della tecnologia IA; considerare il dominio di applicazione e stakeholder interessati; valutare e rivedere i rischi regolarmente e sistematicamente, ottimizzando i benefici ed attenuando i rischi; si auspica pertanto, nel capitolo 7, l’adozione di adeguati meccanismi di conformità: «Esistono numerosi meccanismi pratici progettati per supportare e garantire la conformità, tra cui le due diligence sui diritti umani, le valutazioni d’impatto, la certificazione e gli standard, l’audit e il monitoraggio e persino le sandbox normative.

Attraverso: valutazione dinamica (non statica) all’inizio e durante tutto il ciclo di vita del progetto AI per tenere conto del processo decisionale in corso; i meccanismi dovrebbero essere tecnologia adattiva per sostenere gli sforzi a prova di futuro; i processi e gli output dei meccanismi dovrebbero essere accessibili in modo differenziato e comprensibile ad esperti e non esperti per sostenere ricorsi e rimediare; ci dovrebbe essere controllo indipendente da parte dell’organo o del soggetto competente (es. revisore dei conti) basato sull’evidenza di standard tecnici, certificazioni e pratiche da utilizzare.

Avvocato Raffaella AGHEMO

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *