Intelligenza artificiale: è questione di responsabilità

L’intelligenza artificiale generativa e conversazionale è “una innovazione che impone l’evoluzione etica delle persone. Abbiamo bisogno di una collaborazione internazionale tra gli Stati, le imprese e gli stessi scienziati.” Queste parole di Martin Hellman, uno dei padri della crittografia moderna e premio Turing (Nobel per l’informatica) nell’intervista pubblicata da Il sole 24 ore hanno autorevolmente confermato l’approccio decisivo per affrontare l’impatto che questa nuova versione di intelligenza artificiale sta avendo (e soprattutto “minaccia” di avere) sulla vita di tutti nei prossimi anni. Un approccio che si riassume in una sola parola: responsabilità.

Naturalmente, la prima quota di responsabilità riguarda i programmatori che realizzano concretamente software di intelligenza artificiale e prima ancora coloro i quali li finanziano e investono su questa tecnologia. Tuttavia è davvero pensabile che chi sta investendo miliardi in questo settore lo faccia uscendo da una concezione ristretta del profitto e assumendosi una quota di quella che mi piace chiamare “responsabilità sociale aumentata”, sul modello di quella realtà aumentata che si ottiene sovrapponendo le informazioni digitali agli oggetti del mondo fisico?

Alla fine di luglio, due notizie hanno aperto uno spiraglio in questa direzione. Il 20 luglio i leader di Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – le maggiori società impegnate a creare software di intelligenza artificiale generativa e conversazionale – hanno preso con il presidente Usa Joe Biden, sei impegni “responsabili”.

Queste aziende si sono impegnate a: testare la sicurezza dei prodotti, anche a opera di esperti indipendenti; condividere le informazioni col governo; garantire ai consumatori la possibilità di identificare facilmente i contenuti prodotti dalI’AI; rendere pubbliche capacità e limitazioni dei loro sistemi; mettere a disposizione della società strumenti per affrontare le sfide globali più gravi; condurre ricerche sui rischi per la privacy e le discriminazioni. Sono impegni che hanno molto in comune con i sei principi guida della legge sull’intelligenza artificiale approvata il 14 giugno dal Parlamento europeo e ora in attesa del passaggio al Consiglio dei capi di stato e di governo: controllo e supervisione umani; solidità tecnica e sicurezza; privacy e governance dei dati; trasparenza e tracciabilità; parità di accesso, non discriminazione ed equità; benessere sociale e ambientale. Naturalmente non possiamo escludere che l’accordo con la presidenza USA sia un’escamotage, una tattica per prendere tempo e magari scongiurare un forte intervento legislativo. Tuttavia, la sostanza resta. Inoltre quattro di queste aziende – Anthropic, Google, Microsoft e OpenAI – il 26 luglio hanno annunciato la creazione del Frontier Model Forum per garantire lo sviluppo sicuro e responsabile dei modelli di intelligenza artificiale. Gli obiettivi principali di questo forum confermano gli impegni assunti con il presidente Biden: ridurre al minimo i rischi, consentire valutazioni indipendenti, identificare le migliori pratiche per lo sviluppo responsabile e l’implementazione di modelli sicuri di AI. Oltre a questo, il Frontier Model Forum aiuterà il pubblico a comprendere natura, capacità, limiti e impatto della tecnologia e collaborerà con legislatori, accademici, società civile e aziende per condividere le conoscenze.

Tutto questo però è solo una parte della questione, la prima faccia della medaglia, perché la responsabilità non riguarda solo queste grandi aziende o i decisori politici. Peraltro l’intelligenza artificiale è stato uno dei temi principali affrontati al recente G7 in Giappone e lo sarà anche a quello a guida italiana in programma il prossimo anno in Puglia. Davanti alle prospettive aperte dall’impatto dell’intelligenza artificiale generativa non possiamo limitarci al ruolo di spettatori. La responsabilità tocca anche te e me, ci coinvolge tutti. Nella prossima puntata vedremo perché e come. (1.continua)

Antonio PALMIERI, Fondatore e presidente Fondazione Pensiero Solido

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *