Vincenzo Tiani, Ub Brussels Privacy Hub
Tech

L’appello di un gruppo di professori universitari europei sui pericoli dell’IA

Sono in tanti e da diverse angolature di visuale (istituzionale compresa) ad ammonire sui rischi nelle applicazioni di intelligenza artificiale, Non tanto e non solo per quello che oggi si vede (a cominciare dalle chat generative) ma soprattutto per quello che la crescita esponenziale lascia intravedere, con fondamentali quesiti etici a cui le istituzioni sono chiamate a dare risposte convincenti.

Quella che segue è la lettera/appello per l’approvazione di una valutazione d’impatto sui diritti fondamentali nella legge Ue sull’intelligenza artificiale. Firmato da un nutrito gruppo di universitari europei è indirizzato ai rappresentanti del Consiglio dell’Unione Europea, della Commissione europea e del Parlamento europeo, partecipanti al trilogo per la legge sull’intelligenza artificiale.

Ci siamo lasciati guidare in questo da Vincenzo Tiani, Ub Brussels Privacy Hub (Be), fra i promotori dell’iniziativa. C’è poco da commentare: leggere, metabolizzare e tenere gli occhi e le orecchie aperte.

L’appello

Noi, il sottoscritto gruppo di professori universitari, membri della comunità accademica, in collaborazione con società civile e altre istituzioni, vorremmo esprimere la nostra più profonda preoccupazione riguardo alle revisioni proposte per la legge Ue sull’intelligenza artificiale. In particolare, vi esortiamo ad adottare e rafforzare la disposizione contenuta nella versione del Parlamento europeo della legge sull’intelligenza artificiale in merito a una valutazione obbligatoria dell’impatto sui diritti fondamentali (Fria, fundamental rights impact assessment) per le istituzioni pubbliche e private che utilizzano tecnologie di intelligenza artificiale.

Una valutazione d’impatto sui diritti fondamentali solida e corretta dovrebbe basarsi sui seguenti quattro pilastri: 1) parametri chiari sulla valutazione dell’impatto dell’Ia sui diritti fondamentali; 2) trasparenza sui risultati della valutazione d’impatto attraverso sintesi pubbliche e significative; 3) partecipazione degli utenti finali interessati, soprattutto se in posizione di vulnerabilità; 4) coinvolgimento delle autorità pubbliche nel processo di valutazione d’impatto e/o nei meccanismi di audit.

Inoltre, riteniamo che il Fria debba essere coordinato con gli altri meccanismi di valutazione d’impatto già presenti nel progetto di legge sull’AI e in altri atti legislativi dell’Ue. Le autorità di vigilanza nazionali indipendenti potrebbero attuare i principi del Fria attraverso un quadro normativo chiaro e coerente, che permetta di comprenderne facilmente le procedure di adeguamento e prevederne gli effetti in caso di violazione. Ciò contribuirebbe a ridurre i costi e i tempi di adeguamento per le aziende che impiegano l’Ia.

In qualità di esperti in varie discipline, siamo testimoni dei profondi rischi che i sistemi di Ia possono comportare per i diritti fondamentali e della necessità di azioni ex-ante significative per mitigare tali impatti. L’inclusione di un solido meccanismo Fria all’interno della legge europea sull’intelligenza artificiale è una salvaguardia fondamentale contro i potenziali impatti negativi sui diritti fondamentali degli utenti finali, in particolare di coloro che si trovano in posizioni vulnerabili. Questa valutazione completa consente di esaminare sistematicamente l’impatto dei sistemi di Ia sui diritti fondamentali, garantendo responsabilità, trasparenza e un uso etico delle tecnologie di Ia.

Riteniamo che il Fria debba riguardare non solo le istituzioni pubbliche, ma anche le entità private che utilizzano l’Ia. Solo in questo modo possiamo garantire che tutte le organizzazioni, indipendentemente dalla loro natura, siano ritenute responsabili dei potenziali rischi e dell’impatto che i loro sistemi di Ia possono avere sugli individui e sulla società nel suo complesso, soprattutto considerando l’enorme impatto che gli sviluppatori e le imprese che usano l’Ia possono avere sui diritti fondamentali degli individui. Questo approccio stabilisce condizioni di parità, previene indebite concentrazioni di potere e favorisce una diffusione responsabile dell’Ia in tutti i settori.

Inoltre, esortiamo le istituzioni europee a garantire che il Fria sia trasparente, partecipativo e multidisciplinare. Il coinvolgimento di diverse parti interessate, tra cui organizzazioni della società civile, esperti, università e comunità emarginate, arricchirà il processo di valutazione e rafforzerà la legittimità del quadro normativo sull’Ia.
Infine, nell’affrontare la complessità dei rischi relativi ai diritti fondamentali, la valutazione del rischio dovrebbe essere uno strumento integrato con una distribuzione proporzionata degli oneri basata sul rischio effettivo introdotto nella società e sul potere dei singoli attori di gestire tale rischio, come generalmente accettato nella teoria giuridica del rischio.

I fornitori di IA dovrebbero quindi eseguire la valutazione generale di un prodotto/servizio di IA considerando tutti i suoi potenziali utilizzi, ma le entità che utilizzano tale prodotto/servizio in un determinato contesto e per scopi specifici dovrebbero integrare questa valutazione iniziale con l’analisi dell’impatto contestuale sui diritti fondamentali.

A questo proposito, l’obbligo di effettuare una valutazione d’impatto sarebbe in linea e integrerebbe altri obblighi di valutazione d’impatto più limitati e specifici che gli enti pubblici e privati dell’Ue sono già chiamati a fare in base ad altre normative (ad esempio, il Gdpr e il Digital Services Act), adottando un focus sulla varietà di impatti potenziali sui diritti fondamentali che i sistemi di IA ad alto rischio possono avere. Da questo punto di vista, la versione del Parlamento europeo della valutazione d’impatto sui diritti fondamentali dell’Ai Act si mostra coerente nel caso in cui un ente debba eseguire sia una valutazione d’impatto privacy (Dpia) che una Fria.

In conclusione, riteniamo che l’inclusione di una solida valutazione d’impatto sui diritti fondamentali all’interno dell’Ai Act e la sua armonizzazione nell’ambito del più ampio approccio basato sul rischio siano fondamentali per sostenere l’impegno dell’Unione Europea nei confronti dei diritti umani e dei suoi valori. Nei prossimi giorni pubblicheremo una relazione più dettagliata che illustrerà il nostro punto di vista sulle migliori pratiche per regolamentare le valutazioni d’impatto sui diritti fondamentali.

Bruxelles, 12 settembre 2023

 Gianclaudio Malgieri, Associate Professor of Law at Leiden University and Co-director of the Brussels Privacy Hub, The Netherlands

Alessandro Mantelero, Associate Professor of Law at Politecnico di Torino, Italy

 Vincenzo Tiani, VUB Brussels Privacy Hub (BE)

 

© RIPRODUZIONE RISERVATA

Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .

Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .