Articolo apparso sul numero di aprile 2024 di Forbes Italia. Abbonati!
L’Europa ha conquistato il primato mondiale sull’intelligenza artificiale, ma sulle regole. E finora sembra preoccuparsi meno della partita tecnologica ed economica che si gioca fra Stati Uniti e Cina, con un nuovo terzo incomodo che si chiama Arabia Saudita. Il controllo degli algoritmi, che ci stanno illudendo di poter fare (quasi) tutto quel che fanno gli esseri umani, in un mondo sempre più digitalizzato è ormai una questione geopolitica, di equilibri di potere fra chi investe di più sullo sviluppo dei cosiddetti llm, i large language model che sono alla base di ChatGPT o Gemini, e sulle infrastrutture per farli funzionare.
“L’Europa ha deciso di fare l’arbitro nella partita fra Stati Uniti e Cina. Ma l’arbitro non vince mai”, è l’immagine proposta sui giornali e in tv da Alec Ross, già consulente per la tecnologia di Barack Obama, oggi venture capitalist e docente alla Bologna Business School. Dopo che il 13 marzo il Parlamento Europeo ha approvato a larga maggioranza l’AI Act, il primo corpus normativo al mondo sull’intelligenza artificiale (oltre 450 pagine, 113 articoli e 13 allegati), si è aperto il dibattito fra chi festeggia la “svolta storica”, che porta finalmente regole per frenare gli eccessi della tecnologia, e chi la considera la conferma di una battuta che circola nella Silicon Valley: “America innovates, China replicates, Europe regulates”. L’America innova, la Cina replica, l’Europa regola.
Privacy ed etica
L’AI Act tenta di trovare un punto di equilibrio fra l’innovazione senza limiti e la tutela dei diritti fondamentali, a cominciare dalla privacy dei cittadini. In sintesi, suddivide le applicazioni di intelligenza artificiale in quattro categorie di rischio, da minimo a inaccettabile, prevedendo diversi livelli di intervento, fino al divieto per quelli ritenuti pericolosi per la società, come i sistemi di sorveglianza basati su riconoscimento facciale in tempo reale. Viene poi attribuita la responsabilità dei modelli di IA alle aziende che li producono, importano e distribuiscono, con pesanti sanzioni pecunarie.
“Quando abbiamo sviluppato macchine più veloci degli uomini – le automobili – abbiamo scritto il Codice della strada non per limitare la libertà delle persone o per uccidere il mercato dell’auto, ma per evitare incidenti in cui la macchina producesse vittime umane”, ha scritto su Avvenire Paolo Benanti, consigliere di Papa Francesco sull’intelligenza artificiale, unico italiano nel New Artificial Intelligence Advisory Board creato dalle Nazioni unite e presidente della Commissione sull’intelligenza artificiale per l’informazione di Palazzo Chigi. “L’AI Act è come il Codice della strada, una protezione di ciò che veramente vale: la vita e la libertà degli europei”. Ineccepibile, tanto che, sempre a marzo, è arrivato il primo documento delle Nazioni unite sul tema: una risoluzione, proposta dagli Stati Uniti e approvata dall’Assemblea generale dell’Onu, che chiede standard per affrontare i rischi dell’intelligenza artificiale.
I dubbi
Anche gli esperti di diritto, però, hanno qualche dubbio. Per esempio su tempi: l’AI Act entrerà in vigore 20 giorni dopo la pubblicazione sulla Gazzetta Ufficiale (prevista in maggio) e sarà pienamente applicabile dopo 24 mesi, addirittura in qualche caso (gli obblighi sui sistemi ad alto rischio) dopo 36. La norma rischia di nascere obsoleta, quindi, vista la velocità con cui evolve la tecnologia. “È molto probabile che ci saranno criticità applicative e che, tra qualche tempo, ci sarà bisogno di modifiche sia per adeguare le regole ai mutamenti della tecnologia, sia per correggere quello che non avrà funzionato. Le norme e il diritto funzionano così”, spiega Ernesto Belisario, senior partner dello studio E-Lex, che all’intelligenza artificiale dedica una newsletter. “La vera sfida adesso è scrivere norme che funzionino”.
Appunto. Per far funzionare l’AI Act, che dovrà essere recepito dagli stati dell’Ue con una legge specifica e ‘sorvegliato’ da un’autorità dedicata, ci saranno un Consiglio dell’AI, dove saranno rappresentati tutti i paesi membri, un comitato di consulenti tecnici, uno di scienziati ed esperti e un AI Office, nuova costola della direzione generale Connect (che si occupa del digitale). Totale: circa 100 persone a regime, con un investimento di 10 milioni di euro. I bandi sono già aperti. Si può quindi comprendere la preoccupazione degli imprenditori: temono che la nuova impalcatura normativa freni lo sviluppo di una tecnologia che, secondo la recente Technology Vision di Accenture, a livello globale potrebbe generare un valore fra i 6mila e gli 8mila miliardi di dollari. Più di 150 manager, tra cui gli amministratori delegati di Renault, Siemens e Orange, hanno firmato una lettera aperta per esprimere “seria preoccupazione” sull’AI Act. Il timore? La sovra-regolamentazione, con un appesantimento di costi e rischi per le aziende che usano gli strumenti di intelligenza artificiale.
Il confronto
Certamente dare la colpa agli avvocati, ai filosofi e ai burocrati dei ritardi dell’Europa negli investimenti sull’intelligenza artificiale è una semplificazione, ma il confronto è clamoroso. I dati sono instabili, ma servono a dare un’idea sugli ordini di grandezza: circa 100 miliardi l’anno negli Stati Uniti, quasi 40 in Cina, mentre l’Unione europea pensa di cavarsela con 10 miliardi in dieci anni (e in Italia si parla di un fondo dedicato da 1 miliardo). Intanto, secondo una rivelazione del New York Times, il governo dell’Arabia Saudita starebbe per creare un fondo di circa 40 miliardi di dollari dedicato agli investimenti in intelligenza artificiale in collaborazione con Andreessen Horowitz, uno dei più prestigiosi e ricchi fondi di venture capital statunitensi. Quando accadrà, il regno diventerà uno dei maggiori investitori del mondo in IA. E l’Europa resterà la pioniera delle regole, rischiando di perdere la partita più importante sull’intelligenza artificiale: quella della ricerca e dell’innovazione, nonostante abbia più abitanti e un Pil più alto dell’Arabia Saudita. Ma è un’unione che non funziona come uno stato.
Alfonso Fuggetta, amministratore delegato del centro di ricerca Cefriel, che ha appena pubblicato il libro Alla ricerca del buon management. Esperienze e metodi per una cultura dell’innovazione, ha posto su Medium una domanda: “Perché per l’IA ci preoccupiamo degli aspetti etici, mentre nulla si è mai detto delle altre tipologie di sistemi software? A me pare che chi sta decidendo su questi temi non sappia cosa siano un’applicazione informatica, un prodotto software, e pensa che l’IA sia quella di Star Wars e Star Trek. Ci stiamo comportando in modo fanciullesco, immaturo, superficiale. Stiamo trasformando una tecnologia certamente potente e utile in una sorta di feticcio o pietra filosofale, o, peggio, in una barzelletta”.
Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .
Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .