Sam Altman OpenAI
Tech

Tra sicurezza e innovazione: la difficile ricerca di equilibrio sull’intelligenza artificiale

Articolo tratto dal numero di dicembre 2023 di Forbes Italia. Abbonati!

C’è chi immagina uno scenario alla Terminator: un’intelligenza artificiale che sfugge al controllo dell’umanità, la supera in astuzia e diventa crudele. In questa distopia, le macchine potrebbero impossessarsi di computer e fabbriche, e magari riempire il cielo di droni assassini. È la minaccia “esistenziale”, di cui parlano, tra gli altri, Bill Gates, Elon Musk e il filosofo Nick Bostrom. Ne ha discusso anche Sam Altman, fondatore di OpenAI. Ed è abbastanza sorprendente, perché la società che ha creato ha sviluppato ChatGPT, cioè l’ultimo ritrovato di intelligenza artificiale generativa. Che vuol dire? In poche parole, si tratta di macchine che, grazie a processi di machine learning e deep learning, sono in grado di produrre contenuti nuovi, imitando in modo credibile l’essere umano. Riescono a farlo setacciando e combinando la gigantesca mole di dati (parole, suoni, immagini) disponibile su internet. ChatGPT ogni tanto risponde con sciocchezze, ma spesso è impressionante. E una manciata di aziende americane ha pronti sistemi altrettanto raffinati.

Dobbiamo davvero temere che queste tecnologie ci uccidano? Lo scenario Terminator sembra improbabile. Questo perché anche l’intelligenza artificiale più avanzata non è dotata di coscienza, né di desideri o di emozioni. Una specie di idiota sapiente, da una parte abilissimo, dall’altra totalmente all’oscuro di ciò che sta facendo. Oggi non esistono macchine capaci di simulare coscienza e volontà di un essere umano. Ma ci sono ricercatori che ci stanno lavorando. La chiamano intelligenza artificiale generale (artificial general intelligence, Agi).

Un sondaggio del 2020 ha contato 72 progetti di ricerca in 37 nazioni. L’obiettivo è replicare l’intelligenza umana, i meccanismi con cui comprende, apprende e applica la conoscenza, ma con capacità cognitive molto superiori alle nostre. Grandi promesse, però anche grandi rischi, avvertono Musk e Altman. In poche parole, secondo loro, il genio potrebbe uscire fuori dalla lampada. È ciò che intende Musk quando afferma che sviluppare le Agi equivale a “evocare il demonio”. Eppure, stando a molti scienziati informatici, l’idea che le macchine possano finire per divorarci è fantascientifica.

Lo scenario Terminator preoccupa poco anche gli stessi inventori del deep learning. Secondo Andrew Ng, ex responsabile dell’intelligenza artificiale di Google, sarebbe come angosciarsi del “sovrappopolamento di Marte”. Altman gli ha risposto così: “Alcuni di voi credono che i rischi siano immaginari. Spero che abbiate ragione. Noi però agiremo come se i rischi legati ad Agi e ai sistemi successivi fossero reali ed esistenziali”.

“Dovremmo preoccuparti tutti”

La verità è che nessuno conosce il futuro. Il progresso tecnico potrebbe rendere credibile un quadro che oggi ci appare assurdo. Alcuni, però, insinuano che dietro i timori di catastrofe ci sia una certa dose di ipocrisia. Da una parte servono a giustificare la natura non open source di certi modelli di intelligenza artificiale, come ChatGPT, dall’altra a sviare l’attenzione da rischi molto più concreti, come la disinformazione, la sorveglianza, la violazione di privacy e diritti d’autore. E da quello forse più preoccupante di tutti: la corsa all’uso dell’intelligenza artificiale come strumento di egemonia militare. In questi casi il pericolo non è una macchina che sfugge al controllo, ma l’essere umano che usa la tecnologia per scopi nocivi.

Gary Marcus, docente di neuroscienze alla New York University, ha aperto la sua testimonianza al Senato americano con lo stralcio di una notizia scritta da GPT-4, il modello di punta di OpenAI. Il testo affermava in modo convincente che parti del Congresso erano segretamente manipolate da entità extraterrestri. “Dovremmo tutti preoccuparci molto”, ha detto Marcus, “per sistemi che possono affabulare così”. Il pericolo è che questi sistemi finiscano nelle mani sbagliate. Un governo autoritario potrebbe usare modelli di intelligenza generativa per disinformazione e propaganda. In futuro, secondo alcuni scienziati, forme più avanzate di ChatGPT potrebbero fornire a bande criminali le competenze per creare armi informatiche devastanti o produrre nuovi agenti patogeni letali.

L’IA militare

Va detto poi che l’intelligenza artificiale è già usata negli eserciti regolari, come quello degli Stati Uniti. Le forze armate americane la sfruttano per ottimizzare qualsiasi cosa, dalla manutenzione delle attrezzature alle decisioni riguardo al budget. L’intelligence statunitense si serve dell’IA per scansionare in modo rapido montagne di dati e formulare risposte più efficaci. Possiamo aspettarci che nei prossimi anni l’IA cambi anche il modo in cui gli eserciti più sofisticati e i loro avversari combatteranno. È probabile che chi si porterà avanti nel campo dell’intelligenza generativa otterrà un vantaggio militare (ed economico) decisivo.

“Cercare di fermare il progresso sarebbe un errore”, ha scritto su Foreign Affairs Michèle Flournoy, ex sottosegretario americano alle politiche per la Difesa e oggi presidente del Center for New American Security. “La Cina lavora duramente per superare gli Usa in intelligenza artificiale applicata alla forza militare. Se ci riuscisse, disporrebbe di un esercito più potente e con più capacità nella guerra informatica contro di noi e i nostri alleati. Il Pentagono quindi deve accelerare – non rallentare – l’adozione dell’IA, altrimenti perderebbe la supremazia”.

La tesi di Henry Kissinger

Sempre su Foreign Affairs Henry Kissinger, il re del realismo politico americano scomparso da poco, si è dichiarato però molto preoccupato della diffusione dell’IA a scopi militari. Kissinger ha detto che negli ultimi due anni ha esplorato questo tema con un gruppo di leader della rivoluzione tecnologica e insieme hanno raggiunto una conclusione: “La prospettiva che l’avanzamento incontrollato dell’IA crei conseguenze catastrofiche per gli Stati Uniti e per il mondo è così convincente che i leader dei governi dovrebbero agire ora”.

Kissinger sosteneva che Stati Uniti e Cina avessero ancora una finestra stretta di opportunità per creare linee guida che impediscano i progressi e le applicazioni più pericolose dell’intelligenza artificiale. Anche Kissinger ha ammesso che c’è una grossa zona grigia sulle potenzialità di questa tecnologia e che nessuno ne conosce con precisione i reali pericoli. Quello che dovrebbero fare i governi, secondo Kissinger, è stabilire confini, limiti e aree di reciproco interesse, come accaduto negli anni della Guerra Fredda per le armi atomiche. Un esempio è il regime di non proliferazione stabilito nel 1968, quando 186 paesi promisero di astenersi dallo sviluppo dei propri arsenali nucleari. Anche Kissinger quindi si è schierato, pur con cautele e distinguo, tra coloro che temono l’apocalisse.

Gli effetti dell’intelligenza artificiale sul lavoro

Kissinger, però, non era infallibile. Forse esagerava, forse si sbagliava. Quel che è sicuro è che i governi non possono ignorare una tecnologia che ha il potenziale per cambiare profondamente il mondo e qualsiasi minaccia credibile per l’umanità deve essere presa sul serio. Questa volta tutti gli attori sembrano consapevoli della posta in gioco. Nessuno vuole tirarsi indietro o farsi trovare impreparato. La conseguenza è che gli sforzi per regolare l’IA abbondano. Né l’Unione Europea né gli Stati Uniti vogliono essere da meno rispetto alla Cina, che ha già adottato diverse leggi sull’intelligenza artificiale. Il buon senso, però, suggerisce di trovare un equilibrio: garantire la sicurezza senza soffocare l’innovazione. Questo perché l’IA più sofisticata si sta già rivelando un moltiplicatore della produttività del lavoro.

In uno studio della Harvard Business School è emerso che tra alcuni dipendenti di Boston Consulting Group, una società di consulenza, chi usava GPT-4, l’ultima e più avanzata offerta di OpenAI, si è dimostrato più efficiente dei colleghi non assistiti dalla tecnologia. Ha svolto le sue mansioni il 25% più in fretta, ha completato il 12% di attività in più e il suo lavoro è stato valutato anche di una qualità del 40% superiore. Ma non è facile orientarsi in una scienza in continuo divenire. Non passa un giorno senza che una startup proponga qualcosa di nuovo e nemmeno gli sviluppatori possono dire con certezza quali capacità avranno i loro sistemi di intelligenza generativa. Che cosa regolare, quindi?

Open source contro scatola nera

Secondo alcuni c’è il pericolo che i politici, agendo troppo in fretta, creino regole e istituzioni globali che mirano ai problemi sbagliati, inefficaci contro i veri rischi e dannose per le l’innovazione. Di solito le grandi società tecnologiche vogliono essere lasciate libere di sviluppare i propri prodotti, bloccando, per quanto possibile, eventuali concorrenti. Nel caso dell’intelligenza artificiale, però, hanno spinto anche loro per principi di controllo. Queste aziende, spiega chi conosce il settore, hanno chiesto regole limitate con un focus sui grandi rischi, i pericoli cosiddetti ‘esistenziali’. Evitare, dunque, che i modelli di intelligenza artificiale vengano usati per armi batteriologiche o per sferrare attacchi informatici o innescare crisi finanziarie. La maggior parte delle aziende ritiene che si debbano regolamentare le applicazioni dei modelli, non i modelli stessi (per modelli s’intendono piattaforme come ChatGPT).

C’è chi fa notare, però, che l’attenzione ai rischi estremi potrebbe rendere i regolatori diffidenti nei confronti dei modelli open source, che sono disponibili gratuitamente e possono essere facilmente modificati. Un tema di grande dibattito riguarda il metodo di diffusione dei modelli di IA più sofisticati. Devono essere sistemi chiusi o si può consentire alle società di rilasciarli in forma open source? Il Financial Times spiega che grandi aziende come Meta e startup come Hugging Face, Mistral e Stability AI stanno sviluppando sistemi di intelligenza artificiale open source, i cui dettagli tecnici saranno cioè resi pubblici. Ma ci sono altri concorrenti, ad esempio Google e OpenAI, sostenuta da Microsoft, che stanno adottando l’approccio opposto. La loro strategia è creare la cosiddetta ‘scatola nera’, cioè un sistema chiuso in cui i dati e il codice usato per sviluppare i modelli non sono accessibili a terzi. I modelli chiusi, affermano i loro sostenitori, sono più sicuri. Si possono controllare meglio e si può impedire che la tecnologia cada nelle mani sbagliate. Yoshua Bengio, pioniere del deep learning e direttore scientifico del Montreal Institute for Learning Algorithms, è d’accordo: “Rendere open source i modelli più potenti è pericoloso”.

In cerca di equilibrio

C’è il rovescio della medaglia: i modelli open source alimentano innovazione e concorrenza, perché consentono a paesi meno attrezzati e gruppi accademici di sviluppare i propri sistemi. Fino all’anno scorso, spiega l’Economist, i governi degli Stati Uniti, della Gran Bretagna e dell’Unione europea tendevano a una supervisione basata su usi e applicazioni dei modelli, non sul controllo dei modelli stessi. Ma si sono ricreduti di fronte all’ascesa fulminea dei large language model, cioè piattaforme di intelligenza generativa come ChatGPT o Stable Diffusion, in grado di produrre testi, video e suoni, con risultati molto realistici.

I governi si sono spaventati per il pericolo di frodi su larga scala, di disinformazione e di violazioni della privacy. Ora l’Ue, che sta finalizzando una legge sull’IA, si chiede se sia necessario supervisionare direttamente i modelli. Chiede che gli sviluppatori testino i modelli per valutarne l’impatto potenziale su tutto, dalla salute ai diritti umani, e vuole informazioni riguardo ai dati su cui i modelli vengono addestrati.

Anche l’America sembra essersi convertita a questo approccio. Joe Biden ha firmato un ordine esecutivo di più di 100 pagine per regolare il settore. C’è dentro tutto: sicurezza, concorrenza, protezione di privacy e diritti civili. Il decreto impone alle società di comunicare al governo le fasi di addestramento e sviluppo dei loro modelli e stabilisce che i più sviluppati dovranno essere testati per garantire che non possano produrre armi biologiche o nucleari. È allo studio un sistema di filigrana per distinguere immagini e testi manipolati. E ciò che fa l’America potrebbe dettare la linea al resto del mondo, perché è lì che finora si è sviluppata l’IA di frontiera.

© RIPRODUZIONE RISERVATA

Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .

Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .