I fatti chiave
- Il team, che fa parte di OpenAI, dovrà monitorare i modelli di intelligenza artificiale per mantenerli in linea con i parametri di sicurezza che la società dichiara di voler rispettare.
- Tra gli esempi di rischio citati in un post sul blog dell’azienda c’è quello che i modelli di IA riescano a persuadere gli utenti umani a fare qualcosa o possano svolgere compiti in autonomia.
- La società vuole anche fare attenzione a quelli che alcuni esperti di intelligenza artificiale hanno definito minacce da “estinzione”, come pandemie e guerre nucleari.
- Preparedness sarà guidata da Aleksander Madry, che è il direttore del Center for Deployable Machine Learning del Mit, ma ora è in congedo per lavorare a OpenAI.
- Un’altra missione del team è la creazione e il mantenimento di “una politica di sviluppo consapevole dei rischi”, che delineerà il modo in cui l’azienda dovrà gestire i pericoli posti dai modelli di intelligenza artificiale via via che progrediscono e si avvicinano all’”intelligenza artificiale generale”, cioè a una conoscenza vicina a quella umana.
- OpenAI sta anche organizzando una sfida rivolta a persone esterne all’azienda, in cui le inviterà a mandare idee sui possibili modi in cui l’intelligenza artificiale può essere usata in modo improprio e provocare danni nel mondo reale.
Il contesto
A maggio i vertici di OpenAI, incluso l’amministratore delegato, Sam Altman, il chief scientist, Ilya Sutskever, e il chief technology officer, Mira Murati, hanno firmato una lettera assieme ad altri esperti di intelligenza artificiale per sottolineare l’importanza di affrontare i rischi dei modelli avanzati. La lettera ha fatto seguito a un’altra, pubblicata a marzo, di esperti di intelligenza artificiale e dirigenti di aziende tecnologiche, tra cui Elon Musk, che sono preoccupati per il rapido progresso dell’IA e hanno chiesto una sospensione di sei mesi nello sviluppo della tecnologia.
In un’intervista concessa a marzo a Abc News, Altman si è detto “particolarmente preoccupato” dalla possibilità che i modelli avanzati di intelligenza artificiale “vengano usati per produrre disinformazione su larga scala”, ma ha ribadito la convinzione che lo sviluppo della tecnologia sia importante per l’umanità. Se è vero che ChatGPT, dopo la sua apertura al pubblico nel novembre 2022, ha conquistato il mondo superando esami e scrivendo saggi, è anche vero che il chatbot, assieme a tanti suoi simili, ha contribuito a diffondere disinformazione e ha prodotto conversazioni bizzarre.