OpenAI ha fatto sapere che sta allestendo un team, chiamato Preparedness, per supervisionare e valutare lo sviluppo di “modelli di frontiera di intelligenza artificiale”, ovvero modelli con grandi capacità, ma anche abilità potenzialmente pericolose. Il gruppo dovrà vigilare sui “rischi catastrofici” che riguardano questioni come la sicurezza informatica e le minacce nucleari.
I fatti chiave
- Il team, che fa parte di OpenAI, dovrà monitorare i modelli di intelligenza artificiale per mantenerli in linea con i parametri di sicurezza che la società dichiara di voler rispettare.
- Tra gli esempi di rischio citati in un post sul blog dell’azienda c’è quello che i modelli di IA riescano a persuadere gli utenti umani a fare qualcosa o possano svolgere compiti in autonomia.
- La società vuole anche fare attenzione a quelli che alcuni esperti di intelligenza artificiale hanno definito minacce da “estinzione”, come pandemie e guerre nucleari.
- Preparedness sarà guidata da Aleksander Madry, che è il direttore del Center for Deployable Machine Learning del Mit, ma ora è in congedo per lavorare a OpenAI.
- Un’altra missione del team è la creazione e il mantenimento di “una politica di sviluppo consapevole dei rischi”, che delineerà il modo in cui l’azienda dovrà gestire i pericoli posti dai modelli di intelligenza artificiale via via che progrediscono e si avvicinano all’”intelligenza artificiale generale”, cioè a una conoscenza vicina a quella umana.
- OpenAI sta anche organizzando una sfida rivolta a persone esterne all’azienda, in cui le inviterà a mandare idee sui possibili modi in cui l’intelligenza artificiale può essere usata in modo improprio e provocare danni nel mondo reale.
Il contesto
A maggio i vertici di OpenAI, incluso l’amministratore delegato, Sam Altman, il chief scientist, Ilya Sutskever, e il chief technology officer, Mira Murati, hanno firmato una lettera assieme ad altri esperti di intelligenza artificiale per sottolineare l’importanza di affrontare i rischi dei modelli avanzati. La lettera ha fatto seguito a un’altra, pubblicata a marzo, di esperti di intelligenza artificiale e dirigenti di aziende tecnologiche, tra cui Elon Musk, che sono preoccupati per il rapido progresso dell’IA e hanno chiesto una sospensione di sei mesi nello sviluppo della tecnologia.
In un’intervista concessa a marzo a Abc News, Altman si è detto “particolarmente preoccupato” dalla possibilità che i modelli avanzati di intelligenza artificiale “vengano usati per produrre disinformazione su larga scala”, ma ha ribadito la convinzione che lo sviluppo della tecnologia sia importante per l’umanità. Se è vero che ChatGPT, dopo la sua apertura al pubblico nel novembre 2022, ha conquistato il mondo superando esami e scrivendo saggi, è anche vero che il chatbot, assieme a tanti suoi simili, ha contribuito a diffondere disinformazione e ha prodotto conversazioni bizzarre.
Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .
Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .