Elon Musk e un gruppo di esperti di intelligenza artificiale chiedono uno stop di almeno sei mesi allo sviluppo di sistemi più potenti di Gpt-4, strumento appena lanciato da OpenAI.
Il miliardario è tra gli oltre 1.000 firmatari di una lettera pubblicata dal Future of Life Institute – un’organizzazione nata nel 2015 per “indirizzare le tecnologie in grado di trasformare il mondo verso un beneficio per la vita e lontano da rischi estremi su vasta scala” – in cui vengono citati potenziali rischi per la società e l’umanità. “I potenti sistemi di Ia dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili”, si legge nella lettera.
Da Elon Musk a Steve Wozniak
Tra i firmatari, oltre a Musk, ci sono Steve Wozniak, co-founder di Apple, Jaan Tallinn, co-founder di Skype, Emad Mostaque, ceo di Stability, oltre a esperti di intelligenza artificiale come Yoshua Bengio e Stuart Russell. Fuori dall’elenco invece Sam Altman, ad di OpenAI, come ha dichiarato a Reuters un portavoce di Future of Life.
“La lettera non è perfetta, ma lo spirito è quello giusto. Dobbiamo rallentare fino a quando non avremo compreso meglio le implicazioni”, ha detto Gary Marcus, professore emerito della New York University che ha firmato la lettera. “I grandi operatori stanno diventando sempre più riservati su ciò che fanno, il che rende difficile per la società difendersi da qualsiasi danno possa materializzarsi”.
Nell’elenco dei firmatari ci sono anche italiani come Gianluca Bontempi, professore ordinario di machine learning alla Université Libre de Bruxelles, il ricercatore Alessandro Perilli, professore della Orebro University e membro dell’Association for Artificial Intelligence, e Domenico Talia, professore dell’Università della Calabria.
LEGGI ANCHE: Elon Musk sfida Sam Altman: il miliardario vorrebbe creare un’alternativa a ChatGpt
“Serve collaborazione tra politici e sviluppatori”
Nel documento si chiede di sospendere lo sviluppo dell’Ia avanzata fino a quando non saranno implementati e verificati protocolli di sicurezza condivisi per tali progetti. La lettera illustra inoltre i potenziali rischi in ambito economico e politico e invita gli sviluppatori a collaborare con i politici in materia di governance e regolamentazione.
Alle preoccupazioni di Musk, che sta utilizzando l’Ia per il sistema di pilota automatico di Tesla, si è aggiunta l’Europol, la polizia dell’Ue, che ha messo in guardia sul potenziale uso improprio del sistema nei tentativi di phishing, disinformazione e criminalità informatica.
Dal giorno del suo rilascio, ChatGPT di OpenAI, sostenuto da Microsoft, ha spinto le aziende ad accelerare lo sviluppo di modelli linguistici simili e a integrare modelli di AI nei loro prodotti.
Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .
Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .