Ci sono quattro dipendenti di OpenAI, che hanno preferito restare anonimi, e sette ex dipendenti, di cui due anonimi. Poi due scienziati di Google DeepMind, di cui uno ancora in azienda. In tutto, 13 esperti di intelligenza artificiale hanno firmato una lettera aperta con cui denunciano la scarsa attenzione alla sicurezza e la cultura della segretezza delle grandi imprese del settore.
La lettera racconta anche di come queste società facciano firmare ai dipendenti in uscita accordi di ‘non-denigrazione’ che impediscono di parlare male dell’azienda, pena la perdita delle quote azionarie maturate.
Che cosa hanno scritto i dipendenti di OpenAI e Google DeepMind
I firmatari della lettera scrivono che l’IA “può garantire all’umanità benefici senza precedenti”, ma pone anche rischi che “vanno dall’ulteriore consolidamento delle disuguaglianze esistenti a manipolazione e disinformazione, fino alla perdita di controllo dei sistemi autonomi di IA, che potrebbero avere come risultato l’estinzione del genere umano”.
Gli esperti aggiungono che “le aziende di intelligenza artificiale hanno forti incentivi finanziari a evitare un reale controllo” e dicono di non credere che “strutture di corporate governance su misura siano sufficienti a cambiare tutto questo”.
Le aziende, si legge in un altro passo, “possiedono importanti informazioni non pubbliche sulle capacità e i limiti dei loro sistemi”, ma hanno pochi obblighi di condividerle con i governi e nessun obbligo di condividerle con il pubblico. “Non pensiamo si possa confidare nel fatto che le condividano volontariamente”, aggiungono gli scienziati.
“Finché non ci sarà un reale controllo, gli attuali dipendenti e gli ex dipendenti sono tra i pochi che possono fare in modo che le aziende rendano conto al pubblico”, scrivono ancora gli autori. “Tuttavia, i vasti accordi di riservatezza ci impediscono di dare voce alle nostre preoccupazioni”. Le ordinarie protezioni agli whistleblower “sono insufficienti, perché si concentrano su attività illegali, mentre molti dei rischi che ci preoccupano riguardano cose ancora non regolate. Alcuni di noi temono ragionevolmente varie forme di rappresaglia, visti i precedenti di casi simili nel settore”.
L’appello
La lettera si conclude con un appello in quattro punti. Innanzitutto, i firmatari chiedono che le aziende non stipulino accordi che vietano le critiche all’azienda e che non compiano rappresaglie per critiche legate ai rischi. La seconda richiesta è che le aziende istituiscano un processo anonimo per permettere ai dipendenti presenti e passati di comunicare i loro timori al cda, ai regolatori e a organizzazioni indipendenti. In terzo luogo, chiedono che l’azienda crei una cultura di apertura alla critica. Infine, vogliono che le imprese non si vendichino di chi divulga informazioni confidenziali per timori sulla sicurezza, se gli altri canali di segnalazione non hanno dato risultati.
Il caso
Il New York Times è stato tra i primi giornali a riportare la notizia e ha intervistato Daniel Kokotajlo, un ex ricercatore di OpenAI che è stato assunto nel 2022 e si è dimesso ad aprile. “OpenAI è molto eccitata all’idea di creare l’IA generativa e sta correndo in modo spericolato per arrivarci prima di tutti”, ha detto.
Kokotajlo è convinto che l’IA generativa arriverà entro il 2027 e che abbia il 70% di probabilità di distruggere o colpire in modo catastrofico l’umanità. Ha dichiarato che OpenAI ha protocolli di sicurezza – tra cui un board assieme a Microsoft che deve controllare i rischi dei nuovi modelli di IA prima che vengano resi disponibili al pubblico -, ma che in alcuni casi li ha ignorati per accelerare lo sviluppo.
In particolare, ha citato un episodio risalente al 2022, in cui Microsoft iniziò a testare in India una nuova versione del suo motore di ricerca, Bing, che secondo alcuni dipendenti di OpenAI usava Gpt-4, una versione ancora non rilasciata di ChatGpt. Secondo Kokotajlo, Microsoft non ha ricevuto l’approvazione del board prima di testare il modello. Quando il board ha saputo che Bing si comportava in modo strano, poi, non è intervenuto e ha permesso di allargare la sperimentazione. Microsoft ha negato le accuse.
Quando si è dimesso, Kokotajlo ha scritto di avere “perso fiducia nella possibilità che OpenAI si comporti in modo responsabile. Il mondo non è pronto, noi non siamo pronti”. Il ricercatore si è rifiutato di firmare la clausola di ‘non-denigrazione’, a costo di rinunciare alle quote maturate (1,7 milioni di dollari).
Le altre accuse a OpenAI
Un altro ex dipendente, William Saunders, ha riassunto l’atteggiamento dell’azienda come ‘Buttiamo le cose nel mondo, vediamo che cosa succede e poi aggiustiamole’. Un altro, Jan Leike, che non è tra i firmatari, ma ha parlato con una serie di post su X, ha affermato che “la cultura e i processi per garantire la sicurezza sono passati in secondo piano rispetto al lancio di prodotti scintillanti”.
Una portavoce di OpenAI, sentita ancora dal Nyt, ha dichiarato che l’azienda ha “sempre fornito i sistemi di IA più potenti e più sicuri” e “crede nel suo approccio scientifico alla gestione del rischio. Conveniamo che sia fondamentale un dibattito rigoroso, considerata l’importanza di questa tecnologia, e continueremo a dialogare con i governi, con la società civile e con altre comunità in giro per il mondo”.
LEGGI ANCHE: OpenAI ha siglato un accordo con PwC per rivendere ChatGPT alle aziende
Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .
Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .