Un utente ha chiesto di generare immagini di soldati tedeschi del 1943. Gemini AI, il chatbot di intelligenza artificiale di Google, ne ha prodotte quattro. Due raffiguravano un uomo nero e una donna con tratti orientali in divise naziste. Ad altre richieste ha risposto con vichinghi neri, un papa donna, neri e nativi americani nei panni di padri fondatori degli Stati Uniti. Ha rappresentato i fondatori di Google, Larry Page e Sergey Brin, con tratti asiatici. Ha reso nera la ragazza con l’orecchino di perla di Vermeer.
Il 22 febbraio, a due mesi e mezzo dal lancio di Gemini, Google ha annunciato di volere sospendere la funzione di generazione delle immagini, in attesa di migliorarla. Ormai, però, il caso si era allargato ai testi. Gemini trovava “difficile” dire se avessero fatto più danni i meme postati su X da Elon Musk o Adolf Hitler. Non sapeva se fossero più dannose le micro-aggressioni o gli omicidi. Quando gli si chiedeva se Hamas fosse un’organizzazione terroristica, rispondeva che il conflitto a Gaza è una questione “complicata”. Si rifiutava di scrivere un annuncio per la vendita di un pesce rosso (non può aiutare a “vendere animali vivi”) o lo slogan di una campagna a favore del consumo di carne per contrastare l’abuso di cibo spazzatura (mangiare carne può essere “non sano e non sostenibile”). Non voleva abbozzare un annuncio di lavoro per una lobby del petrolio perché i combustibili fossili sono nocivi e i gruppi di pressione mettono “gli interessi delle grandi aziende davanti al benessere pubblico”.
Come si è giustificata Google
Sundar Pichai, amministratore delegato di Alphabet, la società madre di Google, ha commentato il disastro di Gemini in una comunicazione interna ottenuta dalla testata statunitense Semafor e ha definito le risposte del chatbot “totalmente inaccettabili”.
Prabhakar Raghavan, senior vice president di Google, ha provato a spiegare il problema sul blog dell’azienda. Ha scritto che l’IA dovrebbe generare immagini di persone diverse, non accomunate dal gruppo etnico o da altre caratteristiche. Gemini, però, “non è riuscito a tenere conto dei casi in cui non bisognerebbe mostrare una gamma di persone” ed “è diventato molto più cauto di quanto volessimo”, fino a “rifiutarsi del tutto di rispondere ad alcune richieste” e a “interpretare erroneamente come delicate alcune richieste molto neutre”.
Raghavan ha sottolineato anche che Gemini è pensato come “strumento di creazione e produzione” e che dunque “potrebbe non essere sempre attendibile, soprattutto quando deve generare immagini o testi legati a eventi d’attualità”. Tenta di dare “risposte fattuali”, ma non va usato come fonte di informazione e non è un sostituito del motore di ricerca.
“Un pazzo anti-bianchi”
Molti osservatori – soprattutto conservatori, ma non solo – hanno invece accusato Google di avere programmato Gemini con pregiudizi contro i bianchi e secondo l’ideologia woke, nell’accezione negativa di progressismo dogmatico e intollerante. Hanno citato casi come quelli in cui il chatbot si è rifiutato di disegnare cowboy bianchi o ebrei su esplicita richiesta, salvo poi rappresentare senza problemi altri gruppi. Oppure quello in cui non ha voluto produrre un’immagine nello stile di Norman Rockwell, perché i suoi quadri idealizzano gli Stati Uniti degli anni ’40 e “perpetuano stereotipi dannosi”.
Marc Andreessen, cofondatore della società di venture capital Andreessen Horowitz, accusato dal New York Times di “futurismo reazionario”, ha scritto su X che “questi risultati apparentemente bizzarri sono voluti al 100%. [Gemini] fa quello per cui è stato progettato”. Lo psicologo Jordan Peterson, idolo della destra americana, ha citato il post di Andreessen e ha aggiunto che “Google deve sparire”. In un altro messaggio ha affermato che “abbiamo dotato le nostre menzogne demenziali di un’intelligenza sovrumana”. Mike Solana, vicepresidente di Founders Fund, un’altra società di venture capital, ha definito Gemini “un pazzo anti-bianchi”.
“Uno dei lanci più disastrosi nella storia della Silicon Valley”
Nate Silver, creatore del sito di analisi statistiche FiveThirtyEight, specializzato nei sondaggi politici, ha scritto su X che “mancano ancora mesi prima che [Gemini] sia pronto per il pubblico. È incredibile che Google lo abbia lanciato in questo stato”. Sul suo blog ha aggiunto che “quello di Gemini è tra i più disastrosi lanci di prodotto nella storia della Silicon Valley, e forse anche della storia recente delle grandi aziende americane, perlomeno se si considera che viene da una società del prestigio di Google”.
Silver è convinto che i motivi dei difetti siano “soprattutto politici, non tecnologici”. Ha ricordato che nel 2004, nei documenti depositati per quotarsi in Borsa, Google affermava di voler “organizzare l’informazione mondiale” e usava spesso termini come “imparziale”, “oggettivo” e “accurato”. Nel report annuale 2023 le tre parole non compaiono mai. “Google non promuove più queste cose e, come Gemini dimostra, non le offre più”, scrive Silver. “Stiamo cedendo molto potere ai capricci di una piccola manciata di ingegneri dell’intelligenza artificiale e di dirigenti d’azienda”. La questione non dovrebbe allarmare solo i conservatori, prosegue. Perché in questo caso il chatbot è programmato per sostenere idee progressiste, “ma ci sono anche molti elementi conservatori nella Silicon Valley e governi come quello cinese sono entrati nella partita dell’intelligenza artificiale. Perciò non è detto che sarà così anche la prossima volta”.
Elon Musk contro Google
Tra i più accaniti critici di Gemini c’è Elon Musk, che da tempo è impegnato in una crociata contro la cultura woke. Musk è convinto che Gemini abbia “reso chiaro a tutti” il “folle programma razzista e anti-civilità” di Google e ha ripreso un post secondo cui l’azienda vorrebbe condizionare le elezioni americane e favorire i candidati progressisti. In un altro messaggio ha scritto di avere sentito molte storie secondo cui Google rifiuterebbe di promuovere i dipendenti bianchi per rispettare ‘quote di diversità’.
Musk ha attaccato in particolare Jack Krawczyk, uno dei responsabili del progetto Gemini. Ha citato un vecchio post, in cui Krawczyk scriveva di avere “pianto a intermittenza” per 24 ore dopo avere votato per Joe Biden alle elezioni del 2020, e ha commentato: “Questo pazzo è una delle principali ragioni per cui l’intelligenza artificiale di Google è così razzista e sessista”.
Va precisato che Musk non è disinteressato. Lo scorso anno ha lanciato la startup xAI, che ha prodotto Grok, un chatbot rivale di ChatGPT e dello stesso Gemini, programmato per essere politicamente scorretto. Musk, che in passato ha donato sia ai democratici che ai repubblicani, di recente si è schierato con i conservatori. In vista delle presidenziali 2024 aveva sostenuto Ron DeSantis, governatore di destra della Florida, che si è candidato senza successo alle primarie repubblicane.
“È solo software scadente”
Non tutti sono d’accordo sulla lettura politica degli strafalcioni di Gemini. Gary Marcus, professore emerito di psicologia e scienze neurali alla New York University e imprenditore nel settore dell’intelligenza artificiale, ha affermato che “è solo un problema di software scadente”. Marcus ritiene positivo che Google “provi a combattere il problema opposto”, documentato da diversi ricercatori, ovvero i pregiudizi contro le minoranze di altri sistemi di IA.
Un’altra scienziata, Sasha Luccioni dell’azienda Hugging Face, ha dichiarato a Wired che Gemini ha sovracompensato i pregiudizi di modelli di intelligenza artificiale come Dall-E di OpenAI, che tende a rappresentare persone di colore se si chiede di rappresentare detenute e bianche se si chiede di rappresentare manager. “Quello dei pregiudizi è uno spettro ed è molto difficile trovare la sfumatura giusta”, ha detto. “Il modello imparziale non esiste”.
Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .
Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .