
Sundar Pichai (Photo by Ron Jenkins/Getty Images)
Durante una conferenza sugli utili del mese scorso, il ceo di Google, Sundar Pichai, ha dichiarato che l’azienda spenderà fino a 185 miliardi di dollari in spese in conto capitale legate all’AI quest’anno, una cifra sbalorditiva che è più del doppio dei 90 miliardi spesi nel 2025. Ma questo potrebbe essere solo l’inizio. Nei prossimi anni, le spese di Google per i suoi data center si sommano a un “investimento significativo”, afferma a Forbes Amin Vahdat, il nuovo chief technologist di Google per le infrastrutture AI, nella sua prima intervista nel ruolo appena assunto.
“Se prendiamo numeri semplici, supponendo che ci sia una previsione a 10 anni, e quest’anno siamo tra i 175 e i 185 miliardi di dollari, si potrebbe immaginare, supponendo che non diminuisca, che ciò potrebbe estendersi a una cifra molto alta nei prossimi 10 anni”, afferma.
Abbiamo fatto i calcoli. Con 185 miliardi di dollari all’anno, in otto anni Google spenderà 1,5 trilioni di dollari, cifra che è leggermente superiore a quella che OpenAI si è impegnato a spendere nello stesso periodo. Estendendo questo periodo a 10 anni, come ha notato Vahdat, Google spenderà 1,9 trilioni di dollari.
Vahdat è chiaro nel dire che questa non è una “promessa” che Google spenderà quella cifra nei prossimi 10 anni. Tuttavia, la visione a lungo termine che adotta suggerisce l’entità della scommessa di Google. “Il punto qui è che noi, in Google, stiamo investendo ai massimi livelli”, afferma.
C’è una grande differenza tra le ambizioni di Google per i data center e quelle di OpenAI: Google è una macchina da soldi. Nel quarto trimestre, la società madre di Google, Alphabet, ha generato 113 miliardi di dollari di ricavi; per l’intero anno, le vendite hanno superato per la prima volta i 400 miliardi di dollari nella storia di oltre 25 anni dell’azienda. A confronto, OpenAI sta spendendo su livelli simili ma ha portato a casa circa 13 miliardi di dollari di ricavi lo scorso anno, una piccola frazione dei ricavi di Google e meno della metà delle riserve di cassa di Google.
La domanda apparentemente insaziabile di calcolo è stata la forza economica centrale dell’era dell’AI. Ha fatto salire la capitalizzazione di mercato di Nvidia a 4,5 trilioni di dollari. Il Progetto Stargate, un’iniziativa di OpenAI, SoftBank e Oracle per costruire 500 miliardi di dollari di infrastrutture AI negli Stati Uniti, è stato un’importante iniziativa tecnologica per l’avvio del secondo mandato del presidente Trump, anche se i progressi sul progetto sono stati segnalati come in stallo. In totale, secondo un rapporto di Goldman Sachs, le grandi aziende tecnologiche potrebbero investire circa 500 miliardi di dollari nei data center AI e nei chip quest’anno.
L’espansione dell’infrastruttura è così vasta che è importante considerarla su un orizzonte temporale lungo, afferma Vahdat. Costruire un singolo data center può richiedere anni. L’energia deve essere acquistata con largo anticipo. Parte di queste spese andrà subito a chip e attrezzature per l’elaborazione dei dati nei data center esistenti, mentre altre andranno a finanziare nuovi siti. La settimana scorsa, ad esempio, Google ha siglato accordi con AES e Xcel, due fornitori di energia, per rifornire i suoi data center in tutto il paese.
Vahdat, un veterano di 15 anni in Google, è entrato nell’azienda dopo una carriera accademica come ricercatore e professore, con esperienze presso Duke, l’Università di Washington e UC San Diego (e un primo tirocinio presso Xerox Parc, il leggendario laboratorio di ricerca nella Silicon Valley). È entrato in Google nel 2010 per lavorare sulle reti informatiche e ha scalato i ranghi fino a diventare il responsabile delle Tpu, le Tensor processing inits, i chip AI personalizzati di Google.
Nel mese di dicembre, è stato promosso a responsabile della strategia per le infrastrutture AI, che comprende lo sviluppo e l’ottimizzazione dei chip, l’espansione dei data center e gli investimenti energetici, e riporta direttamente al ceo Sundar Pichai.
Le Tpu di Google erano in precedenza utilizzate solo internamente per l’infrastruttura di Google, per alimentare app come Gmail e YouTube, per addestrare auto a guida autonoma e sviluppare e gestire modelli AI come Gemini. Ora sono uno degli strumenti più utilizzati nel settore: forse non tanto popolari quanto i Blackwell di Nvidia, ma comunque utili per il pre-addestramento e il funzionamento dei modelli AI su larga scala.
Google ha iniziato a vendere l’accesso a queste Tpu tramite un servizio cloud nel 2018, permettendo ad altre aziende di noleggiare potenza di calcolo. Più recentemente, Google ha firmato contratti di alto profilo, come quello con Anthropic, e ha trattato con Meta per usare i suoi chip. Nel mese di dicembre, Morgan Stanley ha stimato che le Tpu potrebbero generare 13 miliardi di dollari per Google entro il 2027. “È giusto dire che la domanda di Tpu nel cloud è stata senza precedenti”, afferma Vahdat, in particolare negli ultimi anni.
Un elemento centrale dell’espansione dei data center è procurarsi l’energia necessaria per alimentarli, una delle principali preoccupazioni per i critici. Ad agosto, Vahdat, il chief scientist di Google Jeff Dean e altri dieci ricercatori ed esecutivi dell’azienda hanno co-pubblicato un articolo per contestualizzare l’uso energetico dell’AI.
L’articolo afferma che il prompt medio per il modello AI Gemini di Google consuma la stessa quantità di energia necessaria per alimentare nove secondi di televisione e circa cinque gocce d’acqua, cifra che gli autori definiscono “decisamente inferiore a molte stime pubbliche”. (Un rapporto afferma che i grandi data center possono consumare fino a 5 milioni di galloni al giorno, pari al fabbisogno idrico di una città di circa 50.000 abitanti).
A causa delle critiche ricevute, altri giganti dell’AI hanno promesso di pagare di più per l’elettricità: lo scorso mese, Anthropic, rivale di AI e creatore del chatbot Claude, ha promesso di stimare e coprire i costi degli aumenti dei prezzi dell’energia per i consumatori che potrebbero derivare dal suo utilizzo. “Sono stato davvero felice di vedere quell’annuncio di Anthropic,” afferma Vahdat. Ha aggiunto: “Presto diremo di più sulla nostra posizione riguardo a questo”.
La sfida più grande che Google deve affrontare, sostiene Vahdat, non è solo scalare, ma ripensare come viene costruita l’infrastruttura stessa. Nei prossimi cinque anni, Vahdat si aspetta che i data center si spostino da costruzioni personalizzate a design modulari e ripetibili — piani standardizzati che possano essere replicati a livello globale con una velocità senza precedenti. Questo tipo di scommessa potrebbe consolidare il posto di Google come principale concorrente nella corsa all’AI per gli anni a venire.
Questo articolo è stato notarizzato in blockchain da Notarify.





Trending
Chi sono i cofondatori di Anthropic che stanno tenendo testa a Trump
di: Forbes.it

Innovation
OpenAI pronta a collaborare con la Nato per reti non classificate
di: Forbes.it

Professionals
L’IA che rivoluziona gli studi legali: la startup che punta a 40 milioni e vuole conquistare l’Europa
di: Luigi Dell'Olio
