cloud computing, intelligenza artificiale, chip
Business

Come il boom dell’IA ha creato una nuova generazione di aziende miliardarie nel cloud

Questo articolo è apparso su Forbes.com

Nel 2017, i co-fondatori di CoreWeave hanno inconsapevolmente fatto jackpot. Avevano accumulato chip Nvidia attorno ai quale ci sarebbe stata una domanda insaziabile cinque anni dopo, quando l’intelligenza artificiale sarebbe diventata mainstream.

LEGGI ANCHE: “I miliardari che nel 2024 si sono arricchiti grazie al boom dell’intelligenza artificiale”

Intellitenza artificiale, la corsa ai chip

Michael Intrator, Brian Venturo e Brannin McBee, all’epoca trader di materie prime, avevano inizialmente acquistato centinaia di Gpu per il mining di criptovalute. Poi, nel 2019 hanno riorientato l’infrastruttura aziendale per fornire potenza di calcolo esterna alle aziende che ne avevano bisogno, per l’animazione 3D, per la scoperta di farmaci e, sempre più, per l’intelligenza artificiale.

In seguito, quando a fine 2022 il lancio di ChatGPT di OpenAI ha dato il via a un accaparramento di quei chip Nvidia, diventati il gioiello della corona per l’addestramento dei modelli di intelligenza artificiale, CoreWeave si è trovata in una posizione favorevole. Avere accesso a un’abbondanza di “calcolo”, hardware utilizzato per elaborare dati ed eseguire calcoli, è diventato un requisito fondamentale per chiunque voglia competere in modo significativo nella corsa all’intelligenza artificiale. Oggi, persino singoli investitori e società di VC istituzionali stanno accumulando chip per aiutare a dare il via allo sviluppo dell’intelligenza artificiale per le startup con cui lavorano.

Con le startup che si affannano per acquistare quelle Gpu, difficili da trovare e incredibilmente costose, aziende come CoreWeave, che sostanzialmente ne affittano l’accesso, sono diventate inestimabili. L’ascesa fulminea dell’azienda si riflette al meglio nei suoi numeri: solo negli ultimi 12 mesi ha raccolto 12 miliardi di dollari in un mix di debito e finanziamenti di rischio, con la sua valutazione che è salita dai circa 2 miliardi di dollari di maggio 2023 ai 19 miliardi di dollari di oggi. Secondo The Information, ha previsto di registrare 2,3 miliardi di dollari di fatturato nel 2024. Ora sta rapidamente espandendo la sua presenza globale, passando da tre data center nel 2022 a un obiettivo di 28, in paesi come Spagna e Svezia, entro la fine del 2024.

“La domanda ci ha sopraffatti, ha sopraffatto la capacità cumulativa dell’infrastruttura cloud”, ha detto a Forbes il ceo di CoreWeave Mike Intrator.

LEGGI ANCHE: “Come Nvidia sta investendo in una nuova generazione di startup dell’IA”

CoreWeave e altre aziende cloud miliardarie

CoreWeave è il leader di un gruppo di aziende cloud che mirano a soddisfare le esigenze infrastrutturali uniche dei costruttori di IA, mantenendosi al contempo al passo con i titolari del cloud come Google, Amazon e Microsoft. E raccogliendo i frutti di una nuova economia basata sull’IA, CoreWeave è al 29° posto nella Forbes Cloud 100 di quest’anno, la classifica delle migliori aziende (non quotate) di cloud computing al mondo, diventando così la new entry più quotata dell’anno.

Lambda, al n. 84 nella Cloud 100, ha trovato il successo anche nel fornire a startup di intelligenza artificiale (come la società di generazione video Pika e la startup Writer) ciò di cui hanno più bisogno: enormi cluster di chip. Anche altre aziende più piccole stanno sfruttando questa tendenza, come l’unicorno Together AI, che sta costruendo un’infrastruttura open source per lo sviluppo di modelli di intelligenza artificiale generativa.

Così come CoreWeave, Lambda non ha iniziato fornendo Gpu alle startup di intelligenza artificiale. I cofondatori Stephen e Michael Balaban si sono resi conto della necessità di “calcolo” accessibile e facilmente disponibile solo dopo aver lanciato Dreamscope nel 2015, un’app che consentiva alle persone di caricare le proprie foto, utilizzando l’intelligenza artificiale per ricrearle in diversi stili artistici. Sebbene l’app non abbia sfondato, ha fatturato 40.000 dollari dal provider cloud Amazon Web Services, spingendo l’azienda a costruire i propri cluster di Gpu.

Nel 2017, l’azienda era passata alla vendita di quell’hardware e aveva trovato clienti disponibili tra gli accademici che facevano ricerca sull’apprendimento automatico. Quel passaggio ha preparato Lambda per l’imminente corsa all’oro. Oggi, è valutata 1,5 miliardi di dollari e ha registrato circa 250 milioni di dollari di fatturato nel 2023. “Quando è uscito ChatGPT, si trattava solo di formazione. Tutte le altre aziende stavano cercando di escogitare un  modello. E stavano spendendo enormi quantità di denaro in ricerca e sviluppo”, ha detto a Forbes Mitesh Agrawal, chief operating officer di Lambda. “Eravamo tipo, ‘c’è un’enorme curva di adozione in arrivo'”.

C’è spazio per tutti?

Quella curva potrebbe presto appiattirsi. La carenza di fornitura di Gpu, come ha scritto il partner di Sequoia David Cahn in un recente post sul blog, ha raggiunto il picco alla fine del 2023. L’accesso al “computing” è diventato relativamente facile e con più player che forniscono infrastrutture per l’IA, “la capacità della Gpu sta diventando eccessiva” e questi chip stanno rapidamente diventando una commodity, ha detto.

Al centro di questo modello di business ci sono stati legami strategici e partnership con Nvidia, il cui hardware, il migliore della categoria, è stato cruciale per i progressi nell’intelligenza artificiale generativa. Mentre Nvidia fornisce i suoi chip anche a giganti del cloud come Amazon Web Services e Google Cloud, che gestiscono migliaia di data center con una potenza di calcolo su larga scala, sta costruendo un ecosistema di distributori come CoreWeave (in cui ha investito circa 100 milioni di dollari) e Lambda.

Queste aziende, che possono offrire molta più flessibilità rispetto ai pesi massimi del cloud, stanno puntando a clienti più piccoli. Molti sviluppatori di intelligenza artificiale hanno bisogno di cluster di chip on-demand, acquistando elaborazione solo per un paio di settimane durante la creazione o l’addestramento di un modello di intelligenza artificiale. Aziende come Google e Amazon spesso chiedono ai clienti di impegnarsi in contratti annuali o pluriennali, ha affermato Agrawal, il che potrebbe comportare fatture salate e spreco di risorse nell’elaborazione.

Chip a noleggio

I provider di elaborazione basati su cloud, invece, noleggiano Nvidia H100 con un pagamento a consumo a una tariffa oraria che varia da circa $ 2,5 a $ 5 per GPU. E mentre giganti come Amazon ospitano una vasta gamma di applicazioni e servizi in settori come sanità, vendita al dettaglio e finanza, CoreWeave e simili sono specificamente progettati per casi d’uso di intelligenza artificiale.

Stiamo creando “ambienti migliori per consumare questo tipo di elaborazione rispetto a quelli che troveresti in un cloud che è stato creato per supportare ogni singolo caso d’uso possibile”, ha affermato Intrator di CoreWeave.

“Non archivierò le tue foto, non ospiterò il tuo sito web. Non è quello che abbiamo creato. E ci sono molti, molti cloud che svolgono un lavoro meraviglioso nel supportare questo tipo di utilizzi”, ha detto a Forbes. “Quello che abbiamo fatto è stato dire, ‘Ehi, c’è un modo nuovo ed emergente in cui l’elaborazione verrà utilizzata in futuro. Di cosa avranno bisogno per avere il massimo successo possibile?'”

© RIPRODUZIONE RISERVATA

Per altri contenuti iscriviti alla newsletter di Forbes.it CLICCANDO QUI .

Forbes.it è anche su WhatsApp: puoi iscriverti al canale CLICCANDO QUI .