Da non perdere |Innovation
25 febbraio 2026

I più grandi costruttori di intelligenza artificiale sono ora i suoi più grandi lobbisti

OpenAI e Anthropic hanno speso più che mai in attività di lobbying nel 2025. Stanno spingendo per un trattamento amichevole e una minore regolamentazione
I più grandi costruttori di intelligenza artificiale sono ora i suoi più grandi lobbisti

Dario Amodei, cofondatore e amministratore delegato di Anthropic (foto Chance Yeh/Getty Images for HubSpot)

Forbes.it
Scritto da:
Forbes.it

OpenAI e Anthropic hanno speso più che mai in attività di lobbying nel 2025. Stanno spingendo per un trattamento amichevole e una minore regolamentazione, in un contesto di crescenti tensioni —almeno per Anthropic— con l’amministrazione Trump.

Il mese scorso, il ceo di Anthropic, Dario Amodei, ha pubblicato un ampio saggio in cui sostiene che la proliferazione dei data center di intelligenza artificiale sta sempre più legando gli interessi finanziari e tecnologici dei principali laboratori di AI a quelli politici del governo. Ha lamentato quella che ha descritto come la riluttanza della tecnologia a sfidare il governo, così come il sostegno del governo a “politiche estreme anti-regolamentazione sull’intelligenza artificiale”. La sua ricetta: anteporre la policy alla politica.

Sfortunatamente, è difficile predicare la distanza dalla politica mentre si negoziano contratti governativi a nove cifre.
Una disputa —segnalata per la prima volta da Axios— tra Anthropic e il Dipartimento della Difesa degli Stati Uniti, con un contratto da 200 milioni di dollari per sviluppare l’intelligenza artificiale per la sicurezza nazionale in diversi casi d’uso bellici e aziendali—, suggerisce che la separazione sostenuta da Amodei potrebbe essere difficile da realizzare nell’amministrazione a gettoni del presidente Trump. E il ceo di Anthropic ovviamente lo sa, ed è per questo che la sua azienda sta intensificando le attività di lobbying e le donazioni politiche, proprio come i suoi rivali.

Le spese di Anthropic e OpenAI in attività di lobbying

Nel 2025, Anthropic e OpenAI hanno speso rispettivamente 3,13 milioni di dollari e 2,99 milioni di dollari in attività di lobbying federale diretto: più che mai, secondo le informazioni normative. Questo si aggiunge ai circa 300.000 dollari per azienda spesi per attività di lobbying in California. Le due società, valutate rispettivamente a 830 miliardi di dollari e 380 miliardi di dollari, hanno iniziato a esercitare pressioni per la prima volta nel 2023. Per Anthropic, il 2025 è stato il primo anno in cui sono state rese pubbliche donazioni a sostegno di specifici candidati politici.

La scorsa settimana, Anthropic ha annunciato una donazione di 20 milioni di dollari a Public First Action, un’organizzazione politica che si batte per una maggiore regolamentazione dell’intelligenza artificiale. L’azienda ha pubblicizzato l’iniziativa come imparziale, anche se molte delle politiche che sostiene sembrano essere in contrasto con quelle di Trump, dello zar dell’intelligenza artificiale David Sacks e con l’orientamento anti-regolamentazione del settore in generale. OpenAI ha rifiutato di commentare. Anthropic ha rifiutato di commentare specifici sforzi di lobbying, ma ha indirizzato Forbes al suo comunicato stampa sulla donazione Public First Action.

Il disegno di legge sulla sicurezza dell’AI

Forse la rottura più evidente tra gli sforzi politici di OpenAI e Anthropic si è verificata con il disegno di legge sulla sicurezza dell’intelligenza artificiale della California, entrato in vigore a gennaio.
La SB 53 impone ai grandi produttori di modelli di intelligenza artificiale di creare regole e barriere di valutazione della sicurezza dei nuovi modelli, per poi auto-segnalare come le hanno gestite prima di lanciarne di nuovi —altrimenti incorreranno in multe.

Entrambe le società hanno esercitato pressioni sul disegno di legge. Secondo quanto riferito, OpenAI si è opposta. Alla fine Anthropic lo ha approvato. Ma quanto conta questa distinzione?

“Si tratta di posizionarsi come sostenitori della sicurezza o orientati alla sicurezza… (ma) si è trattato più di una mossa pubblicitaria”, afferma Kyle Qi di Llama Ventures, che detiene una partecipazione indiretta in Anthropic.
Michael Kleinman, responsabile delle politiche statunitensi presso il Future of Life Institute, un istituto pro-regolamentazione dell’intelligenza artificiale, è ancora più diretto: “Finché non vedremo le aziende sostenere effettivamente una legislazione significativa, ciò che diranno sul loro desiderio di regolamentazione saranno solo chiacchiere vuote… il settore nel suo complesso è determinato a evitare la regolamentazione.”

Se si eliminano gli strati, a livello federale la sovrapposizione è più netta della divisione. Sia per Anthropic che per OpenAI, le priorità di lobbying del 2025 includevano la sicurezza nazionale e le infrastrutture di intelligenza artificiale. Le agenzie federali utilizzano sempre più sistemi di intelligenza artificiale. Ad agosto, OpenAI e Anthropic hanno annunciato accordi per l’utilizzo dei loro modelli da parte di agenzie governative al costo di 1 dollaro; xAI di Elon Musk ha annunciato una partnership simile al costo di 0,42 dollari a settembre. Nel 2024, OpenAI ha silenziosamente eliminato il linguaggio dalle sue politiche di utilizzo che proibivano applicazioni “militari e belliche”.

La proposta rivolta a Washington è semplice: una scala più rapida rafforza la competitività degli Stati Uniti.
In una lettera di ottobre all’Ufficio per le politiche scientifiche e tecnologiche della Casa Bianca, Chris Lehane, responsabile degli affari globali di OpenAI, ha scritto che “l’imperativo per la sicurezza nazionale di guidare il mondo nell’intelligenza artificiale rappresenta anche un’opportunità irripetibile per rafforzare la nostra economia”.
Ha esortato il governo a garantire che i sistemi di intelligenza artificiale di frontiera proteggano gli interessi di sicurezza nazionale degli Stati Uniti “anche attraverso l’adozione da parte di agenzie federali”.

I documenti depositati da Anthropic fanno esplicito riferimento ai controlli sulle esportazioni e al GAIN AI Act. Presentato a ottobre, il disegno di legge limiterebbe ulteriormente le vendite di chip di intelligenza artificiale avanzati ad avversari come Cina e Russia, garantendo ai clienti statunitensi il diritto di prelazione prima dell’esportazione. La questione ha rinnovato l’urgenza: a Nvidia è ora consentito vendere i suoi chip H200 avanzati ad aziende cinesi dopo anni di trattative che hanno coinvolto funzionari statunitensi e cinesi.

Non è chiaro se OpenAI abbia esercitato pressioni sui controlli sulle esportazioni, ma il ceo Sam Altman ne ha messo in dubbio l’efficacia. Il compito del presidente Trump “è assicurarsi che l’America vinca”, ha detto a Forbes. “E considero la nostra missione come quella di tutta l’umanità… c’è una certa opposizione.”

La necessità di vasti data center

Poi c’è la questione della costruzione. Lo sviluppo e l’implementazione dell’intelligenza artificiale di frontiera richiedono vasti data center. Anthropic, OpenAI e i tradizionali operatori storici come Google e Meta stanno correndo per espandere la capacità. Sostengono che la complessità delle autorizzazioni, i colli di bottiglia energetici, i ritardi nella costruzione e l’opposizione locale stanno rallentando i progetti; secondo JLL, più della metà degli sviluppi dei data center nel 2025 sono stati ritardati di almeno tre mesi.

Gli impegni finanziari sono enormi. OpenAI si è impegnata a spendere circa 1,4 trilioni di dollari nei prossimi otto anni, apparentemente senza un piano per finanziare tutto.

Entrambe le società stanno esercitando pressioni di conseguenza. Anthropic ha esercitato pressioni su un ordine esecutivo di luglio volto ad accelerare l’autorizzazione federale delle infrastrutture dei data center. Nella sua lettera di ottobre, OpenAI ha chiesto crediti d’imposta e altri sussidi, insieme a una semplificazione delle autorizzazioni energetiche e ambientali per rendere le strutture operative più rapide. Anthropic ha sostenuto politiche simili e ha annunciato di recente che coprirà i costi dell’elettricità legati alla connessione dei nuovi data center alla rete.

Altri progetti di legge e questioni a cui si fa riferimento in tali divulgazioni includono il CREATE AI Act —che mira a rendere la tecnologia AI accessibile a tutti gli americani; l’interferenza dell’IA nelle elezioni; il copyright; un ordine esecutivo sulla prevenzione “IA woke” nel governo federale; una moratoria sull’IA; e normative più ampie sulla sicurezza e la governance dell’IA. Tuttavia, è ancora presto: non è ancora stata approvata una legge che cambi in modo significativo il corso dello sviluppo e dell’implementazione dell’intelligenza artificiale negli Stati Uniti. Un provvedimento legislativo fondamentale, volto a far sì che la politica federale sull’AI avesse la precedenza sulle leggi statali e quindi a rendere quasi impossibile per gli stati approvare una propria regolamentazione sull’intelligenza artificiale, è finito per essere un ordine esecutivo di dicembre anziché in leggi approvate dal Congresso.

Washington è tristemente indietro con le politiche sull’intelligenza artificiale, lasciando i decisori politici pericolosamente dipendenti dalle aziende tecnologiche per informazioni sulla traiettoria e l’impatto delle tecnologie emergenti che ci riguarderanno tutti”, afferma Matt Lerner, amministratore delegato della ricerca per Founders Pledge, un’organizzazione no-profit che mette in comune le donazioni dei fondatori’ e ha indirizzato donazioni filantropiche a diverse organizzazioni no-profit per le politiche e la sicurezza sull’intelligenza artificiale (l’organizzazione non fa lobbying).

La regolamentazione dell’intelligenza artificiale si sta configurando come una lotta di medio termine, con candidati e filantropie facoltose che spendono milioni per far sentire la propria posizione. Ma per ora il campo appartiene ai costruttori. Le aziende che scrivono le specifiche del modello di intelligenza artificiale stanno anche scrivendo i più grandi controlli a Washington—sostenendo che la velocità è patriottismo, la scala è sicurezza e che il loro successo commerciale è positivo per il Paese. Finché il Congresso non dimostrerà il contrario, rimarranno sia oggetto delle regole sia le voci più forti che le plasmano.

Questo articolo è stato notarizzato in blockchain da Notarify.

QR Code certificazione Notarify

CERTIFIED BY NOTARIFY

I più grandi costruttori di intelligenza artificiale sono ora i suoi più grandi lobbisti | Forbes Italia