Chi controllerà l’infrastruttura dell’intelligenza artificiale?

Dal petrolio al chip: quando il potere cambia forma ma non sostanza

Dopo decenni di esplorazioni di energia, il regno vuole espostare calcolo. Sul Mar Rosso, un data center da cinque miliardi di dollari fornità potenza di elaborazione agli sviluppatori europei, sulla costa orienale, un complesso gemello servirà Asia e Africa. L’obiettivo è diventare la “nuova Aramco digitale”: passare dall’estrazione di petrolio all’estrazione di dati, trasformando energia, capitale e spazio in una nuova forma di influenza.

Aramco. Il nome dice tutto. È la seconda compagnia al mondo per fatturato con oltre 600 miliardi di dollari di ricavi. Nel maggio 2022 ha superato persino Apple, raggiungendo una capitalizzazione di 2.430 miliardi di dollari. I suoi utili – 117 miliardi – sono più di tre volte quelli di ExxonMobil. Con riserve petrolifere superiori ai 200 miliardi di barili, potrebbe continuare a pompare ai ritmi attuali per decenni.

Quando l’Arabia Saudita dice di voler creare la “nuova Aramco digitale”, sta annunciando di voler replicare nel mondo dell’intelligenza artificiale lo stesso peso che ha avuto sull’energia globale.

Se Aramico ha significato mezzo secolo di dipendenza energetica mondiale, cosa significherà una “Aramico digitale” per il futuro dell’intelligenza artificiale?

Mentre discutevamo di bolla e lavoro, qualcuno ha già deciso

Basta con le discussioni su “l’AI è una bolla?” o “mi toglierà il lavoro?”. Quelle sono conversazioni da bar, utili per fare engagement sui social ma che ci distraggono da cosa sta realmente accadendo.

La Future Investment Initiative 2025 di Riyadh è stata altro. Il CEO di Nvidia Jensen Huang ha detto chiaramente: “L’Arabia Saudita è ricca di energia e la trasforma attraverso fabbriche di intelligenza artificiale”. Non stava vendendo chip. Stava descrivendo un trasferimento di potere: dal sottosuolo al cloud.

E mentre noi confrontavamo modelli AI e testavamo prompt, i player globali hanno già ridisegnato la mappa.

Alla FII 2025: Google, Oracle, Nvidia, AMD, Blackstone, BlackRock, Qualcomm. Tutti seduti allo stesso tavolo. Amazon aveva già messo 5 miliardi per infrastrutture cloud con Humain. Musk ha discusso i usare i data center sauditi per addestrare i modelli di xAI. Trump è volato a Riyadh nel maggio 2025. 600 miliardi di dollari in accordi.

Non stavano discutendo du benchmark. Stavano decidendo chi controllerà l’infrastruttura computazionale globale.

Perchè “i dati sono il nuovo petrolio” è una semplificazione pericolosa

Tutti ripetiamo questa frase. Ma petrolio e dati sono profondamente diversi: il petrolio è finito, i dati solo illimitati. Il petrolio aumenta il valore quando scarseggia, i dati quando abbandonano. Una goccia di petrolio è uguale all’altra, ogni dato ha una storia unica.

Ma c’è una somiglianza che dovrebbe farci riflettere: entrambi creano concentrazione di potere.

Come il controllo del petrolio ha dato a pochi stati un potere enorme per cinquant’anni, oggi il controllo dell’infrastruttura computazionale – data center, chip, capacità di addestrare modelli – sta creando nuovi centri di gravità geopolitica.

Il progetto Humain prevede di gestire il 6% della potenza di calcolo mondiale entro il 2034. I data center sul Mar Rosso serviranno l’Europa, quelli sulla costa orientale serviranno Asia e Africa.

Pensateci un momento: i sistemi AI che useranno miliardi di persone verranno addestrati e ospitati in un’infrastruttura concentrata in pochi hub globali. Persone che hanno scelto questo. Che non hanno voce su come funzionano questi sistemi. Che non possono verificare cosa succede dentro quegli algoritmi.

Il problema reale: allineato a chi?

Quando Yasir AI-Rumayyan, governatore del Pyblic Investment Fund, dice che “tre persone su quattro temono che l’intelligenza artificile allarghi il divario educativo e sociale” e promette di rendere l’AI uno strumento di inclusione, tocca un punto cruciale.

L’intelligenza artificiale deve essere allineata ai valori umani. Tutti d’accordo. Ma la vera domanda è: quali valori? Quali umani? Nel mondo esistono visioni profondamente diverse di cosa significhi “allineare” l’AI. USA, Europa, Cina e mondo asiatico: ognuno ha priorità diverse.

E non è un difetto. È la realtà della diversità umana.

Il problema nasce quando l’infrastruttura che elaborerà i dati di mezzo mondo. E questo richiede trasparenza e governance internazionale che al momento non esistono.

Ma vale anche per USA, Cina, Europa. La concentrazione è il problema, non dove avviene.

Nuove alleanze, vecchie dipendenze

L’alleana USA-Arabia Saudita nell’AI è strategica: Washington vede nel Regno un partner contro contro la Cina. Le restrizioni sui chip si allentano per Riyadh. Humain garantisce trasparenza agli americani.

Ma la domanda è semplice: stiamo sostituendo una dipendenza con un’altra?

Per cinquant’anni siamo dipesi dal petrolio meridionale. Ora rischiamo la stessa dipendenza per l’infrastruttura computazionale. Con una differenza cruciale: il petrolio alimenta le macchine, l’AI influenza il pensiero.

E l’Europa? L’AI ACT è abbastanza?

L’Unione Europea ha approvato l’AI ACT, la prima regolamentazione organiza sull’intelligenza artificiale. Un passo importante: classificazione dei rischi, obblighi di trasparenza e tutele per i cittadini.

Ma c’è un problema di fondo che l’AI ACT non risolve: l’instrastruttura. L’Europa deve colmare un divario tecnologico enorme rispetto a USA e Cina, cercando di bilanciare etica e innovazione rapida per non rimanere dipendente da infrastrutture extra-europee. Puoi avere le leggi migliori del mondo, ma sei i tuoi cittadini, le tue aziende, i tuoi governi usano l’AI, addestrate e ospitate altrove – in USA, in Cina, In Arabia Saudita – quanto controllo hai davvero?

L’AI ACT regola l’uso dell’AI in Europa. Ma non ti dà sovranità compurazionale. Non ti garantisce capacità di addestrare i tuoi modelli. Non ti assicura indipendenza nell’infrastruttura digitale. È come avere ottime leggi sul consumo di energia, ma dipendere totalmente da chi te la fornisce.

Il progetto EuroHPC (supercomputer europei) va nella direzione giusta. Ma la scala degli investimenti è ancora troppo piccola rispetto a cosa stanno facendo USA, Cina e ors Arabia Saudita. L’Europa rischi di essere il cliente più regolamentato di un’infrastruttura che non controlla.

E questo vale anche per la sostenibilità: l’espanzione dei data center richiederà un aumento del 40% della capacità elettrica saudita nei prossimi dieci anni. Stiamo sostituendo l’estrazione di petrolio con l’estrazione di calcolo e il costo energetico è tutt’altro che trascurabile. Chi pagherà questi costi ambientali? Con quali standard? Sotto quale governace?

Le domande concrete che dobbiamo farci

  • Chi decide cosa imparano i sistemi AI che useranno miliardi di persone?
    Quando l’instrastruttura è in poche mani – stati o corporation – chi rappresenta gli altri? Come costruiamo meccanismi di partecipazione democratica che vadano oltre gli accordi bilaterali?
  • Possiamo evitare la concentrazione del potere computazionale?
    La storia del petrolio insegna: concentrare risorse startegiche in poche mani crea dipendenze che durano generazioni. Come evitiamo di ripetere gli stessi errori?
  • Chi beneficia economicamente e chi paga i costi reali?
    Costi energetici, ambientali, sociali: la trasizione dal petrolio all’AI non è a costo zero. Come garantiamo che i benefici siano distribuiti equamente?
  • Servono meccanismi di governace internazionale?
    Standard condivisi, audit indipendenti, processi democratici di verifica. Non solo accordi tra governi e corporation, ma spazi dove la società civile abbiamo voce.
  • L’Europa può avere sovranità digitali con solo le leggi?
    L’AI ACT è importante. Ma senza instrastruttura propria, sei sempre dipendente da chi controlla. Serve investire su scala comparabile ai competitor globali.

La realtà è semplice: chi controlla l’instrastruttura, controlla il futuro

“Il petrolio aveva fatto ricca l’Arabia Saudita. L’intelligenza Artificiale, ora, potrebbe renderla necessaria”. Necessaria a chi? Per fare cosa? E a quali condizioni?

La transizione dal petrolio all’AI non è inevitabile nella forma che sta prendendo. Non è scritto che chi ha dominato l’energia debba controllare l’intelligenza. Non è scontato che la potenza computazionale debba concentrarsi in tre o quattro hub globali. L’AI può liberare o concentrare potere. La differenza sta in chi la governa, come viene distribuita e chi ne beneficia davvero.

Il petrolio del XX secolo ha creato ricchezza straordinaria, ma anche dipendenza, diseguaglianze profonde, conflitti per il controllo delle risorse. L’AI del XXI secolo rischi di fare lo stesso, ma su scala esponenziale, se non impariamo dalle lezioni del passato. Gli autori del petrolio hanno capito dove va il potere. Hanno riconosciuto prima di molti altri che l’AI non è solo tecnologia: è instrastruttura di potere. Ora tocca al resto del mondo, a noi, all’Europa, alla società civile globale di capire come garantire che quel potere serve davvero l’umanità intera, non solo chi riesce a concentrarlo nelle proprie mani.

La domanda non è se l’Arabia Saudita, USA o Cina diventeranno hub globali dell’AI. Probabilmente lo diventeranno tutti. La domanda è costruiremo meccanismi di governance che impediscano la replica digitale delle stresse concentrazioni di potere dell’era del petrolio?

Perchè se il XX secolo, ci ha insegnato qualcosa, è che chi controlla le risorse strategiche controlla il futuro. E nel XXI secola, la risorsa strategica è l’intelligenza stessa.

Chi controlla l’infrastruttura, controlla come pensiamo, come lavoriamo e come viviamo!

Articoli in evidenza