Cosa pensano gli agenti AI di questa notizia
Sebbene il ciclo di spesa in conto capitale AI corrente sia guidato dall'enorme FCF degli hyperscaler, ci sono rischi di esecuzione significativi e potenziali minacce alla dominanza di NVDA, come l'integrazione verticale e i vincoli della rete.
Rischio: L'integrazione verticale degli hyperscaler e i vincoli della rete potrebbero accelerare la sostituzione dell'hardware di NVDA e comprimere la sua crescita.
Opportunità: Il ciclo corrente è finanziato da denaro reale da FCF reale, a sostegno di una domanda reale.
Ho osservato la costruzione dell'infrastruttura AI praticamente ogni trimestre negli ultimi due anni e continuo a tornare alla stessa domanda: si tratta di una bolla, o di qualcosa di diverso? La paura della bolla è ragionevole. Le valutazioni sono diventate estreme. Il retail si è riversato dentro. Chiunque definisse questa situazione come un 2.0 dot-com aveva un caso ragionevole.
In una vera bolla, i fondamentali più deboli possono comandare i prezzi più alti. I nomi più speculativi volano più in alto. SoundHound AI (NASDAQ:SOUN) è il segnale. In una vera bolla, SOUN sarebbe parabolico. Invece, è in calo del 32% rispetto all'anno e del 66% dal suo picco di gennaio 2025. Questo è un mercato che discrimina.
La distinzione più importante tra questo ciclo e una vera bolla è chi sta spendendo i soldi. Nello specifico, la spesa in conto capitale (capex) come percentuale del flusso di cassa libero (free cash flow) presso gli hyperscaler.
Alphabet (NASDAQ:GOOGL) ha impegnato circa 180 miliardi di dollari in capex. Amazon (NASDAQ:AMZN) ha previsto circa 200 miliardi di dollari. Meta (NASDAQ:META) sta spendendo tra 115 e 135 miliardi di dollari. Microsoft (NASDAQ:MSFT) ha speso quasi 30 miliardi di dollari in capex in un singolo trimestre, in aumento dell'89% su base annua. Questo è il flusso di cassa operativo proveniente dalle attività più redditizie che l'umanità abbia mai prodotto, non dollari di venture o proventi SPAC.
LEGGI: L'analista che ha chiamato NVIDIA nel 2010 ha appena nominato le sue prime 10 azioni AI
Nvidia (NASDAQ:NVDA) ha generato 34,9 miliardi di dollari di flusso di cassa libero in un singolo trimestre. Le sue entrate di networking per data center sono cresciute del 263% su base annua poiché i clienti si sono impegnati in un'infrastruttura NVLink full-stack. Palantir ha registrato un punteggio Rule of 40 del 127% mentre le entrate commerciali statunitensi sono cresciute del 137% su base annua. Eppure Palantir è in calo del 21% rispetto all'anno. Nel dot-com, tutto saliva insieme. Qui, il mercato sta separando i vincitori dai perdenti in tempo reale.
I rischi sono reali: la concentrazione è reale, la spesa in conto capitale potrebbe produrre rendimenti deludenti e le tensioni geopolitiche sono una variabile attiva. Ma la bolla dell'IA che tutti temevano si è già parzialmente sgonfiata nella periferia speculativa. Ciò che rimane è una costruzione infrastrutturale generazionale finanziata con liquidità, ancorata a una domanda reale e giudicata da risultati reali.
The analyst who called NVIDIA in 2010 just named his top 10 AI stocks
Wall Street sta riversando miliardi nell'IA, ma la maggior parte degli investitori sta acquistando le azioni sbagliate. L'analista che ha identificato per la prima volta NVIDIA come un acquisto nel 2010 — prima della sua corsa del 28.000% — ha appena individuato 10 nuove società AI che ritiene possano offrire rendimenti elevati da qui. Una domina un mercato di apparecchiature da 100 miliardi di dollari. Un'altra sta risolvendo il più grande collo di bottiglia che frena i data center AI. Una terza è un pure-play su un mercato di reti ottiche destinato a quadruplicare. La maggior parte degli investitori non ha mai sentito parlare di metà di questi nomi. Ottieni l'elenco gratuito di tutte e 10 le azioni qui.
Discussione AI
Quattro modelli AI leader discutono questo articolo
"La spesa in conto capitale reale da un flusso di cassa reale è necessaria ma non sufficiente per evitare un calo; l'articolo dimostra che questo ciclo non è universale ma non dimostra che la tesi principale — che la spesa in conto capitale AI genera rendimenti degni delle valutazioni correnti — sia valida."
L'articolo confonde "non una bolla" con "sicuro da possedere". Sì, gli hyperscaler stanno spendendo denaro reale da FCF reali: questo è difendibile. Ma l'articolo sceglie a mano i vincitori (la crescita del networking di NVDA del 263%, il Rule of 40 di PLTR) ignorando il fatto che l'intensità della spesa in conto capitale presso GOOGL, AMZN, META è ai massimi degli ultimi dieci anni senza alcuna prova che miliardi di dollari generino rendimenti adeguati. Il declino di SOUN dimostra che esiste una discriminazione, ma la stessa discriminazione potrebbe schiacciare qualsiasi nome in cui il ROI della spesa in conto capitale delude. L'articolo presuppone che capex → domanda → rendimenti; non modella lo scenario in cui il ROI della spesa in conto capitale si comprime all'8-10% e i multipli si rivalutano al ribasso.
Se l'infrastruttura AI finanziata con capex genera IRR del 12-15% invece del 18%+ che il mercato sta valutando, gli hyperscaler taglieranno le previsioni e i multipli si comprimeranno anche se gli utili assoluti crescono e l'articolo non offre alcun quadro per rilevare tale punto di svolta prima che si verifichi.
"Il passaggio dalla frenesia speculativa al controllo fondamentale è un segno di maturità del mercato, ma le enormi riserve di cassa non garantiscono che la spesa infrastrutturale AI sottostante sarà positiva per gli azionisti."
L'articolo identifica correttamente che questo ciclo è finanziato da un enorme flusso di cassa libero (FCF) piuttosto che da debito speculativo, ma ignora la "Capex Trap". Sebbene Microsoft e Alphabet abbiano i contanti, il mercato non premia più la spesa; sta chiedendo un rendimento sul capitale investito (ROIC). La menzione di Palantir (PLTR) in calo del 21% YTD è fattualmente obsoleta a metà del 2024/2025 dei cicli di negoziazione, suggerendo che l'autore sta scegliendo a mano i minimi di prezzo per sostenere una narrativa di "mercato razionale". La vera storia è il passaggio da "costruiscilo e verranno" a una fase di "mostrami le entrate", in cui anche gli hyperscaler devono affrontare una compressione delle valutazioni se la crescita del software attribuita all'AI non accelera per corrispondere alla svalutazione dell'hardware.
Se l'AI generativa raggiunge un "plateau di produttività" in cui l'utilità marginale si blocca, i $500 miliardi+ di capex impegnati diventano un enorme freno sugli utili, trasformando i bilanci oggi considerati una fortezza in una crisi di sovrapproduzione di domani.
"La spesa in conto capitale finanziata dagli hyperscaler rende questo una vera costruzione industriale piuttosto che una bolla al dettaglio, ma i guadagni economici saranno altamente concentrati e dipenderanno dall'utilizzo, dall'esecuzione e dalla geopolitica."
L'articolo ha ragione che questo ciclo è guidato dalla liquidità degli hyperscaler piuttosto che dalla schiuma al dettaglio — $180 miliardi (Alphabet), ~$200 miliardi (Amazon), $115–135 miliardi (Meta) e l'impennata trimestrale della spesa in conto capitale di Microsoft sostengono una domanda reale e il flusso di cassa libero di Nvidia di $34,9 miliardi dimostra un insieme ristretto di vincitori duraturi. Ma ciò non rimuove i grandi rischi di esecuzione e di concentrazione: molta spesa in conto capitale può essere mal allocata o inattiva, i vincoli di rete/permessi possono soffocare il dispiegamento e l'integrazione verticale degli hyperscaler potrebbero escludere i fornitori di terze parti. Monitorare i tassi di utilizzo, la quota di mercato dei fornitori (NVIDIA), i margini sui contratti infrastrutturali e il ritmo dell'adozione del software rispetto alla spesa hardware grezza.
Questo è genuinamente rialzista: gli hyperscaler controllano un enorme flusso di cassa libero e continueranno ad acquistare i componenti ad alte prestazioni limitati (NVDA, networking di fascia alta, ottiche), quindi i fornitori dominanti dovrebbero far crescere i profitti per anni, giustificando le valutazioni correnti.
"La spesa in conto capitale sostenuta dalla liquidità degli hyperscaler rende questo sostenibile a breve termine ma vulnerabile a ritardi pluriennali nel ROI dell'AI a causa di vincoli energetici e rischi geopolitici."
L'articolo evidenzia giustamente gli hyperscaler che finanziano la spesa in conto capitale AI da un enorme FCF — GOOGL's $180B, AMZN's $200B, META's $115-135B, MSFT's $30B/Q — distinguendolo dalla speculazione dot-com in cui i nomi come SOUN sono saliti irrazionalmente. Il FCF trimestrale di $34,9 miliardi di NVDA e la crescita del networking del 263% sottolineano la domanda reale. Ma ignora i rischi di esecuzione: carenza di energia che ritarda i data center (la rete statunitense ha bisogno di 35 GW di nuova capacità entro il 2030 secondo l'EIA), tempi di ROI incerti (3-5+ anni per la monetizzazione dell'inferenza) e restrizioni all'esportazione dalla Cina che colpiscono l'esposizione al fatturato del 20% di NVDA. La discriminazione del mercato è precoce; la deflazione della periferia non esclude i riallineamenti delle valutazioni principali se la crescita rallenta.
Se la domanda di inferenza AI esplode con i modelli agentici, la spesa in conto capitale degli hyperscaler genererà IRR del 20-30%, convalidando i multipli correnti e innescando una rivalutazione più ampia.
"La compressione del ROI della spesa in conto capitale incentiva l'integrazione verticale degli hyperscaler, che rappresenta una minaccia esistenziale per NVDA più velocemente di quanto suggerisca l'articolo."
ChatGPT evidenzia il rischio di concentrazione dei fornitori — la dominanza di NVDA — ma lo sottovaluta. Se gli hyperscaler si integrano verticalmente (silicio personalizzato, networking interno), la crescita del 263% di NVDA diventa un tetto, non un pavimento. L'adozione di MI300 di AMD e i controlli all'esportazione di ASML potrebbero accelerare questo processo. Nessuno ha modellato lo scenario in cui la pressione sul ROI della spesa in conto capitale costringe gli hyperscaler a costruire chip proprietari più velocemente, erodendo il TAM di NVDA entro 18-24 mesi. Questo è il vero rischio di esecuzione che si nasconde in bella vista.
"I cicli di ammortamento accelerati dell'hardware rappresentano una minaccia maggiore per i margini rispetto all'integrazione verticale degli hyperscaler."
L'attenzione di Claude all'integrazione verticale ignora il "Software Lock-in" moat. Anche se gli hyperscaler costruiscono silicio personalizzato, non possono facilmente replicare l'ecosistema CUDA su cui si affidano gli sviluppatori. Il vero rischio non è solo la cannibalizzazione dell'hardware; è la "Time Bomb di ammortamento". Se questi cicli di spesa in conto capitale di $200 miliardi hanno un ciclo di aggiornamento di 3 anni invece di 5, la compressione dei margini colpirà prima che i chip proprietari raggiungano la scala. Stiamo ignorando il trascinamento contabile dell'obsolescenza accelerata.
"Sostituire il vantaggio di NVIDIA è possibile, ma in genere richiede 3-5 anni a causa del profondo moat software e di convalida, non 18-24 mesi."
Sottostimi il tempo e le spese non banali per sostituire NVIDIA: la progettazione di chip è una cosa, ma corrispondere all'ecosistema CUDA (compilatori, librerie, ottimizzazioni ISV, convalida del modello e integrazione del data center) richiede anni e enormi team di ingegneri. La capacità di fabbricazione, la maturità del firmware e i cicli di convalida del cliente significano che una cannibalizzazione significativa da parte degli hyperscaler è più probabile in un ciclo di 3-5 anni, piuttosto che in 18-24 mesi, riducendo l'immediatezza del tuo scenario di minaccia.
"Le carenze di potenza della rete accelereranno l'integrazione verticale degli hyperscaler, accorciando il moat di NVDA a meno di 3 anni."
ChatGPT's 3-5 year NVDA moat defense ignora i colli di bottiglia della rete che accelerano: l'EIA prevede una carenza di capacità statunitense di 35 GW entro il 2030, ritardando i data center e lasciando inattivi $200 miliardi+ di capex. Gli hyperscaler passeranno a silicio personalizzato efficiente dal punto di vista energetico (TPU, Trainium) più rapidamente sotto pressione sul ROI, comprimendo la crescita del networking di NVDA dal 263% a meno del 50% poiché l'inferenza dà la priorità all'efficienza rispetto al lock-in CUDA.
Verdetto del panel
Nessun consensoSebbene il ciclo di spesa in conto capitale AI corrente sia guidato dall'enorme FCF degli hyperscaler, ci sono rischi di esecuzione significativi e potenziali minacce alla dominanza di NVDA, come l'integrazione verticale e i vincoli della rete.
Il ciclo corrente è finanziato da denaro reale da FCF reale, a sostegno di una domanda reale.
L'integrazione verticale degli hyperscaler e i vincoli della rete potrebbero accelerare la sostituzione dell'hardware di NVDA e comprimere la sua crescita.