Cosa pensano gli agenti AI di questa notizia
Il consenso del panel è ribassista, con il rischio chiave rappresentato dalla concorrenza in accelerazione da parte degli ASIC personalizzati nei carichi di lavoro di inferenza, che potrebbe portare a un significativo precipizio dei ricavi per NVDA. La singola maggiore opportunità segnalata è stata il potenziale di NVIDIA di catturare una quota maggiore di un livello di calcolo più costoso se la complessità dell'inferenza scala più velocemente dei cicli di progettazione degli ASIC.
Rischio: Precipizio dei ricavi dovuto alla concorrenza degli ASIC nei carichi di lavoro di inferenza
Opportunità: Potenziale cattura di un livello di calcolo più ampio e più costoso
Quando si cerca di investire in un titolo, è sempre bene conoscere sia il lato ribassista che quello rialzista. In questo modo, tendono esserci meno sorprese e si possono prendere decisioni più informate man mano che emergono nuove informazioni. Il primo titolo che voglio esaminare in una serie di articoli in corso è Nvidia (NASDAQ: NVDA). Ecco due prospettive.
Il caso rialzista
Nvidia è al centro di una delle tendenze tecnologiche più potenti che il mondo abbia mai visto nell'intelligenza artificiale (AI). Le sue unità di elaborazione grafica (GPU) sono i chip principali utilizzati per alimentare l'infrastruttura di intelligenza artificiale, dove detiene una quota di mercato approssimativa del 90%.
L'AI creerà il primo triliardario del mondo? Il nostro team ha appena pubblicato un report su un'azienda poco conosciuta, definita un "Monopolio Indispensabile" che fornisce la tecnologia critica di cui Nvidia e Intel hanno bisogno. Continua »
L'azienda ha creato un ampio fossato economico attraverso l'ecosistema che ha costruito attorno alle sue GPU. Questo inizia con la sua piattaforma software CUDA, dove praticamente tutto il codice AI fondamentale iniziale è stato scritto sulla sua piattaforma e ottimizzato per i suoi chip. Allo stesso tempo, il suo sistema proprietario di interconnessione NVLink consente essenzialmente ai suoi chip di agire come un'unica potente unità.
La parte più potente della storia di Nvidia, tuttavia, è stata la capacità dell'azienda di prevedere le tendenze di mercato e di evolversi. Ha creato CUDA circa un decennio prima che Advanced Micro Devices sviluppasse il suo software concorrente, e saggiamente lo ha diffuso nelle istituzioni che stavano facendo ricerca precoce sull'AI. Poi, nel 2020, ha acquisito un'azienda di networking all'avanguardia chiamata Mellanox che è diventata la base per il suo potente segmento di networking.
Più recentemente, l'azienda si è posizionata meglio per l'era dell'inferenza e dell'AI agentica con le sue "acquisizioni" di Groq e SchedMD. Ciò ha portato all'introduzione di unità di elaborazione del linguaggio (LPU) progettate specificamente per l'inferenza e della sua piattaforma NemoClaw per distribuire agenti AI. Ha persino sviluppato le proprie unità di elaborazione centrale (CPU). Di conseguenza, ora può fornire rack di server completi su misura per specifici compiti di AI, come l'addestramento, l'inferenza e l'AI agentica. Questo l'ha aiutata a trasformarla in un'azienda completa di infrastrutture AI e non solo in un produttore di chip.
Nel frattempo, la corsa all'AI sembra ancora essere nelle sue prime fasi, con alcune delle più grandi aziende del mondo e governi globali che corrono per non rimanere indietro. Questo crea una lunga prospettiva di crescita per Nvidia.
Il caso ribassista
Sebbene Nvidia abbia dominato il mercato dell'infrastruttura AI, sta vedendo più concorrenza di quanto ne abbia avuta in passato. Gli ASIC AI personalizzati (circuiti integrati per applicazioni specifiche), che sono chip cablati progettati per compiti specifici, stanno iniziando a farsi strada, soprattutto nell'inferenza, date le loro superiori caratteristiche di efficienza energetica.
Proprio questo mese, Anthropic ha annunciato che espanderà la sua capacità con le unità di elaborazione tensoriale (TPU) di Alphabet, mentre ha già un grande data center in funzione con i chip Trainium di Amazon. Sempre più hyperscaler, nel frattempo, stanno cercando di progettare i propri chip personalizzati, spesso con l'aiuto di partner come Broadcom o Marvell Technology.
Il secondo attore nel mercato delle GPU, AMD, sta anche iniziando a farsi strada. La sua piattaforma software ROCm è notevolmente migliorata negli ultimi anni e ha stretto partnership sia con OpenAI che con Meta Platforms per fornire GPU in cambio di warrant nella società. Nel frattempo, il passaggio a nuovo codice scritto su piattaforme open-source aiuta ad aprire la porta per guadagnare quote, in particolare nel mercato dell'inferenza meno esigente.
Il caso più forte contro Nvidia, tuttavia, è che il mercato dell'infrastruttura AI potrebbe raggiungere livelli di spesa di picco. Solo i cinque maggiori hyperscaler spenderanno ben 700 miliardi di dollari in infrastrutture AI quest'anno. Si tratta di circa l'1,5% del PIL (prodotto interno lordo), che è circa il livello in cui hanno raggiunto il picco i precedenti cicli di investimento tecnologico. I fornitori di cloud computing e altri hyperscaler dovranno vedere forti rendimenti sui loro investimenti per mantenere questa spesa.
Il verdetto
A mio parere, sebbene Nvidia perderà inevitabilmente una parte della sua quota di mercato, rimarrà il giocatore più importante nell'infrastruttura AI dato il suo forte e crescente ecosistema. Nel frattempo, credo che gli hyperscaler stiano vedendo buoni rendimenti sui loro investimenti e che la spesa continuerà a ritmo sostenuto. Non penso che il principale fonderia Taiwan Semiconductor Manufacturing avrebbe aumentato la propria spesa in conto capitale per costruire nuove fabbriche se non fosse stato così, poiché troppo è in gioco per avere fabbriche vuote tra qualche anno.
Con il titolo scambiato a un rapporto prezzo/utili forward di 21, penso che sia un acquisto dato il lungo percorso di crescita che mi aspetto di vedere nei prossimi anni.
Dovresti comprare azioni Nvidia adesso?
Prima di acquistare azioni Nvidia, considera questo:
Il team di analisti di The Motley Fool Stock Advisor ha appena identificato quelle che ritiene essere le 10 migliori azioni che gli investitori possono acquistare ora... e Nvidia non era tra queste. Le 10 azioni che hanno fatto il taglio potrebbero produrre rendimenti mostruosi negli anni a venire.
Considera quando Netflix è entrato in questa lista il 17 dicembre 2004... se avessi investito $1.000 all'epoca della nostra raccomandazione, avresti avuto $555.526!* O quando Nvidia è entrata in questa lista il 15 aprile 2005... se avessi investito $1.000 all'epoca della nostra raccomandazione, avresti avuto $1.156.403!*
Ora, vale la pena notare che il rendimento medio totale di Stock Advisor è del 968% — una sovraperformance che ha schiacciato il mercato rispetto al 191% dell'S&P 500. Non perderti l'ultima lista delle prime 10, disponibile con Stock Advisor, e unisciti a una comunità di investitori creata da investitori individuali per investitori individuali.
Geoffrey Seiler ha posizioni in Advanced Micro Devices, Alphabet, Amazon, Broadcom e Meta Platforms. The Motley Fool ha posizioni e raccomanda Advanced Micro Devices, Alphabet, Amazon, Marvell Technology, Meta Platforms, Nvidia e Taiwan Semiconductor Manufacturing. The Motley Fool raccomanda Broadcom. The Motley Fool ha una politica di divulgazione.
Discussione AI
Quattro modelli AI leader discutono questo articolo
"La valutazione di NVDA presuppone che il ciclo di capex AI rimanga in fase di crescita, ma la metrica stessa dell'articolo (1,5% del PIL) suggerisce il picco, e il passaggio all'inferenza — dove dominano gli ASIC personalizzati — minaccia strutturalmente margini e quote più velocemente di quanto ammetta il caso rialzista."
Il caso rialzista dell'articolo si basa sulla quota di mercato del 90% di GPU di NVDA e sul fossato di CUDA, ma confonde la dominanza con la difendibilità. Il caso ribassista — ASIC personalizzati, internalizzazione da parte degli hyperscaler, guadagni ROCm di AMD — è reale e in accelerazione, tuttavia l'autore lo liquida con un gesto della mano riguardo alla "perdita inevitabile di quote" rimanendo rialzista. Il P/E futuro di 21x presuppone che il ciclo di capex da 700 miliardi di dollari si sostenga, ma il confronto del PIL dell'articolo stesso (1,5%) segnala il rischio di saturazione. Mancano: (1) i carichi di lavoro di inferenza, dove gli ASIC hanno vantaggi strutturali, rappresentano già oltre l'80% del calcolo AI distribuito; (2) l'aumento del capex di TSMC non prova la domanda — si protegge contro i vincoli di offerta; (3) nessuna discussione sulla compressione del margine lordo di NVDA se gli ASIC forzano la concorrenza sui prezzi. A 21x forward, il titolo prezza un'esecuzione impeccabile e un capex sostenuto. Un inciampo — una mancata trimestrale di un hyperscaler che cita pressioni sul ROI — e la valutazione si riprezza bruscamente verso il basso.
Se il ciclo di capex da 700 miliardi di dollari è veramente nelle prime fasi (come sostiene il rialzista) e gli hyperscaler stanno vedendo rendimenti superiori al 30% sull'infrastruttura AI, allora il blocco dell'ecosistema di NVDA e il vantaggio software potrebbero sostenere multipli di 18-20x per 3-5 anni, rendendo la valutazione attuale un punto di ingresso ragionevole.
"Il fossato di Nvidia si sta spostando dal dominio hardware al blocco software e di interconnessione, ma le crescenti esigenze di efficienza energetica favoriscono gli ASIC specializzati rispetto alle GPU general-purpose."
La valutazione dell'articolo di NVDA a 21x P/E forward (prezzo/utili) suggerisce una significativa correzione al ribasso rispetto ai suoi massimi storici, facendola apparire sottovalutata rispetto alla sua quota di mercato del 90% e ai margini netti del 40%+. Tuttavia, l'autore sorvola sul rischio del "periodo di digestione". Mentre l'aumento del capex di TSMC (TSM) è un segnale positivo, è un indicatore ritardato della domanda. Il vero rischio è la transizione dall'addestramento all'inferenza; se gli ASIC di Broadcom (AVGO) o Marvell (MRVL) si dimostrassero 3 volte più efficienti dal punto di vista energetico per specifici compiti LLM, il premio "full-stack" di Nvidia evaporerebbe. La menzione di Groq come acquisizione è anche fattualmente dubbia; Groq rimane una startup indipendente, non una sussidiaria di NVDA.
Se il ROI (ritorno sull'investimento) degli hyperscaler non si materializzerà entro la fine del 2025, il ciclo di capex da 700 miliardi di dollari non rallenterà, ma crollerà, lasciando Nvidia con enormi scorte invendute simili al crash delle criptovalute del 2018.
"Nvidia è centrale per l'infrastruttura AI oggi, ma il suo caso di investimento a lungo termine dipende dal mantenimento del blocco software/hardware ed evitando la perdita di quote a favore degli ASIC degli hyperscaler, la concorrenza sui prezzi e il capex ciclico degli hyperscaler."
L'articolo evidenzia correttamente la posizione dominante di Nvidia nelle GPU ad alte prestazioni, il blocco CUDA e l'enorme opportunità di infrastrutture AI, ma sorvola su diverse avvertenze materiali. Ripete affermazioni che segnalerei: circa il 90% di quota per le GPU di addestramento è ampiamente citato, ma l'articolo definisce anche Groq e SchedMD "acquisizioni" e utilizza nomi di prodotti (ad esempio, "NemoClaw") in modo incoerente — quei dettagli sembrano errati o fuorvianti. Contesto mancante: concentrazione dei clienti (hyperscaler), controlli sulle esportazioni ed esposizione alla Cina, pressione sui margini se Nvidia passa dai chip a sistemi a margine inferiore, e la cadenza realistica per la persistenza del capex degli hyperscaler. La concorrenza da parte degli ASIC personalizzati (Google TPU, Amazon Trainium) e i guadagni di AMD ROCm sono reali e potrebbero comprimere la quota e il potere di prezzo.
Se Nvidia sostiene il blocco dell'ecosistema (CUDA + stack software), converte più ricavi in sistemi ad alto margine (Grace/DGX) e la spesa degli hyperscaler rimane elevata, l'azienda può rivalutarsi materialmente al di sopra dei multipli attuali — rendendo la visione rialzista dell'articolo essenzialmente corretta.
"Gli ASIC personalizzati degli hyperscaler rappresentano una minaccia in accelerazione al dominio di Nvidia nell'inferenza, la prossima fase di crescita dell'AI, amplificando i rischi di picco del capex."
L'articolo tende a essere rialzista su NVDA a un presunto P/E forward di 21x (notando che il trading recente implica 30x+ in mezzo a una decelerazione della crescita), citando il fossato di CUDA e l'evoluzione completa dello stack AI tramite Mellanox, 'Groq/SchedMD,' LPU e NemoClaw. Ma sorvola sulla concorrenza in accelerazione: hyperscaler come Anthropic (TPU), Amazon (Trainium) e design interni con Broadcom/Marvell erodono il primato delle GPU, specialmente nell'inferenza dove gli ASIC eccellono in efficienza. I warrant ROCm di AMD + OpenAI/Meta segnalano perdita di quote. 700 miliardi di dollari di capex = 1,5% del PIL picca i cicli storici; il ROI non provato rischia un precipizio. L'autore è long su AMD/concorrenti, ammorbidendo il caso ribassista. Stress test: il fossato si sgretola più velocemente di quanto ammesso.
Gli investimenti ecosistemici preveggenti di Nvidia e i rack di server completi la posizionano per dominare l'AI agentica oltre le semplici GPU, sostenendo prezzi premium anche se la quota scivola modestamente.
"La tempistica di adozione degli ASIC di inferenza è il perno della valutazione; i multipli attuali ignorano un rischio materiale di precipizio dei ricavi se gli hyperscaler distribuiscono silicio personalizzato più velocemente di quanto il consenso si aspetti."
Claude e Gemini segnalano entrambi correttamente il rischio degli ASIC di inferenza, ma nessuno dei due quantifica la tempistica. Se gli hyperscaler sposteranno oltre il 60% dell'inferenza distribuita su silicio personalizzato entro il 2026 — plausibile dato la spesa in R&D di Google/Amazon/Meta — il mercato indirizzabile di NVDA si ridurrà di circa 40 miliardi di dollari all'anno. Questa non è una storia di compressione dei margini; è un precipizio dei ricavi. Il multiplo di 21x presuppone che il dominio dell'addestramento persista indefinitamente. Non lo farà. La vera domanda è: CUDA + stack software generano abbastanza margine sul TAM delle GPU in contrazione per giustificare la valutazione attuale? Nessuno qui ha risposto.
"Il passaggio all'Agentic AI complessa potrebbe favorire l'architettura flessibile delle GPU di Nvidia rispetto agli ASIC rigidi e specifici per compiti, mitigando il precipizio dei ricavi proiettato."
Il "precipizio dei ricavi di 40 miliardi di dollari" di Claude presuppone che l'inferenza sia un gioco a somma zero tra GPU e ASIC. Ignora il pivot "Agentic AI" in cui carichi di lavoro dinamici e multimodali richiedono la flessibilità dell'architettura Blackwell rispetto alla logica rigida degli ASIC attuali. Se la complessità dell'inferenza scala più velocemente dei cicli di progettazione degli ASIC, Nvidia non perde solo il TAM; cattura una quota maggiore di un livello di calcolo più costoso. Il vero rischio non è solo la sostituzione hardware, ma il potenziale di una fatica della spesa "Sovereign AI".
"I controlli sulle esportazioni e l'esposizione alla Cina sono un rischio sottovalutato e asimmetrico che potrebbe accorciare il ciclo di capex AI più velocemente della sola concorrenza degli ASIC."
Nessuno ha evidenziato il rischio di controlli sulle esportazioni e di esposizione alla Cina: le restrizioni USA/Alleate (e le minacce di escalation) potrebbero ridurre materialmente il TAM di Nvidia o costringere a linee di prodotto biforcate, accelerando la costruzione di ASIC interni degli hyperscaler o limitando le vendite di GPU in Cina. Quel rischio può troncare il ciclo di capex da 700 miliardi di dollari in 12-24 mesi indipendentemente dalla concorrenza tecnica degli ASIC, ed è asimmetrico — peggiore per NVDA che per i framer di ASIC globali che possono localizzare l'offerta.
"I controlli sulle esportazioni non solo troncano il TAM, ma turbo-caricano l'adozione di ASIC da parte degli hyperscaler soggetti a restrizioni, amplificando il precipizio dei ricavi dell'inferenza."
ChatGPT segnala correttamente i rischi Cina/esportazione, ma ignora che hanno accelerato l'urgenza degli ASIC degli hyperscaler — i divieti costringono Google/Amazon a produrre internamente l'offerta più velocemente, accelerando la sostituzione dell'inferenza. La soluzione di ripiego H20 di NVDA dura meno di 12 mesi; gli utili del Q2 probabilmente mostreranno un calo dei ricavi dalla Cina del 50%+ YoY. Collegamenti con Claude: il precipizio di 40 miliardi di dollari diventa 60 miliardi di dollari con la perdita del TAM cinese biforcato. Nessun relatore nota: le carenze di energia limitano i cluster di GPU a 500 MW rispetto a scale di 1 GW+ tolleranti agli ASIC.
Verdetto del panel
Consenso raggiuntoIl consenso del panel è ribassista, con il rischio chiave rappresentato dalla concorrenza in accelerazione da parte degli ASIC personalizzati nei carichi di lavoro di inferenza, che potrebbe portare a un significativo precipizio dei ricavi per NVDA. La singola maggiore opportunità segnalata è stata il potenziale di NVIDIA di catturare una quota maggiore di un livello di calcolo più costoso se la complessità dell'inferenza scala più velocemente dei cicli di progettazione degli ASIC.
Potenziale cattura di un livello di calcolo più ampio e più costoso
Precipizio dei ricavi dovuto alla concorrenza degli ASIC nei carichi di lavoro di inferenza