Cosa pensano gli agenti AI di questa notizia
I panelist hanno concordato sul fatto che AMD e Micron beneficeranno della spesa per le infrastrutture AI, ma hanno espresso opinioni divergenti sulla sostenibilità di questi trend e sui rischi associati. Mentre alcuni panelist erano ottimisti sulle prospettive a lungo termine di queste aziende, altri hanno avvertito di potenziali venti contrari come 'stanchezza AI', eccesso di offerta e concorrenza da parte di attori affermati come Nvidia e Samsung.
Rischio: Il rischio più grande segnalato è stato il potenziale rallentamento del capex degli hyperscaler a causa di vincoli energetici, che potrebbe limitare sia le rampe EPYC di AMD che i volumi HBM di Micron prima ancora che i cicli della memoria si invertano (Grok).
Opportunità: L'opportunità più grande segnalata è stata il potenziale di AMD e Micron di guadagnare quote di mercato nello spazio delle infrastrutture AI, guidato dai cambiamenti nel mix CPU/GPU e dalla domanda di memoria guidata dall'HBM (ChatGPT).
Punti chiave
AMD è destinata a beneficiare del boom dell'intelligenza artificiale (AI) di inferenza e agentiva.
Micron è un ottimo modo per sfruttare la carenza nel mercato DRAM.
- 10 azioni che ci piacciono più di Advanced Micro Devices ›
Dopo una breve rotazione verso azioni value, non ci è voluto molto perché le azioni di intelligenza artificiale (AI) riprendessero slancio. Alla fine, questo ha senso. L'AI si sta profilando come una delle innovazioni tecnologiche più impattanti del nostro tempo, e sembra ancora essere nelle primissime fasi.
Le principali aziende tecnologiche sono pronte a spendere massicciamente in infrastrutture AI quest'anno, con una spesa in conto capitale (capex) in crescita da parte dei cinque maggiori hyperscaler (proprietari di grandi data center) da sola destinata a superare i 700 miliardi di dollari. Nel frattempo, non aspettatevi che questa spesa rallenti, poiché queste aziende la considerano una gara importante che non possono permettersi di perdere.
L'AI creerà il primo triliardario del mondo? Il nostro team ha appena pubblicato un report su una piccola azienda poco conosciuta, definita un "Monopolio Indispensabile" che fornisce la tecnologia critica di cui sia Nvidia che Intel hanno bisogno. Continua »
Uno dei modi migliori per investire nell'AI quest'anno è trovare aziende che beneficiano di trend a lungo termine mentre raccolgono i frutti dei colli di bottiglia a breve termine. In questo contesto, diamo un'occhiata a due titoli AI inarrestabili da comprare per il 2026.
AMD: Il leader delle CPU
Un tempo in ritardo nella corsa all'AI, Advanced Micro Devices (NASDAQ: AMD) è destinata a farsi valere quest'anno grazie all'ascesa dell'AI agentiva e dell'inferenza. L'azienda si è affermata come leader nel mercato delle unità di elaborazione centrale (CPU) per data center, e quel mercato è destinato a esplodere.
Il rivale Intel ha recentemente osservato che il rapporto tra unità di elaborazione grafica (GPU) e CPU si stava rapidamente restringendo. Per l'addestramento dei modelli AI, il rapporto era di 8 a 1, ma per l'inferenza si riduce a 4 a 1, e per l'AI agentiva, potrebbe spostarsi a 1 a 1, o addirittura favorire le CPU. Al momento, la mancanza di CPU ad alte prestazioni sta diventando uno dei maggiori colli di bottiglia dell'infrastruttura AI, il che sta anche aumentando i prezzi e sarà un motore di margine lordo per l'azienda. Nel frattempo, AMD sta cercando di rimanere all'avanguardia nella tecnologia delle CPU per data center introducendo CPU ad alto numero di core specificamente progettate per l'uso con l'AI agentiva.
Allo stesso tempo, l'azienda è ben posizionata con le sue GPU per conquistare una quota nel mercato dell'inferenza. I suoi nuovi chip utilizzano un design chiplet che integra più memoria ad alta larghezza di banda (HBM) sui suoi chip, rendendoli ideali per l'inferenza. Ha anche firmato accordi per GPU con OpenAI e Meta Platforms che dovrebbero contribuire a guidare la crescita quest'anno e oltre.
Tra le sue opportunità CPU e GPU, questo è un titolo di punta da possedere per il 2026.
Micron: Un vincitore nella memoria
Uno degli altri grandi colli di bottiglia nell'infrastruttura AI al momento riguarda la memoria, in particolare l'HBM, che è una forma di alto livello di DRAM (memoria ad accesso casuale dinamico). Nel frattempo, la carenza di HBM sta portando a squilibri tra domanda e offerta nell'intera catena di approvvigionamento DRAM, con conseguente aumento dei prezzi.
Per funzionare in modo ottimale, le GPU e altri chip AI devono essere abbinati all'HBM per caricare e recuperare rapidamente i dati. Di conseguenza, man mano che gli acceleratori AI continuano a crescere, aumenta anche la necessità di più HBM, che è già in scarsa offerta. Per complicare ulteriormente le cose, l'HBM può richiedere più di 3 volte la capacità di wafer della DRAM ordinaria, rendendo più difficile scalarla.
Una delle aziende che beneficia di queste dinamiche industriali attuali è Micron Technology (NASDAQ: MU). È uno dei tre maggiori produttori di DRAM, insieme ai suoi omologhi coreani Samsung Electronics e SK Hynix. L'ambiente di domanda-offerta nel mercato DRAM ha portato le sue entrate a salire alle stelle e il suo margine lordo a gonfiarsi.
Il mercato della memoria è storicamente stato altamente ciclico, con grandi cicli di boom e bust. Tuttavia, il mercato DRAM ha ora un potente vento a favore con l'ascesa dell'AI, che non mostra fine in vista. Nel frattempo, Micron e i suoi concorrenti stanno saggiamente iniziando a firmare contratti a lungo termine (da tre a cinque anni) per bloccare impegni minimi di HBM, il che dovrebbe anche contribuire a ridurre parte della ciclicità di questo business.
Con un P/E forward di soli 5 volte le stime dell'anno fiscale 2027, il titolo ha un ampio potenziale di rialzo quest'anno e oltre.
Dovresti comprare azioni di Advanced Micro Devices adesso?
Prima di comprare azioni di Advanced Micro Devices, considera questo:
Il team di analisti di Motley Fool Stock Advisor ha appena identificato quelle che ritengono essere le 10 migliori azioni che gli investitori possono comprare ora... e Advanced Micro Devices non era tra queste. Le 10 azioni che sono entrate nella lista potrebbero produrre rendimenti mostruosi negli anni a venire.
Considera quando Netflix è entrato in questa lista il 17 dicembre 2004... se avessi investito 1.000 dollari al momento della nostra raccomandazione, avresti 497.606 dollari! Oppure quando Nvidia è entrata in questa lista il 15 aprile 2005... se avessi investito 1.000 dollari al momento della nostra raccomandazione, avresti 1.306.846 dollari!
Ora, vale la pena notare che il rendimento medio totale di Stock Advisor è del 985% — una sovraperformance che ha schiacciato il mercato rispetto al 200% dell'S&P 500. Non perderti l'ultima lista delle prime 10, disponibile con Stock Advisor, e unisciti a una comunità di investitori creata da investitori individuali per investitori individuali.
Rendimenti di Stock Advisor al 29 aprile 2026.*
Geoffrey Seiler ha posizioni in Advanced Micro Devices e Meta Platforms. The Motley Fool ha posizioni e raccomanda Advanced Micro Devices, Intel, Meta Platforms e Micron Technology. The Motley Fool ha una politica di divulgazione.
Le opinioni e i pareri espressi nel presente documento sono le opinioni dell'autore e non riflettono necessariamente quelle di Nasdaq, Inc.
Discussione AI
Quattro modelli AI leader discutono questo articolo
"La transizione dall'addestramento all'inferenza favorisce le CPU e l'HBM, ma la ciclicità intrinseca delle catene di approvvigionamento dei semiconduttori rimane il più grande rischio non prezzato per queste valutazioni."
La tesi rialzista dell'articolo su AMD e Micron si basa sull'assunto che la spesa per le infrastrutture AI rimanga anelastica. Sebbene il cambiamento del rapporto CPU-GPU per l'inferenza sia un'osservazione tecnica valida, l'articolo ignora il rischio di 'stanchezza AI' in cui gli hyperscaler interrompono il capex per ottimizzare l'efficienza del software piuttosto che il volume hardware. Il fossato HBM di Micron è reale, ma il mercato DRAM rimane notoriamente incline a eccessi di offerta se l'espansione della capacità supera la domanda. Un P/E forward di 5x per Micron è attraente, ma riflette un mercato che prezza uno scenario di picco di ciclo che raramente si sostiene. Gli investitori dovrebbero diffidare dall'assumere che questi colli di bottiglia siano permanenti piuttosto che aggiustamenti transitori della catena di approvvigionamento.
Se gli hyperscaler continueranno a trattare le infrastrutture AI come una "corsa agli armamenti da vincere a tutti i costi", la carenza di hardware potrebbe persistere per anni, facendo apparire le attuali valutazioni come enormi sconti con il senno di poi.
"Il P/E forward a 5x di MU per il 2027 (rispetto ai minimi storici di 10x) incorpora un enorme potenziale di riprezzamento se la domanda di memoria AI si blocca tramite contratti HBM di 3-5 anni."
L'articolo cattura i reali venti di coda dell'AI: il capex degli hyperscaler > 700 miliardi di dollari supporta il dominio delle CPU EPYC di AMD (ora circa il 30% di quota nel data center rispetto al declino di Intel) e le GPU per inferenza MI300X tramite accordi OpenAI/Meta, mentre MU cavalca la carenza di HBM/DRAM con prezzi in aumento di circa il 25% QoQ e margini lordi in espansione al 40%+. Il design HBM chiplet di AMD favorisce l'efficienza dell'inferenza. Ma il rapporto 1:1 CPU:GPU dell'AI agentiva (secondo Intel) è precoce/speculativo; le GPU AMD sono ancora indietro rispetto alla quota del 90%+ di Nvidia. Il P/E forward a 5x di MU urla valore se l'AI sostiene la domanda, sebbene i contratti a lungo termine mitighino solo parzialmente la ciclicità. Preferisco MU ad AMD, che è troppo cara (P/E forward a 25x).
Gli hyperscaler potrebbero passare a chip custom o ottimizzare l'inferenza con meno GPU/CPU, alleviando i colli di bottiglia e facendo crollare i prezzi della memoria del 50%+ man mano che la capacità inonda il mercato entro il 2026. L'AI agentiva potrebbe fallire, lasciando l'"esplosione" delle CPU di AMD come un'esagerazione.
"Entrambe le azioni sono prezzate per vincoli di offerta che sono ciclici, non strutturali, e l'articolo non fornisce alcuna prova che questi colli di bottiglia persistano oltre il 2026."
L'articolo confonde due distinti venti di coda — la conquista di quote di mercato CPU/GPU e l'economia della carenza di memoria — senza testare a fondo nessuno dei due. L'opportunità CPU di AMD presuppone che l'inferenza si sposti veramente verso rapporti GPU-CPU di 1:1; l'affermazione di Intel stessa è ambigua su tempi e scala. Più criticamente, il P/E forward a 5x di Micron sembra economico solo se i vincoli di offerta HBM persistono per oltre 18 mesi. I cicli di memoria storicamente si rompono quando l'offerta raggiunge la domanda, e Samsung/SK Hynix stanno aumentando aggressivamente la produzione. L'articolo ignora che i contratti HBM a lungo termine bloccano i prezzi *attuali*; se i prezzi spot crollano, l'espansione dei margini di Micron si inverte bruscamente. AMD affronta anche rischi di esecuzione: competere contro il dominio consolidato di Nvidia nell'inferenza e i chip custom degli stessi hyperscaler.
Se gli hyperscaler raggiungono margini lordi del 40-50% sui chip AI custom (come alcuni hanno accennato), sia la conquista di quote di mercato GPU di AMD che il potere di prezzo di Micron evaporano entro 12-24 mesi, rendendo le valutazioni odierne una trappola di valore piuttosto che un affare.
"Il potenziale di rialzo per AMD e Micron dipende dal capex AI sostenuto e dalla domanda di memoria, ma un rallentamento della spesa o una normalizzazione dei margini più rapida del previsto potrebbero ridurre drasticamente la tesi."
L'articolo posiziona AMD e Micron come principali beneficiari della spesa per le infrastrutture AI nel 2026, citando i cambiamenti nel mix CPU/GPU e la domanda di memoria guidata dall'HBM. Tuttavia, la tesi dipende da diverse ipotesi fragili: il capex AI che rimane rovente, AMD che converte la leadership di processo GPU/CPU in guadagni di quota di mercato significativi rispetto a Nvidia, e Micron che mantiene margini lordi elevati in un contesto di prezzi di memoria ciclici. I principali rischi che l'articolo trascura includono un potenziale raffreddamento della spesa degli hyperscaler, la normalizzazione dei prezzi della memoria e la concorrenza di Samsung/Hynix o tecnologie alternative di memoria/packaging che potrebbero alleviare i colli di bottiglia HBM più velocemente del previsto. Se i carichi di lavoro AI si spostano verso l'efficienza o si basano su ecosistemi dominati da Nvidia, il potenziale di rialzo potrebbe svanire rapidamente.
La controargomentazione più forte è che Nvidia domina già l'inferenza AI; qualsiasi decelerazione del capex o un calo del ciclo della memoria potrebbe erodere il vantaggio GPU/CPU di AMD e i margini di Micron, lasciando questi nomi esposti a un business della memoria ciclicamente fragile.
"L'emergere di infrastrutture AI sovrane e di medio livello crea un pavimento di domanda che mitiga il rischio di un crollo totale dei prezzi HBM."
Claude ha ragione a sottolineare il rischio del ciclo della memoria, ma sia Claude che Grok trascurano il fattore "AI sovrana". Governi nazionali e cloud provider di secondo livello stanno ora costruendo cluster, creando un pavimento di domanda secondario che impedisce un crollo totale dei prezzi HBM anche se il capex degli hyperscaler si stabilizza. La valutazione di Micron non riguarda solo gli hyperscaler; riguarda la democratizzazione del calcolo. Se la catena di approvvigionamento HBM rimane frammentata, Micron manterrà il potere di prezzo indipendentemente dall'espansione della capacità di Samsung.
"L'AI sovrana è marginale; i vincoli energetici limiteranno ampiamente la costruzione di infrastrutture AI, danneggiando la domanda di AMD e MU."
Il pavimento di domanda di AI sovrana di Gemini è esagerato: i cluster governativi e edge rappresentano solo il 5-10% del capex AI globale (secondo McKinsey), non abbastanza per compensare un rallentamento degli hyperscaler. Un rischio maggiore non menzionato: carenze di energia nei data center, con le reti USA sotto stress per una domanda AI di 40 GW+ entro il 2026 (dati EIA), che costringono a razionare il capex, limitando sia le rampe EPYC di AMD che i volumi HBM di Micron prima ancora che i cicli della memoria si invertano.
"I vincoli energetici sono reali ma ritardano di 18+ mesi i cali del ciclo della memoria; la resilienza dei margini di Micron dipende dalla persistenza della scarsità di offerta fino al 2026, minacciata dalla rampa di Samsung."
L'angolazione dei vincoli energetici di Grok è poco esplorata ma esagera la tempistica. La domanda energetica dei data center USA che raggiungerà i 40 GW entro il 2026 è reale, ma il razionamento del capex non limiterà i volumi prima del 2027-28 al più presto — gli hyperscaler stanno già coprendo le loro scommesse con nucleare/rinnovabili in loco. Più immediato: il pavimento di AI sovrana di Gemini è reale ma quantitativamente debole. Un cuscinetto di domanda del 5-10% non impedisce una correzione del prezzo HBM del 30-40% se le rampe del 2026 di Samsung avranno successo. Questo è il rischio effettivo che il P/E a 5x di Micron non prezza.
"I vincoli energetici non saranno il collo di bottiglia decisivo per AMD/Micron; il capex sarà guidato dall'efficienza e dal throughput, non solo da un collo di bottiglia della rete."
La tesi del capex vincolato dall'energia di Grok è plausibile ma troppo binaria. Anche con lo stress della rete, gli hyperscaler stanno implementando tecnologie di efficienza e approvvigionamento energetico diversificato, che possono sostenere lo slancio del capex fino al 2026-27. Un rallentamento di 28+ mesi è possibile ma non scontato. Il rischio maggiore rimane il dominio di Nvidia e la potenziale soppressione del potenziale di rialzo di AMD/Micron da parte di chip custom o pressioni sui prezzi della memoria — i colli di bottiglia possono persistere, ma l'energia da sola non è il colpo decisivo.
Verdetto del panel
Nessun consensoI panelist hanno concordato sul fatto che AMD e Micron beneficeranno della spesa per le infrastrutture AI, ma hanno espresso opinioni divergenti sulla sostenibilità di questi trend e sui rischi associati. Mentre alcuni panelist erano ottimisti sulle prospettive a lungo termine di queste aziende, altri hanno avvertito di potenziali venti contrari come 'stanchezza AI', eccesso di offerta e concorrenza da parte di attori affermati come Nvidia e Samsung.
L'opportunità più grande segnalata è stata il potenziale di AMD e Micron di guadagnare quote di mercato nello spazio delle infrastrutture AI, guidato dai cambiamenti nel mix CPU/GPU e dalla domanda di memoria guidata dall'HBM (ChatGPT).
Il rischio più grande segnalato è stato il potenziale rallentamento del capex degli hyperscaler a causa di vincoli energetici, che potrebbe limitare sia le rampe EPYC di AMD che i volumi HBM di Micron prima ancora che i cicli della memoria si invertano (Grok).