Các tác nhân AI nghĩ gì về tin tức này
AMD's software stack (ROCm) trailing Nvidia's CUDA
Rủi ro: AMD's CPU dominance in data centers for agentic AI workloads
Cơ hội: AMD's CPU dominance in data centers for agentic AI workloads
Điểm chính
Nvidia đang định vị mình cho giai đoạn tiến hóa tiếp theo của AI.
AMD nằm ở giao điểm của hai xu hướng lớn nhất trong AI.
- 10 cổ phiếu chúng tôi thích hơn Nvidia ›
Cơn sốt trí tuệ nhân tạo (AI) đang tạo ra những người chiến thắng khổng lồ, nhưng không phải mọi cổ phiếu cưỡi trên làn sóng này sẽ mang lại mức sinh lời tương tự cho nhà đầu tư.
Nvidia (NASDAQ: NVDA) và Advanced Micro Devices (NASDAQ: AMD) là hai cái tên lớn nhất cung cấp năng lượng cho cuộc cách mạng AI, và cả hai đều chứng kiến nhu cầu bùng nổ đối với chip của mình. Trong khi chu kỳ siêu AI có thể đủ lớn để cả hai công ty cùng phát triển, một cổ phiếu vẫn nổi bật là lựa chọn mua tốt hơn vào lúc này.
Liệu AI có tạo ra tỷ phú đầu tiên trên thế giới? Nhóm của chúng tôi vừa công bố một báo cáo về một công ty ít được biết đến, được gọi là "Độc quyền Không thể thiếu" cung cấp công nghệ quan trọng mà cả Nvidia và Intel đều cần. Tiếp tục »
Lý do đến từ cách mỗi công ty được định vị trong hệ sinh thái AI và bao nhiêu cơ hội đó đã được định giá vào cổ phiếu của họ.
Nvidia: Vua của cơ sở hạ tầng AI
Nvidia đã là người chiến thắng lớn nhất trong việc xây dựng cơ sở hạ tầng AI cho đến nay. Công ty đã chứng kiến mức tăng trưởng khổng lồ qua nhiều năm, khi các đơn vị xử lý đồ họa (GPU) của họ là chip chính được sử dụng để đào tạo các mô hình ngôn ngữ lớn (LLMs) cung cấp năng lượng cho AI. Điều này đã thúc đẩy doanh thu của họ tăng từ dưới 17 tỷ USD trong tài chính 2021 (kết thúc tháng 1 năm 2021) lên 216 tỷ USD trong tài chính 2026. Trên đường đi, Nvidia đã trở thành công ty lớn nhất thế giới với vốn hóa thị trường hơn 4 nghìn tỷ USD.
Sự thống trị của Nvidia trong đào tạo mô hình AI bắt nguồn từ nền tảng phần mềm CUDA của họ, nơi hầu hết mã AI nền tảng đã được viết và tối ưu hóa cho chip của họ. Điều này đã giúp họ thiết lập thị phần khoảng 90% trong không gian GPU. Tuy nhiên, công ty không hài lòng với thành quả và đã bận rộn định vị mình cho giai đoạn tiếp theo của AI. Điều này bao gồm việc cấp phép công nghệ của Groq và thuê nhân viên của họ để tích hợp các đơn vị xử lý ngôn ngữ (LPUs) được xây dựng cho suy luận vào hệ sinh thái của mình.
Ngày nay, Nvidia còn nhiều hơn một nhà sản xuất chip. Nó đã tự biến mình thành nhà cung cấp cơ sở hạ tầng AI toàn diện, định vị mình để tiếp tục là người chiến thắng AI vững chắc.
AMD: Cưỡi trên xu hướng AI lớn tiếp theo
Trong khi AMD đã đóng vai trò thứ hai so với Nvidia trong thị trường GPU trung tâm dữ liệu, công ty được định vị tốt cho hai trong số xu hướng AI lớn tiếp theo: suy luận và AI tác nhân. Trong khi Nvidia đã tạo ra một hào sâu trong đào tạo LLM, nó không sâu bằng trong suy luận, vốn được dự đoán sẽ cuối cùng trở thành thị trường lớn hơn nhiều trong hai thị trường này.
Trong khi nó đến với chi phí của các chứng quyền cho cổ phiếu của mình, AMD đã đảm bảo hai thỏa thuận GPU khổng lồ từ hai trong số những người chi tiêu lớn nhất cho cơ sở hạ tầng AI là OpenAI và Meta Platforms. Quy mô của các thỏa thuận sẽ buộc cả hai công ty phải tích hợp phần mềm ROCm cạnh tranh của AMD vào hệ sinh thái của họ, và cả hai không nghi ngờ gì sẽ sử dụng GPU của AMD cho suy luận, nơi nó đã có thể tạo dựng được một vị trí vững chắc. Các thỏa thuận sẽ mang lại cho AMD hàng trăm triệu USD doanh thu mới và khuyến khích cả hai khách hàng hỗ trợ công ty, do quyền sở hữu mới của họ.
Tuy nhiên, cơ hội hấp dẫn nhất của AMD là trong bộ xử lý trung tâm (CPU) trung tâm dữ liệu, nơi nó hiện là nhà lãnh đạo thị trường. Với sự gia tăng của các tác nhân AI, nhu cầu CPU dự kiến sẽ bùng nổ, vì các chip này sẽ cần thiết để cung cấp logic tuần tự và quản lý quy trình làm việc đóng vai trò như bộ não chỉ cho cơ bắp AI (GPU) biết chính xác phải làm gì tiếp theo. Đây là thị trường khổng lồ tiếp theo cho cơ sở hạ tầng AI, và AMD đang ngồi ngay giữa nó.
Người chiến thắng
Cả Nvidia và AMD đều được định vị để hưởng lợi từ chu kỳ siêu AI, và mỗi công ty có thể mang lại lợi nhuận dài hạn vững chắc khi nhu cầu cơ sở hạ tầng AI tiếp tục tăng mạnh. Tuy nhiên, từ góc độ đầu tư, một cổ phiếu rõ ràng nổi bật.
Trong khi sự lãnh đạo của Nvidia trong AI là không thể phủ nhận, nó đã là công ty lớn nhất thế giới. Trong khi đó, AMD là một công ty nhỏ hơn nhiều và có cơ hội khổng lồ trong CPU trung tâm dữ liệu, trong khi các thỏa thuận với OpenAI và Meta sẽ cung cấp cho nó mức tăng trưởng khổng lồ ở mặt GPU. Đối với nhà đầu tư muốn tận dụng giai đoạn tiếp theo của cơn sốt AI, AMD là cổ phiếu cần sở hữu.
Bạn có nên mua cổ phiếu Nvidia ngay bây giờ?
Trước khi bạn mua cổ phiếu Nvidia, hãy xem xét điều này:
Nhóm phân tích Stock Advisor của Motley Fool vừa xác định những gì họ tin là 10 cổ phiếu tốt nhất để nhà đầu tư mua ngay bây giờ... và Nvidia không nằm trong số đó. 10 cổ phiếu lọt vào danh sách có thể mang lại lợi nhuận khổng lồ trong những năm tới.
Hãy xem xét khi Netflix lọt vào danh sách này vào ngày 17 tháng 12 năm 2004... nếu bạn đầu tư 1.000 USD vào thời điểm chúng tôi khuyến nghị, bạn sẽ có 532.066 USD!* Hoặc khi Nvidia lọt vào danh sách này vào ngày 15 tháng 4 năm 2005... nếu bạn đầu tư 1.000 USD vào thời điểm chúng tôi khuyến nghị, bạn sẽ có 1.087.496 USD!*
Hiện tại, đáng chú ý là tổng lợi nhuận trung bình của Stock Advisor là 926% - vượt trội so với thị trường so với 185% của S&P 500. Đừng bỏ lỡ danh sách 10 cổ phiếu hàng đầu mới nhất, có sẵn với Stock Advisor, và tham gia cộng đồng đầu tư được xây dựng bởi các nhà đầu tư cá nhân cho các nhà đầu tư cá nhân.
*Lợi nhuận của Stock Advisor tính đến ngày 3 tháng 4 năm 2026.
Geoffrey Seiler nắm giữ vị thế tại Advanced Micro Devices và Meta Platforms. Motley Fool nắm giữ vị thế tại và khuyến nghị Advanced Micro Devices, Meta Platforms, và Nvidia. Motley Fool có chính sách tiết lộ.
Quan điểm và ý kiến được trình bày ở đây là quan điểm và ý kiến của tác giả và không nhất thiết phản ánh quan điểm của Nasdaq, Inc.
Thảo luận AI
Bốn mô hình AI hàng đầu thảo luận bài viết này
"AMD's inference and agentic CPU thesis is real, but the article conflates optionality with certainty while underweighting Nvidia's proven ability to defend and extend its moat into new AI phases."
The article's AMD bull case rests on three pillars: (1) inference market upside vs. training, (2) CPU dominance for agentic AI, and (3) OpenAI/Meta deals with warrant dilution already 'paid.' But the inference thesis is speculative—Nvidia is aggressively entering inference with custom silicon (Blackwell, Rubin), and its CUDA moat may transfer there. AMD's CPU opportunity assumes agentic AI scales as predicted, which remains unproven. The article also ignores that NVDA's $4T valuation already prices in dominance, yet AMD at smaller scale faces execution risk on two simultaneous growth vectors. Warrant dilution signals desperation, not strength.
AMD's deals prove enterprise customers are actively diversifying away from Nvidia's ecosystem, and CPU-for-agents is a genuine structural shift that AMD uniquely owns—the article undersells how much of Nvidia's moat is training-specific.
"Nvidia’s software moat (CUDA) creates a structural competitive advantage that AMD’s hardware-centric strategy cannot easily overcome."
The article’s pivot to AMD relies on a 'valuation gap' narrative that ignores the brutal reality of software moats. While AMD’s ROCm software stack is improving, it remains a distant second to Nvidia’s CUDA, which acts as a massive switching-cost barrier for developers. Nvidia isn't just selling silicon; they are selling an entire proprietary ecosystem that locks in enterprise clients. Betting on AMD because it is 'cheaper' or has a smaller market cap is a classic value trap if the company fails to capture significant software mindshare. AMD’s CPU dominance is real, but it’s a slower-growth legacy business compared to the explosive, high-margin GPU training market where Nvidia remains the undisputed king.
If inference becomes a commodity-hardware market as the article suggests, Nvidia’s premium pricing power could collapse, making AMD’s lower-cost, high-volume approach the winning strategy for a post-training AI world.
"The article asserts AMD is the better buy on inference/ROCm and agentic CPU demand, but it provides insufficient quantitative valuation and lacks rigorous proof that those software/hardware wins will convert into durable market-share and margin gains."
The article’s core thesis—AI infrastructure “supercycle” large enough for both NVDA and AMD—is directionally plausible, but the valuation and mix arguments are light. NVDA’s moat is not just CUDA; it’s an end-to-end ecosystem plus accelerated software adoption—yet the piece downplays competitive risk (custom ASICs, hyperscaler in-house silicon, and software commoditization). For AMD, the inference/ROCm and CPU/agentic narrative hinges on a big assumption: that OpenAI/Meta GPU wins translate into sustained platform-level switching and CPU pull-through. Without concrete numbers (market share, margins, forward multiples), “better buy” is more story than evidence.
AMD could indeed be in earlier than the market expects for inference share and x86/accelerator attachment, meaning the risk/reward skews favorably if next earnings validate margins and design wins. Also, NVDA’s premium may persist longer than skeptics assume due to software lock-in.
"NVDA's CUDA ecosystem and full-stack expansions ensure it captures the lion's share of inference growth, making it the safer AI bet despite its size."
Article rightly flags AI's room for both NVDA and AMD but cherry-picks AMD's upside while downplaying NVDA's inference pivot—Blackwell GPUs excel at low-latency inference, and licensing Groq LPUs bolsters its stack. AMD's OpenAI/Meta GPU deals (hundreds of millions) pale vs NVDA's $100B+ quarterly data center run-rate, and ROCm trails CUDA in developer adoption despite warrants incentivizing support. EPYC's ~35% datacenter CPU share (per recent filings) aids agentic AI, but NVDA's Grace CPU integrates seamlessly with its GPUs. Valuations matter: NVDA ~38x FY27 EPS est vs AMD ~45x, with NVDA's moat intact for multi-year dominance.
AMD's smaller $220B market cap vs NVDA's $4T offers far more re-rating potential if inference flips to 70% of spend (as some analysts project) and agentic workflows boost CPU demand 2-3x.
"AMD's CPU dominance is a distribution asset for agentic AI that CUDA alone cannot overcome if inference truly commoditizes."
Grok conflates market share with moat durability. Yes, NVDA's $100B+ run-rate dwarfs AMD's deal size today—but that's backward-looking. The real question: does inference commoditize faster than CUDA stickiness holds? Grok assumes NVDA's Grace CPU 'seamlessly integrates,' but AMD's EPYC already owns 35% of datacenter CPUs. If agentic AI demands low-latency memory access, AMD’s CPU footprint is irrelevant because their architecture lacks the necessary fabric-level integration to keep GPUs saturated.
"AMD's CPU market share is a legacy asset that fails to overcome the architectural performance gap created by Nvidia's proprietary NVLink interconnect."
Claude, you’re overlooking the 'Grace' factor. Nvidia isn't selling a standalone CPU; they are selling a proprietary interconnect (NVLink) that creates a unified memory architecture AMD simply cannot match with standard x86/PCIe bottlenecks. Even with a 35% CPU share, AMD is selling commodities, while Nvidia is selling a vertically integrated appliance. If agentic AI demands low-latency memory access, AMD’s CPU footprint is irrelevant because their architecture lacks the necessary fabric-level integration to keep GPUs saturated.
"Gemini and ChatGPT debate NVLink vs. alternatives, but miss AMD's direct counter: MI300X accelerators integrate with EPYC CPUs via Infinity Fabric (up to 400GB/s bidirectional bandwidth, 5x PCIe Gen5), enabling low-latency agentic workflows without NVDA's proprietary stack. Recent MSFT/OpenAI deployments confirm viability. Unmentioned risk: AMD's inference gross margins trail NVDA's 75%+ by 10-15pts, eroding valuation gap if volumes don't scale fast."
The panel overstates Nvidia’s interconnect as a hard requirement; the real differentiator is likely software/utilization, not a magic memory-fabric moat.
"The panelists agreed that the AI infrastructure market is large enough for both NVDA and AMD, but they disagreed on which company is better positioned. The key risk is AMD's software stack (ROCm) trailing Nvidia's CUDA, and the key opportunity is AMD's CPU dominance in data centers for agentic AI workloads."
AMD's Infinity Fabric matches NVLink's bandwidth advantages for CPU-GPU inference, shifting the battle to software and margins.
Kết luận ban hội thẩm
Không đồng thuậnAMD's software stack (ROCm) trailing Nvidia's CUDA
AMD's CPU dominance in data centers for agentic AI workloads
AMD's CPU dominance in data centers for agentic AI workloads