Các tác nhân AI nghĩ gì về tin tức này
The panel agreed that NAND flash is less cyclical due to AI-driven demand, but disagreed on the durability of NVDA and AVGO’s multiples, with concerns about hyperscaler insourcing and potential margin compression.
Rủi ro: Hyperscaler insourcing of silicon (AVGO)
Cơ hội: Extended NAND supercycle due to AI storage demand (WDC)
Những điểm chính
Sandisk đã hưởng lợi từ chu kỳ siêu NAND.
GPU của Nvidia là những con chip phức tạp với hệ sinh thái mạnh mẽ phía sau chúng.
Broadcom là công ty dẫn đầu về mạng trung tâm dữ liệu và chip AI tùy chỉnh.
- 10 cổ phiếu chúng tôi thích hơn Nvidia ›
Sandisk (NASDAQ: SNDK) là cổ phiếu hoạt động tốt nhất trong Chỉ số Russell 1000 trong quý đầu tiên, với giá cổ phiếu tăng vọt 194%. Công ty đã hưởng lợi từ tình trạng thiếu hụt trên thị trường bộ nhớ NAND (flash), giúp đẩy giá lên cao và dẫn đến tăng trưởng doanh thu và lợi nhuận khổng lồ.
Trong khi thị trường NAND đang được thúc đẩy bởi sự bùng nổ cơ sở hạ tầng trí tuệ nhân tạo (AI), thì trong lịch sử, đây là một ngành kinh doanh rất chu kỳ. Đó là lý do tại sao việc mua một số cổ phiếu trí tuệ nhân tạo khác khi chúng còn rẻ có thể là một động thái tốt hơn. Hãy xem xét hai công ty có hoạt động kinh doanh bền vững và khác biệt hơn nhiều: Nvidia (NASDAQ: NVDA) và Broadcom (NASDAQ: AVGO).
Liệu AI có tạo ra người giàu nghìn tỷ đô la đầu tiên trên thế giới? Nhóm của chúng tôi vừa công bố một báo cáo về một công ty ít được biết đến, được gọi là "Độc quyền không thể thiếu" cung cấp công nghệ quan trọng mà cả Nvidia và Intel đều cần. Tiếp tục »
Nvidia: Nhà sản xuất chip AI với lợi thế cạnh tranh rộng lớn
Trong khi bộ nhớ flash là một ngành kinh doanh hàng hóa, các bộ xử lý đồ họa (GPU) của Nvidia là những con chip logic phức tạp được bao quanh bởi hệ sinh thái mạnh nhất trong lĩnh vực bán dẫn. Hơn một thập kỷ mã AI nền tảng đã được viết trên nền tảng phần mềm CUDA độc quyền của nó để tối ưu hóa hiệu suất của các con chip của nó cho các tác vụ AI, đặc biệt là đào tạo mô hình ngôn ngữ lớn (LLM). Sau đó, điều này được kết nối bởi danh mục sản phẩm mạng đang phát triển nhanh chóng của nó.
Nvidia đã là cổ phiếu tăng trưởng hàng đầu của thị trường trong vài năm qua, và các nhà đầu tư có thể mua cổ phiếu với mức định giá tuyệt vời, với cổ phiếu giao dịch ở tỷ lệ giá trên thu nhập dự phóng (P/E) chỉ 21 lần ước tính tài chính hiện tại và dưới 16 lần dựa trên ước tính đồng thuận của tài chính năm tới.
Broadcom: Dẫn đầu về ASIC và mạng
Mặc dù Broadcom không ngay lập tức được coi là rẻ, giao dịch ở mức 27,5 lần ước tính của các nhà phân tích tài chính hiện tại, bội số đó nhanh chóng giảm xuống 17,5 lần do sự tăng trưởng bùng nổ mà công ty dự kiến sẽ mang lại. Công ty là công ty dẫn đầu thị trường trong hai phân khúc phát triển nhanh nhất của thị trường cơ sở hạ tầng AI: mạng và chip AI tùy chỉnh.
Khi quy mô của các trung tâm dữ liệu ngày càng tăng và ngày càng có nhiều chip cần hoạt động cùng nhau một cách đồng bộ, khía cạnh mạng của các trung tâm dữ liệu AI ngày càng trở nên quan trọng. Broadcom là một công ty vững chắc trong lĩnh vực này, dẫn đầu bởi giải pháp Ethernet Tomahawk hàng đầu trong ngành của nó.
Đồng thời, công ty cũng đi đầu trong công nghệ ASIC (mạch tích hợp dành riêng cho ứng dụng), nơi nó giúp biến các thiết kế chip của khách hàng thành các chip vật lý có thể được sản xuất hàng loạt. Broadcom thực sự áp dụng thói quen tiếp cận nền tảng giúp giữ chân khách hàng, vì vậy điều này cũng góp phần vào hoạt động kinh doanh mạng của nó. Thành công của Bộ xử lý Tensor (TPU) của Alphabet là một thành tích lớn đối với nó và cũng đã dẫn đến việc các hyperscaler khác tìm đến nó để giúp họ phát triển chip AI tùy chỉnh của riêng họ. ASIC AI là các chip được dây cứng được xây dựng cho các mục đích cụ thể và phù hợp cho việc suy luận AI, do hiệu quả năng lượng mạnh mẽ của chúng.
Những người chiến thắng AI dài hạn
Trong khi Sandisk đang hưởng lợi từ một xu hướng ngắn hạn tốt đẹp, cả Nvidia và Broadcom đều được xây dựng cho chặng đường dài. Đó là lý do tại sao tôi thích hai cổ phiếu AI này cho dài hạn. Hãy mua chúng khi định giá của chúng còn rẻ.
Bạn có nên mua cổ phiếu Nvidia ngay bây giờ không?
Trước khi bạn mua cổ phiếu Nvidia, hãy cân nhắc điều này:
Nhóm phân tích của The Motley Fool Stock Advisor vừa xác định được 10 cổ phiếu mà họ tin rằng là tốt nhất cho các nhà đầu tư mua ngay bây giờ… và Nvidia không nằm trong số đó. 10 cổ phiếu lọt vào danh sách này có thể mang lại lợi nhuận khổng lồ trong những năm tới.
Hãy xem xét khi Netflix lọt vào danh sách này vào ngày 17 tháng 12 năm 2004… nếu bạn đầu tư 1.000 đô la vào thời điểm khuyến nghị của chúng tôi, bạn sẽ có 532.066 đô la!* Hoặc khi Nvidia lọt vào danh sách này vào ngày 15 tháng 4 năm 2005… nếu bạn đầu tư 1.000 đô la vào thời điểm khuyến nghị của chúng tôi, bạn sẽ có 1.087.496 đô la!*
Hiện tại, cần lưu ý rằng tổng lợi nhuận trung bình của Stock Advisor là 926% — vượt trội so với 185% của S&P 500. Đừng bỏ lỡ danh sách top 10 mới nhất, có sẵn với Stock Advisor và tham gia một cộng đồng đầu tư được xây dựng bởi các nhà đầu tư cá nhân cho các nhà đầu tư cá nhân.
*Lợi nhuận Stock Advisor tính đến ngày 4 tháng 4 năm 2026.
Geoffrey Seiler nắm giữ cổ phần trong Broadcom. The Motley Fool nắm giữ cổ phần và khuyến nghị Nvidia. The Motley Fool khuyến nghị Broadcom. The Motley Fool có chính sách tiết lộ.
Các quan điểm và ý kiến được thể hiện ở đây là quan điểm và ý kiến của tác giả và không nhất thiết phản ánh quan điểm của Nasdaq, Inc.
Thảo luận AI
Bốn mô hình AI hàng đầu thảo luận bài viết này
"The article presents NVDA and AVGO as ‘cheap’ alternatives to SNDK’s cyclicality, but ignores that both face their own cyclical capex risks and that SNDK’s margin tailwinds may outlast the article’s timeframe."
The article conflates two separate theses: that NAND is cyclical (true) and that NVDA/AVGO are durable alternatives (oversimplified). NVDA trades at 21x forward P/E, which isn't cheap—it’s in-line with historical AI-boom multiples and assumes flawless execution on next-gen architectures. AVGO at 17.5x forward assumes hyperscaler ASIC demand stays robust; if cloud capex moderates or custom chips cannibalize networking revenue, that multiple compresses fast. The article also ignores that NAND shortage-driven margin expansion at SNDK may persist longer than implied, and that memory is less cyclical when supply-constrained by geopolitics or fab capacity.
If AI capex peaks in 2025-26 and hyperscalers shift from training to inference (favoring cheaper, older chips), NVDA's forward multiple could re-rate down 30-40% regardless of absolute earnings, while SNDK's margin cycle could extend another 2-3 years if NAND supply tightness persists.
"The article’s reliance on outdated or erroneous data regarding SanDisk undermines its credibility, and the ‘cheap’ valuation argument ignores the looming risk of margin compression as custom AI silicon adoption scales."
The article’s premise is fundamentally flawed because it references SanDisk (SNDK) as a current Russell 1000 constituent. SanDisk was acquired by Western Digital in 2016; citing it as a Q1 market leader suggests the data is either hallucinated or recycled from nearly a decade ago. Regarding the core thesis, Nvidia (NVDA) and Broadcom (AVGO) remain the primary beneficiaries of AI capex, but the ‘cheap’ valuation narrative is dangerous. A forward P/E of 21x for NVDA assumes flawless execution in a hyper-competitive environment where hyperscalers are aggressively pivoting toward internal silicon (ASICs). Investors should focus on the sustainability of margins as custom silicon adoption scales.
The ‘cheap’ label is justified if you view AI infrastructure as a multi-year secular shift rather than a cyclical capex bubble, where current multiples fail to account for the massive terminal value of the software-hardware ecosystem.
"NVDA and AVGO may be better structural businesses than SNDK, but the “cheap” valuation claim is fragile to earnings/margin and platform/regulatory risks the article underweights."
The article’s core trade is “buy NVDA/AVGO while NAND (SNDK) is cyclical.” That’s directionally plausible: NAND flash is historically commodity-like and can swing fast with pricing, while Nvidia’s moat is arguably its software (CUDA) plus system ecosystem. However, the valuation arguments (NVDA ~21x forward, AVGO ~17.5x on next-year consensus) depend on earnings staying elevated; any demand slowdown, margin compression, or export/regulatory friction would quickly invalidate the “cheap” framing. Also, calling NVDA broadly “durable” glosses over customer concentration and platform shift risk (competition to CUDA, alternative accelerators).
Even if flash is cyclical, SNDK’s recent surge could reflect a multi-year supply/demand imbalance tied to AI data center buildouts, so “cheap” alternatives may not be as transient as assumed.
"AI storage boom makes NAND plays like WDC a cheaper, higher-upside alternative to NVDA/AVGO despite the article’s dismissal."
Article pushes NVDA (21x FY25E P/E) and AVGO (27.5x FY24E, 17.5x FY25E on ~57% EPS growth) over SNDK, but factual error: SanDisk (SNDK) was acquired by Western Digital (WDC) in 2016; SNDK delisted, likely meant WDC or NAND peers like MU. NAND isn't fading—AI drives explosive storage demand for model checkpoints, RAG databases, inference caching, extending supercycle beyond historical cycles. WDC trades ~8x FY25 EV/EBITDA with 40-50% rev growth projected, vs AVGO’s 18x. NVDA ‘cheap’? Still premium to semis avg (15x); CUDA moat faces AMD MI300/H100 rivals. AVGO ASICs strong but hyperscaler insourcing risk.
NAND capex oversupply could crash prices post-AI peak, reverting to boom-bust cycles, while NVDA/AVGO ecosystems provide true durability.
"AVGO’s forward multiple is overly optimistic because it fails to price in the structural threat of hyperscaler internal silicon replacing custom networking ASICs."
Grok nails the SNDK/WDC confusion—critical. But I’d push back: even if NAND demand extends via AI storage (RAG, checkpoints), WDC’s 8x EV/EBITDA reflects cyclical-stock pricing discipline, not durability premium. NAND pricing power evaporates fast once capex normalizes. AVGO’s 18x multiple assumes networking ASICs remain sticky; that’s the real durability bet, not storage. Nobody’s flagged: what happens to AVGO if hyperscalers build in-house networking silicon in 2026-27?
"Even with flash is cyclical, SNDK’s recent surge could reflect a multi-year supply/demand imbalance tied to AI data center buildouts, so “cheap” alternatives may not be as transient as assumed."
Gemini’s argument is directionally right that insourcing/regulatory friction could hurt AVGO, but the panel is missing a key second-order risk nobody flagged: valuation compression can come even if AVGO “wins” share. If AI infrastructure spend shifts from training to inference (favoring cheaper, older chips), NVDA’s forward multiple could re-rate down 30-40% regardless of absolute earnings, while SNDK’s margin cycle could extend another 2-3 years if NAND supply tightness persists. Also, calling NVDA broadly “durable” glosses over customer concentration and platform shift risk (competition to CUDA, alternative accelerators).
"Claude is right to focus on AVGO’s networking moat, but both Claude and Gemini ignore the regulatory risk of hyperscaler insourcing. If Google and Amazon successfully shift to internal TPUs and Trainium, AVGO’s networking revenue isn't just threatened—it’s structural. The market is pricing AVGO as a software-like utility, but it’s still essentially a high-end hardware vendor. I’d argue the 18x multiple is precarious if custom silicon adoption accelerates faster than AI capacity growth."
NVDA and AVGO may be better structural businesses than SNDK, but the “cheap” valuation claim is fragile to earnings/margin and platform/regulatory risks the article underweights.
"ChatGPT's inference shift risk to AVGO margins is valid but overlooks the flip side: inference workloads massively increase storage demand (KV caches, RAG databases scale with model size/context), extending NAND’s AI supercycle. WDC at 8x FY25 EV/EBITDA captures this upside cheaply, while AVGO’s networking faces bandwidth efficiency headwinds. Nobody’s connected inference to storage tailwinds yet."
AVGO’s forward multiple is overly optimistic because it fails to price in the structural threat of hyperscaler internal silicon replacing custom networking ASICs.
Kết luận ban hội thẩm
Không đồng thuậnThe panel agreed that NAND flash is less cyclical due to AI-driven demand, but disagreed on the durability of NVDA and AVGO’s multiples, with concerns about hyperscaler insourcing and potential margin compression.
Extended NAND supercycle due to AI storage demand (WDC)
Hyperscaler insourcing of silicon (AVGO)