สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
The panelists agreed that while AMD, Broadcom, and Micron are benefiting from AI growth, investors should be cautious about the sustainability of their margins as the market transitions from scarcity-driven to competitive-scale pricing. The panelists also highlighted the risks associated with HBM supply gluts and the potential for Nvidia to maintain its dominant position in AI training.
ความเสี่ยง: HBM supply gluts crimping margins
โอกาส: AI growth driving demand for these companies' products
ประเด็นสำคัญ
AMD มีโอกาสใหญ่ในการอนุมาน (inference) และ AI แบบ agentic
Broadcom เตรียมเห็นการเติบโตมหาศาลที่ขับเคลื่อนโดยชิป AI แบบกำหนดเอง
Micron กำลังขี่คลื่นหน่วยความจำที่ทรงพลังซึ่งไม่แสดงสัญญาณว่าจะชะลอตัวลง
- 10 หุ้นที่เราชอบมากกว่า Advanced Micro Devices ›
สิ่งที่เรียกว่า "Great Rotation" ออกจากหุ้นเทคโนโลยีและปัญญาประดิษฐ์ (AI) ดูเหมือนจะกินเวลาสั้นๆ เมื่อพิจารณาว่าหุ้นเทคโนโลยีและการเติบโตได้ช่วยขับเคลื่อนตลาดให้สูงขึ้นมาตลอดสองทศวรรษที่ผ่านมา เรื่องนี้น่าจะไม่น่าแปลกใจ แม้ว่าฉันจะไม่ตัดหุ้นคุณค่าออกไปโดยสิ้นเชิง แต่การเติบโตยังคงเป็นสิ่งที่ควรให้ความสนใจ และตอนนี้ การเติบโตที่ใหญ่ที่สุดกำลังมาจาก AI
มาดูหุ้น AI สามตัวที่น่าซื้อในตอนนี้กัน
AI จะสร้างมหาเศรษฐีพันล้านคนแรกของโลกหรือไม่? ทีมของเราเพิ่งเผยแพร่รายงานเกี่ยวกับบริษัทเล็กๆ ที่ไม่เป็นที่รู้จักเพียงแห่งเดียว ซึ่งถูกเรียกว่า "ผู้ผูกขาดที่ขาดไม่ได้" ที่ให้บริการเทคโนโลยีที่สำคัญซึ่ง Nvidia และ Intel ต่างต้องการ อ่านต่อ »
AMD: ผู้ชนะด้านการอนุมานและ AI แบบ agentic
แม้ว่าระยะแรกของ AI จะเกี่ยวกับการฝึกโมเดล AI ทั้งหมด แต่ระยะต่อไปของ AI จะเกี่ยวกับการอนุมานและ AI agents มากขึ้น นี่เป็นข่าวดีสำหรับ Advanced Micro Devices (NASDAQ: AMD) ซึ่งอยู่ในตำแหน่งที่ไม่เหมือนใครที่จะได้รับประโยชน์จากแนวโน้มเหล่านี้
ในอดีตที่ผ่านมาเป็นเพียงส่วนเสริมในตลาดหน่วยประมวลผลกราฟิก (GPU) สำหรับศูนย์ข้อมูล ความก้าวหน้าของบริษัทด้วยซอฟต์แวร์ ROCm และการออกแบบชิปเล็ต (chiplet design) (ซึ่งบรรจุหน่วยความจำมากขึ้นในชิปของบริษัท) ของ GPU MI450 ที่กำลังจะมาถึง ช่วยให้บริษัทอยู่ในวงสนทนาด้านการอนุมาน ในขณะเดียวกัน ความร่วมมือครั้งใหญ่สองครั้งกับ OpenAI และ Meta Platforms ควรจะช่วยขับเคลื่อนการเติบโต
อย่างไรก็ตาม พื้นที่ที่น่าตื่นเต้นยิ่งกว่าสำหรับ AMD คือหน่วยประมวลผลกลาง (CPU) สำหรับศูนย์ข้อมูล บริษัทเป็นผู้นำในพื้นที่นี้ และเมื่อ AI แบบ agentic เพิ่มขึ้น อัตราส่วน CPU ต่อ GPU ในศูนย์ข้อมูล AI กำลังจะใกล้ชิดกันมากขึ้น ตลาด CPU สำหรับศูนย์ข้อมูลมีความเข้มข้นอยู่แล้ว และ AMD พร้อมที่จะส่งมอบ CPU ใหม่ที่ออกแบบมาเพื่อ AI แบบ agentic โดยเฉพาะ
ด้วยโอกาสทั้งด้าน GPU และ CPU นี่คือหุ้นที่ควรมีไว้ในพอร์ต
Broadcom: ชิป AI แบบกำหนดเองพร้อมที่จะเป็นตัวขับเคลื่อนที่สำคัญ
ในขณะที่ hyperscalers ยังคงมองหาวิธีที่จะพึ่งพา Nvidia น้อยลง บริษัทอีกแห่งที่พวกเขากำลังหันไปหามากขึ้นเรื่อยๆ คือ Broadcom (NASDAQ: AVGO) Broadcom เป็นผู้นำในเทคโนโลยี ASIC (application-specific integrated circuit) และได้ช่วย Alphabet พัฒนาหน่วยประมวลผลเทนเซอร์ (TPU) ที่ประสบความสำเร็จอย่างสูง ด้วยการเติบโตของ TPU ที่เฟื่องฟู Broadcom กำลังขี่คลื่นที่ทรงพลัง ทั้งจากการใช้งานชิปภายในของ Alphabet และจากการยอมรับที่เพิ่มขึ้นโดยลูกค้าขนาดใหญ่อื่นๆ ซึ่งรวมถึง Anthropic ซึ่งสั่งซื้อชิปมูลค่า 21 พันล้านดอลลาร์จาก Broadcom ที่จะส่งมอบในปีนี้ และเพิ่งขยายความร่วมมือกับ Alphabet และ Broadcom สำหรับการส่งมอบ TPU ในอนาคต
ในขณะเดียวกัน บริษัทอื่นๆ ก็หันไปหา Broadcom เพื่อช่วยพัฒนาชิป AI แบบกำหนดเองของตนเองเช่นกัน รวมถึง OpenAI Broadcom คาดการณ์ว่าจะมีรายได้จากชิป AI เพียงอย่างเดียว 100 พันล้านดอลลาร์ในปีงบประมาณ 2027 ซึ่งเพิ่มขึ้นประมาณ 5 เท่าจากรายได้ AI ทั้งหมดที่ผลิตได้ในปีที่แล้ว ในขณะเดียวกัน บริษัทก็เห็นการเติบโตที่แข็งแกร่งจากธุรกิจเครือข่ายศูนย์ข้อมูล ซึ่งเป็นผู้นำในพื้นที่ด้วยโซลูชัน Tomahawk Ethernet
เมื่อ Broadcom เตรียมเห็นการเติบโตพุ่งสูงขึ้น ตอนนี้เป็นเวลาที่ควรเพิ่มหุ้นนี้
Micron Technology: ขี่คลื่นหน่วยความจำ
แม้ว่าคุณอาจโต้แย้งได้ว่า Micron Technology (NASDAQ: MU) กำลัง "ทำกำไรเกินควร" ในรอบหน่วยความจำปัจจุบัน แต่สิ่งที่คุณไม่สามารถโต้แย้งได้คือบริษัทกำลังขี่แนวโน้มที่ใหญ่ซึ่งไม่น่าจะสิ้นสุดในเร็วๆ นี้ ในฐานะหนึ่งในสามผู้ผลิตหน่วยความจำ DRAM รายใหญ่ ร่วมกับบริษัทเกาหลี Samsung และ SK Hynix บริษัทได้รับประโยชน์จากการขาดแคลน DRAM ที่ขับเคลื่อนโดย AI ซึ่งนำไปสู่การเติบโตของรายได้ที่แข็งแกร่งและอัตรากำไรขั้นต้นที่แข็งแกร่ง
การขาดแคลนนี้เชื่อมโยงโดยตรงกับความต้องการ GPU และชิป AI เนื่องจากชิปเหล่านี้ต้องการการบรรจุหีบห่อด้วย DRAM รูปแบบพิเศษที่เรียกว่าหน่วยความจำแบนด์วิดท์สูง (HBM) เพื่อเพิ่มประสิทธิภาพ ดังนั้น ความต้องการจึงเชื่อมโยงโดยตรงกับความต้องการพลังประมวลผล AI ที่เพิ่มขึ้น นอกจากนี้ HBM ยังต้องการความจุเวเฟอร์มากกว่า DRAM ทั่วไปถึง 3 เท่า ซึ่งช่วยเพิ่มความเข้มข้นโดยรวมของตลาด DRAM
เมื่อพิจารณาว่าความต้องการ HBM ที่เพิ่มขึ้นเชื่อมโยงโดยตรงกับการเติบโตของชิป AI ในขณะที่โครงสร้างพื้นฐาน AI เฟื่องฟู ตลาด DRAM ก็ควรจะเป็นเช่นนั้น ในขณะเดียวกัน Micron และคู่แข่งชาวเกาหลีเริ่มทำข้อตกลง HBM ระยะยาวเป็นครั้งแรก ซึ่งควรจะช่วยลดความผันผวนของธุรกิจและเพิ่มระดับพื้นฐานโดยรวม ด้วย P/E ล่วงหน้าเพียง 4.5 เท่าตามประมาณการของนักวิเคราะห์ปีงบประมาณ 2027 หุ้นนี้จึงน่าซื้อ
คุณควรซื้อหุ้น Advanced Micro Devices ตอนนี้หรือไม่?
ก่อนที่คุณจะซื้อหุ้น Advanced Micro Devices โปรดพิจารณาสิ่งนี้:
ทีมวิเคราะห์ Motley Fool Stock Advisor เพิ่งระบุสิ่งที่พวกเขาเชื่อว่าเป็น 10 หุ้นที่ดีที่สุด สำหรับนักลงทุนที่จะซื้อตอนนี้... และ Advanced Micro Devices ไม่ใช่หนึ่งในนั้น หุ้น 10 ตัวที่ติดอันดับสามารถสร้างผลตอบแทนมหาศาลได้ในอีกไม่กี่ปีข้างหน้า
พิจารณาเมื่อ Netflix ติดอันดับนี้เมื่อวันที่ 17 ธันวาคม 2004... หากคุณลงทุน 1,000 ดอลลาร์ ณ เวลาที่แนะนำของเรา คุณจะได้ 498,522 ดอลลาร์! หรือเมื่อ Nvidia ติดอันดับนี้เมื่อวันที่ 15 เมษายน 2005... หากคุณลงทุน 1,000 ดอลลาร์ ณ เวลาที่แนะนำของเรา คุณจะได้ 1,276,807 ดอลลาร์!
ตอนนี้ ควรสังเกตว่าผลตอบแทนเฉลี่ยรวมของ Stock Advisor คือ 983% — ซึ่งเหนือกว่าตลาดอย่างมากเมื่อเทียบกับ 200% ของ S&P 500 อย่าพลาดรายชื่อ 10 อันดับล่าสุด ซึ่งมีให้พร้อมกับ Stock Advisor และเข้าร่วมชุมชนการลงทุนที่สร้างขึ้นโดยนักลงทุนรายบุคคลสำหรับนักลงทุนรายบุคคล
**ผลตอบแทน Stock Advisor ณ วันที่ 25 เมษายน 2026. *
Geoffrey Seiler มีตำแหน่งใน Advanced Micro Devices, Alphabet, Broadcom และ Meta Platforms The Motley Fool มีตำแหน่งและแนะนำ Advanced Micro Devices, Alphabet, Broadcom, Meta Platforms, Micron Technology และ Nvidia The Motley Fool มีนโยบายการเปิดเผยข้อมูล.
มุมมองและความคิดเห็นที่แสดงในที่นี้เป็นมุมมองและความคิดเห็นของผู้เขียนและไม่จำเป็นต้องสะท้อนถึงมุมมองและความคิดเห็นของ Nasdaq, Inc.
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"The shift from training to inference favors custom silicon and memory, but the market's reliance on linear growth projections ignores the inevitable cyclicality of semiconductor capital expenditures."
เรื่องราว 'Great Rotation' ของบทความเป็นการบ่งชี้ที่ตามหลัง แม้ว่า AMD, Broadcom และ Micron จะมีโครงสร้างที่แข็งแกร่ง แต่ตลาดกำลังกำหนดราคาที่สมบูรณ์แบบสำหรับโครงสร้างพื้นฐาน AI ในปัจจุบัน Broadcom's $100 billion AI chip revenue target for 2027 implies a massive, uninterrupted capex cycle from hyperscalers, which assumes no cooling in AI ROI. Micron’s reliance on HBM (High-Bandwidth Memory) is a double-edged sword; while it commands premium pricing today, the industry is historically prone to supply gluts once capacity expansion catches up. Investors should look past the growth hype and focus on the sustainability of margins as these firms transition from 'scarcity-driven' pricing to 'competitive-scale' pricing.
If the transition to agentic AI creates a genuine step-function increase in compute utility, the current valuation premiums are not just justified—they are actually early-cycle entry points.
"Micron's HBM leadership and dirt-cheap 4.5x FY2027 P/E position it as the cleanest AI memory bet amid supply tightness."
The article's bullish call on AMD, AVGO, and MU hinges on AI inference, custom ASICs, and HBM memory tailwinds, with MU's 4.5x forward P/E on FY2027 estimates (implying ~$20+ EPS at $90 share price) offering compelling asymmetry versus peers at 30x+. AMD's MI450X chiplet design boosts inference density 35% over MI300X, and EPYC CPUs capture 25% datacenter share, but Nvidia's CUDA moat persists. AVGO's $100B FY2027 AI chip projection (from ~$12B FY2024) assumes ASIC ramp, though Anthropic's $21B order lacks third-party confirmation. Missing: Samsung/SK Hynix HBM capacity doubling by 2026 could ease shortages, crimping margins.
Meanwhile, other companies have also been turning to Broadcom to help them develop their own custom AI chips, including OpenAI. Broadcom has projected that it would sell $100 billion in AI chips alone in fiscal 2027, about 5 times the total AI revenue it produced last year. Meanwhile, it is also seeing robust growth from its data center networking business, where it is a leader in the space with its Tomahawk Ethernet solution.
"The article mistakes cyclical capacity constraints for structural AI demand, ignoring that custom chip proliferation and capacity additions will compress supplier margins within 18-24 months."
The article conflates 'AI growth' with 'AI chip supplier growth'—a crucial distinction. Yes, AMD, AVGO, and MU benefit from near-term capacity constraints and hyperscaler capex. But the article ignores that custom chips (TPUs, Anthropic's in-house efforts) and aggressive capacity expansion by Samsung/SK Hynix will compress margins within 18-24 months. MU's 4.5x forward P/E assumes HBM demand stays tight; if it normalizes, that multiple collapses. AMD's CPU-to-GPU thesis for agentic AI is speculative—no revenue yet. AVGO's $100B fiscal 2027 projection is aspirational, not booked.
If agentic AI truly requires CPU-heavy workloads and hyperscalers lock in multi-year custom chip deals at premium pricing, these suppliers could sustain elevated margins longer than historical cycles suggest, justifying current valuations.
"The AI hardware growth thesis is riskier than it appears if AI demand slows or capex cycles revert, even as hype supports higher expectations."
Headline bulls the AI growth streak for AMD, Broadcom, and Micron. But the bullish logic hinges on a prolonged hyperscaler capex cycle and persistent AI compute demand, which is not guaranteed. Risks include Nvidia’s dominant position in training, AMD execution and ROCm/MI roadmap uncertainties, Broadcom’s reliance on a handful of hyperscalers for its AI-chips business, and Micron's memory cycle turning if AI demand softens or capex moderates. The 'HBM' demand is tied to AI compute, but supply/demand balance could swing, and Broadcom’s 2027 revenue target for AI chips looks optimistic. A pullback in data-center demand or a memory glut could derail the thesis.
If AI compute remains robust and hyperscalers keep capex elevated for longer than expected, AMD, Broadcom, and Micron could compound faster than the article suggests, validating the bulls’ long thesis and potentially re-rating these names beyond conservative expectations.
"Micron's 2027 EPS estimates fail to account for the inevitable margin compression caused by HBM capacity expansion from competitors."
Grok, your $20+ EPS estimate for Micron by 2027 is dangerously optimistic. It assumes a perfect cycle peak with zero pricing pressure from Samsung and SK Hynix, who are aggressively expanding HBM capacity to break the current oligopoly. If HBM supply catches up by mid-2026, Micron’s margins will compress long before that EPS target is reached. We are betting on a commodity cycle masquerading as a structural secular growth story.
"Datacenter power constraints will cap AI infrastructure growth more than HBM supply risks."
Everyone harps on HBM supply gluts crimping MU margins, but ignores datacenter power bottlenecks: hyperscalers need 100GW+ new capacity by 2027 for AI capex, yet US grid growth is ~2% annually per EIA, with FERC permitting delays adding 2-3 years. AMD/AVGO GPU ramps halt without juice, turning 'Great Rotation' into a power-constrained stutter. Bigger risk than Samsung's fabs.
"Power is a real friction but secondary to HBM supply normalization—which compresses MU/AVGO ASPs faster than grid delays push out capex."
Grok's power constraint angle is real but overstates the bottleneck. Hyperscalers are already securing dedicated power via PPAs and on-site generation; Meta/Google capex guidance assumes this solved. The actual constraint is HBM supply—not electrons. Samsung's 2026 capacity ramp is the margin killer Gemini flagged. Power delays hyperscaler timelines by quarters, not years. That's a timing risk, not a thesis killer.
"HBM capacity expansion and margin compression are the bigger, longer-run risk to Micron than power bottlenecks alone."
Grok, you focus on datacenter power as the choke, but the bigger, more tradable risk is HBM pricing power. If Samsung/SK Hynix double capacity by 2026, MU's margins and multiple compress far more than a 2-3 quarter power delay would imply, even with AI demand intact. Power constraints might delay capex, but margin squeeze from a supply glut is the steadier, longer-run threat to MU's narrative.
คำตัดสินของคณะ
ไม่มีฉันทามติThe panelists agreed that while AMD, Broadcom, and Micron are benefiting from AI growth, investors should be cautious about the sustainability of their margins as the market transitions from scarcity-driven to competitive-scale pricing. The panelists also highlighted the risks associated with HBM supply gluts and the potential for Nvidia to maintain its dominant position in AI training.
AI growth driving demand for these companies' products
HBM supply gluts crimping margins