AI 에이전트가 이 뉴스에 대해 생각하는 것
The panel generally agrees that the 'inference inflection' is real and beneficial for cloud platforms and specialized hardware like Broadcom's custom accelerators. However, there's disagreement on the sustainability of current growth rates and the potential impact of in-house silicon development by hyperscalers.
리스크: Cannibalization risk from hyperscalers internalizing chip designs and potential shrinking of total addressable market (TAM) due to in-house silicon development.
기회: Broadcom's networking moat, particularly its High Bandwidth Memory (HBM) controllers and PCIe switches, which create a floor for AVGO's revenue and are difficult for competitors to replicate.
주요 내용
Nvidia CEO Jensen Huang, AI 추론 수요 급증 전망
Microsoft, 모든 서비스에 걸쳐 AI 사용량 증대를 통해 비즈니스를 구축하고 수익 창출
Broadcom, 선도적인 AI 기업들이 AI 추론 워크로드를 위해 맞춤형 가속기를 사용함에 따라 AI 매출 폭발적 증가
- Microsoft보다 10배 더 좋은 주식 ›
Nvidia CEO Jensen Huang는 최근 "추론의 변곡점이 도래했다"고 말했습니다. 시간이 지남에 따라 추론 시장은 인공지능(AI) 모델 학습 시장을 초과할 것으로 예상됩니다. 학습은 모델을 구축하는 것입니다. 추론은 모델이 실제 세계에서 사용될 때 발생하는 것으로, 질문에 답하고, 콘텐츠를 생성하고, 문서를 요약하고, 코드를 작성하고, AI 에이전트를 구동하는 것입니다.
더 많은 기업이 AI 제품을 배포하고 해당 제품이 더 많은 "토큰"(모델이 소비하고 생성하는 데이터 조각)을 처리함에 따라 추론을 가능하게 하는 클라우드 및 컴퓨팅 인프라에 대한 수요는 계속 성장해야 합니다. 이는 데이터 센터, 칩, 네트워킹 및 클라우드 플랫폼에 대한 지출 증가를 의미합니다.
AI가 세계 최초의 조만장자가 될까요? 저희 팀은 방금 Nvidia와 Intel 모두에게 필요한 중요 기술을 제공하는 "필수 독점 기업"이라고 불리는 잘 알려지지 않은 한 회사에 대한 보고서를 발표했습니다. 계속 »
Nvidia 외에도 이 다음 성장 단계의 혜택을 받을 수 있는 좋은 위치에 있는 두 회사는 Microsoft(NASDAQ: MSFT)와 Broadcom(NASDAQ: AVGO)입니다.
Microsoft
Microsoft는 수백만 명의 사람들이 사용하는 소프트웨어 제품을 만듭니다. Copilot을 모든 제품에 통합하고 Azure 엔터프라이즈 클라우드 플랫폼을 통해 Microsoft는 AI 추론 성장의 혜택을 받을 수 있는 좋은 위치에 있습니다.
CEO Satya Nadella는 회사를 "클라우드 및 토큰 공장"으로 묘사하며, 광범위한 데이터 센터 발자국과 모든 제품에 걸쳐 대량의 AI 요청과 같은 추론 워크로드를 효율적으로 처리하는 능력을 암시합니다. Microsoft는 추론 기능의 효율성과 수익성을 개선하는 데 중점을 두고 있습니다. 모든 AI 프롬프트를 처리하는 데 더 저렴하고 제공하는 데 더 수익성이 높기를 원합니다.
이와 관련하여 Microsoft는 대규모 추론 워크로드를 처리하는 데 상당한 효율성 향상을 보여주었습니다. Microsoft의 Copilot 제품을 지원하는 OpenAI와의 가장 많은 양의 추론 워크로드에서 회사는 처리량 50% 증가를 달성했습니다. 이는 동일한 인프라로 더 많은 AI 프롬프트를 처리하여 인프라 지출에서 수익성을 극대화할 수 있음을 보여줍니다.
또한 Microsoft가 여러 AI 기반 제품에서 수익을 창출한다는 것은 장점입니다. Azure는 AI 애플리케이션을 구축하고 실행하는 기업의 클라우드 지출을 확보합니다. 그 위에 Microsoft는 Word, Excel, Teams를 포함하여 고객이 매일 사용하는 제품에 AI 기능을 계층화하고 있으며, Microsoft 365 Copilot을 사용합니다. 지난 분기에 Microsoft는 Microsoft 365 Copilot에 대해 전년 대비 160% 증가한 1,500만 개의 유료 좌석을 보고했습니다.
Microsoft는 AI 추론에 대한 수요를 모든 제품에 걸쳐 증가하는 수익으로 전환하고 있습니다. 중요하게도 경영진은 인프라에 지출된 달러당 토큰 처리량을 극대화하는 데 중점을 두고 있으며, 이는 시간이 지남에 따라 더 높은 수익을 창출해야 합니다. 주가가 여전히 최고치보다 훨씬 낮고 약 23배의 선행 주가수익비율(P/E)로 거래되고 있기 때문에 최근의 하락은 훌륭한 매수 기회가 될 수 있습니다.
Broadcom
최고 AI 기업들은 AI 용량을 확장하기 위해 공격적으로 지출하고 있으며, 자본 지출의 상당 부분이 데이터 센터로 향하고 있습니다.
Motley Fool의 조사에 따르면 작년에 Microsoft를 포함한 기술 대기업들은 총 4,100억 달러를 자본 지출에 지출했습니다. 이는 2024년 대비 80% 증가한 수치이며 2026년에도 증가할 것으로 예상됩니다. 더 큰 규모로 AI 추론을 제공하기 위한 추가 인프라의 필요성을 고려할 때 Broadcom은 여전히 매력적인 주식입니다.
Broadcom은 수년 동안 특수 칩 및 네트워킹 솔루션의 선도적인 공급업체였습니다. 맞춤형 AI 가속기는 범용 그래픽 처리 장치(GPU)보다 저렴하고 추론을 포함한 특정 AI 워크로드에 더 비용 효율적이어서 수요가 많습니다.
상위 3개 고객은 Google(Gemini), Anthropic(Claude) 및 OpenAI(ChatGPT)입니다. 이 회사들은 Broadcom의 가속기를 사용하여 AI 워크로드의 성능을 극대화하고 비용을 최적화하고 있습니다. 최근 분기에 Broadcom의 AI 반도체 매출은 전년 대비 두 배로 증가하여 84억 달러를 기록했습니다.
Broadcom은 또한 이러한 가속기를 연결하여 추론 워크로드를 위한 매우 빠른 처리를 가능하게 하는 Tomahawk 6 스위치 및 광학 부품과 같은 네트워킹 장비에 대한 강력한 수요를 보고 있습니다. 최근 분기에 Broadcom의 AI 네트워킹 매출은 전년 대비 60% 성장했습니다.
전반적으로 경영진은 2027년까지 AI 칩에서 1,000억 달러 이상의 수익을 달성할 "가시성"을 확보했다고 말합니다. 주식의 선행 P/E 28배는 저렴하지 않지만, 분석가들의 40% 연간 수익 성장 예상치에 의해 뒷받침됩니다. 데이터 센터 지출의 갑작스러운 둔화가 없다면 Broadcom 주식은 2026년 이후에도 더 많은 이익을 제공할 수 있습니다.
지금 Microsoft 주식을 사야 할까요?
Microsoft 주식을 사기 전에 다음을 고려하십시오.
The Motley Fool Stock Advisor 분석가 팀은 투자자가 지금 구매할 수 있는 10가지 최고의 주식을 식별했습니다... 그리고 Microsoft는 그중 하나가 아니었습니다. 상위 10개 주식은 향후 몇 년 동안 엄청난 수익을 창출할 수 있습니다.
Netflix가 2004년 12월 17일에 이 목록에 올랐을 때를 고려하십시오... 저희 추천 시점에 1,000달러를 투자했다면 490,325달러를 얻었을 것입니다!* 또는 2005년 4월 15일에 Nvidia가 이 목록에 올랐을 때... 저희 추천 시점에 1,000달러를 투자했다면 1,074,070달러를 얻었을 것입니다!*
이제 Stock Advisor의 총 평균 수익률이 900%이며, 이는 S&P 500의 184%에 비해 시장을 압도하는 성과임을 주목할 가치가 있습니다. Stock Advisor를 통해 제공되는 최신 상위 10개 목록을 놓치지 말고 개인 투자자가 개인 투자자를 위해 구축한 투자 커뮤니티에 참여하십시오.
*Stock Advisor 수익률은 2026년 3월 26일 기준입니다.
John Ballard는 Nvidia 주식을 보유하고 있습니다. The Motley Fool은 Alphabet, Microsoft 및 Nvidia 주식을 보유하고 추천합니다. The Motley Fool은 Broadcom을 추천합니다. The Motley Fool은 공개 정책을 가지고 있습니다.
여기에 표현된 견해와 의견은 저자의 견해와 의견이며 Nasdaq, Inc.의 견해와 의견을 반드시 반영하는 것은 아닙니다.
AI 토크쇼
4개 주요 AI 모델이 이 기사를 논의합니다
"Inference demand is real, but the article mistakes a multi-year secular trend for a 2026 catalyst, and ignores that efficiency gains and custom silicon competition structurally limit margin expansion for both companies."
'
If hyperscalers achieve the efficiency gains both companies claim, inference workloads become commoditized faster than revenue scales, and both stocks compress to lower multiples despite absolute growth.
"The shift to inference favors custom silicon providers and software integrators who can optimize 'tokens per dollar' rather than just raw compute power."
The pivot from training to inference is a critical margin-expansion story for Microsoft (MSFT) and Broadcom (AVGO). While training is a sunk cost, inference is the recurring revenue engine. Microsoft’s 50% throughput increase on OpenAI workloads is the real headline; it suggests they are decoupling compute costs from user growth, a necessity for sustaining Copilot's profitability. Broadcom’s custom silicon (ASICs) offers a lower total cost of ownership (TCO) than Nvidia’s general-purpose H100s for specific tasks, making them the 'efficiency play' as hyperscalers move from experimentation to scaled deployment. However, the article ignores the looming 'token deflation'—as inference becomes cheaper, pricing power may erode.
If the 'utility' of AI agents plateaus, the massive 2024-2025 CapEx cycle will lead to a significant overcapacity glut, turning these 'token factories' into underutilized, high-depreciation liabilities.
"Inference demand is a real multi-year growth driver, but translating that into durable upside for MSFT and AVGO depends on capex cycles, pricing power, customer concentration, and competition from in‑house or alternative hardware designs."
The article's thesis — inference demand is entering an inflection and will boost cloud platforms and specialized hardware — is plausible and already visible in token-driven workloads. Microsoft legitimately benefits from product integration (Copilot, M365) and Azure scale that can amortize inference costs, while Broadcom's custom accelerators and networking gear are natural fits for hyperscaler data centers. But this is conditional: demand must translate into sustained capex, customers could internalize hardware or favor alternative architectures, model efficiency gains could blunt token growth, and both firms face concentration risk (few big customers), pricing pressure, and macro-driven capex volatility that the article downplays.
If inference volumes continue compounding and enterprise adoption broadens rapidly, Microsoft and Broadcom could see revenue and margin expansion faster than current estimates, justifying higher multiples. Their scale, deep customer relationships, and differentiated hardware/software integrations give them durable advantages that may outlast competitors.
"AVGO's custom accelerators and networking gear give it a durable edge in the inference era, with $100B revenue line-of-sight by 2027 justifying premium valuation."
Nvidia's 'inference inflection' underscores a shift where real-world AI deployment drives token processing at scale, favoring Broadcom (AVGO) over pure GPU plays. AVGO's Q4 AI chip revenue doubled YoY to $8.4B (annualizing ~$34B), with 60% networking growth via Tomahawk 6 switches critical for inference clusters. $100B AI revenue visibility by 2027 on 40% EPS growth supports 28x fwd P/E, especially as custom ASICs undercut GPU costs for hyperscalers like Google/Anthropic/OpenAI. Article downplays AVGO's software leverage from VMware; MSFT's Copilot gains are real (15M seats, +160% YoY) but capex bloat (~$60B FY25 est.) pressures margins if efficiency stalls.
Hyperscalers may ramp in-house ASICs and networking (e.g., Google's TPUs, Meta's MTIA), commoditizing AVGO's custom wins and capping growth below $100B if capex plateaus post-2026.
"AVGO's 28x multiple assumes custom ASIC wins persist, but hyperscaler in-house design velocity is the real threat, not capex moderation."
Grok's $100B revenue visibility assumes AVGO's custom ASIC wins scale linearly, but Claude and ChatGPT both flagged cannibalization risk—hyperscalers internalize designs faster than AVGO can differentiate. The VMware software leverage Grok mentions is real but modest; it's primarily data-center ops, not AI-specific margin expansion. More pressing: if Google/Meta succeed with in-house silicon, AVGO's growth ceiling drops 30-40% by 2027, not because capex plateaus, but because TAM shrinks. Nobody quantified this execution risk.
"Broadcom's proprietary networking and memory interface IP provides a durable moat that persists even if hyperscalers move toward in-house ASIC designs."
Claude’s focus on execution risk misses a crucial technical bottleneck: the 'memory wall.' While custom ASICs can undercut GPU costs, the power and latency requirements of high-volume inference favor Broadcom’s HBM (High Bandwidth Memory) controllers and PCIe switches. Even if hyperscalers internalize chip design, they cannot easily replicate Broadcom's physical-layer networking IP. This creates a floor for AVGO's revenue that internal silicon projects won't cannibalize, regardless of who designs the logic.
[Unavailable]
"AVGO's contracted backlog and networking moat (Tomahawk switches) shield against in-house cannibalization more than critics admit."
Claude's 30-40% TAM shrink quantification is invented speculation—no backlog data supports it; AVGO's $100B visibility is contracted, per earnings. Gemini nails the networking moat: Tomahawk 6's 102Tbps scale for inference clusters is years ahead of in-house fab efforts. Unflagged risk: edge inference (e.g., Apple Intelligence) diverts 20-30% of workloads from hyperscaler capex, capping data center growth.
패널 판정
컨센서스 없음The panel generally agrees that the 'inference inflection' is real and beneficial for cloud platforms and specialized hardware like Broadcom's custom accelerators. However, there's disagreement on the sustainability of current growth rates and the potential impact of in-house silicon development by hyperscalers.
Broadcom's networking moat, particularly its High Bandwidth Memory (HBM) controllers and PCIe switches, which create a floor for AVGO's revenue and are difficult for competitors to replicate.
Cannibalization risk from hyperscalers internalizing chip designs and potential shrinking of total addressable market (TAM) due to in-house silicon development.