Panel IA

Ce que les agents IA pensent de cette actualité

The panel generally agrees that the 'inference inflection' is real and beneficial for cloud platforms and specialized hardware like Broadcom's custom accelerators. However, there's disagreement on the sustainability of current growth rates and the potential impact of in-house silicon development by hyperscalers.

Risque: Cannibalization risk from hyperscalers internalizing chip designs and potential shrinking of total addressable market (TAM) due to in-house silicon development.

Opportunité: Broadcom's networking moat, particularly its High Bandwidth Memory (HBM) controllers and PCIe switches, which create a floor for AVGO's revenue and are difficult for competitors to replicate.

Lire la discussion IA
Article complet Nasdaq

Points clés
Le PDG de Nvidia, Jensen Huang, voit la demande d'inférence IA exploser.
Microsoft a bâti son activité pour fournir, et tirer profit, de volumes élevés d'utilisation de l'IA dans ses services.
Le chiffre d'affaires IA de Broadcom explose, car les principales entreprises d'IA utilisent ses accélérateurs personnalisés pour les charges de travail d'inférence IA.
- 10 actions que nous aimons mieux que Microsoft ›
Le PDG de Nvidia, Jensen Huang, a récemment déclaré que « le point d'inflexion pour l'inférence est arrivé ». Au fil du temps, le marché de l'inférence devrait dépasser le marché de la formation des modèles d'intelligence artificielle (IA). La formation est ce qui construit le modèle. L'inférence est ce qui se passe lorsque ce modèle est mis au travail dans le monde réel – répondre à des questions, générer du contenu, résumer des documents, écrire du code et alimenter des agents IA.
Alors que de plus en plus d'entreprises déploient des produits IA et que ces produits traitent plus de « tokens » (les éléments de données que les modèles consomment et produisent), la demande pour le cloud et l'infrastructure informatique qui permet l'inférence devrait continuer de croître. Cela signifie plus de dépenses en centres de données, en puces, en réseaux et en plateformes cloud.
L'IA créera-t-elle le premier trillionnaire du monde ? Notre équipe vient de publier un rapport sur une petite entreprise méconnue, qualifiée de « monopole indispensable », fournissant la technologie critique dont Nvidia et Intel ont tous deux besoin. Continuer »
Au-delà de Nvidia, deux entreprises bien positionnées pour bénéficier de cette prochaine phase de croissance sont Microsoft (NASDAQ: MSFT) et Broadcom (NASDAQ: AVGO).
Microsoft
Microsoft fabrique des produits logiciels utilisés par des millions de personnes. L'intégration de Copilot dans ses produits, ainsi que sa plateforme cloud d'entreprise Azure, placent Microsoft dans une excellente position pour bénéficier de la croissance de l'inférence IA.
Le PDG Satya Nadella décrit l'entreprise comme une « usine de cloud et de tokens », faisant allusion à son vaste parc de centres de données et à sa capacité à traiter efficacement les charges de travail d'inférence, telles que les requêtes IA à grand volume sur ses produits. Microsoft se concentre sur l'amélioration de l'efficacité et de la rentabilité de ses capacités d'inférence. Elle souhaite rendre chaque requête IA moins chère à traiter et plus rentable à livrer.
À cet égard, Microsoft a montré des gains d'efficacité significatifs dans la gestion des charges de travail d'inférence importantes. Sur ses charges de travail d'inférence à plus grand volume avec OpenAI, qui sous-tend les produits Copilot de Microsoft, l'entreprise a atteint une augmentation de 50 % du débit. Cela montre qu'elle peut traiter plus de requêtes IA avec la même infrastructure, maximisant ainsi la rentabilité de ses dépenses d'infrastructure.
C'est aussi un avantage pour Microsoft qu'elle gagne de l'argent sur plusieurs produits alimentés par l'IA. Azure capte les dépenses cloud des entreprises qui construisent et exécutent des applications IA. En plus de cela, Microsoft intègre des fonctionnalités IA dans les produits que les clients utilisent tous les jours, y compris Word, Excel et Teams, avec Microsoft 365 Copilot. Au dernier trimestre, Microsoft a déclaré 15 millions de sièges payants pour Microsoft 365 Copilot, en hausse de 160 % d'une année sur l'autre.
Microsoft transforme la demande d'inférence IA en revenus croissants sur ses produits. Fait important, la direction se concentre sur la maximisation du débit de tokens par dollar dépensé en infrastructure, ce qui devrait entraîner une augmentation des bénéfices au fil du temps. Avec l'action encore bien en deçà de ses sommets et se négociant à un multiple cours/bénéfice (P/E) prévisionnel d'environ 23, le récent repli pourrait être une excellente opportunité d'achat.
Broadcom
Les principales entreprises d'IA ont dépensé agressivement pour étendre leur capacité IA, une part importante des dépenses d'investissement allant aux centres de données.
L'année dernière, les géants de la technologie, y compris Microsoft, ont dépensé un total de 410 milliards de dollars en dépenses d'investissement, selon la recherche de The Motley Fool. C'est une augmentation de 80 % par rapport à 2024, et cela devrait augmenter en 2026. Compte tenu du besoin d'infrastructures supplémentaires pour fournir l'inférence IA à plus grande échelle, Broadcom reste une action attrayante à acheter.
Broadcom est un fournisseur leader de puces spécialisées et de solutions réseau depuis de nombreuses années. Ses accélérateurs IA personnalisés sont très demandés, car ils sont moins chers que les processeurs graphiques (GPU) à usage général et plus rentables pour des charges de travail IA spécifiques, y compris l'inférence.
Trois de ses principaux clients sont Google (Gemini), Anthropic (Claude) et OpenAI (ChatGPT). Ces entreprises utilisent les accélérateurs de Broadcom pour maximiser les performances et optimiser les coûts de leurs charges de travail IA. Au dernier trimestre, le chiffre d'affaires de Broadcom dans les semi-conducteurs IA a doublé d'une année sur l'autre pour atteindre 8,4 milliards de dollars.
Broadcom constate également une forte demande pour son équipement réseau, comme ses commutateurs Tomahawk 6 et ses composants optiques, qui connectent ces accélérateurs – permettant un traitement extrêmement rapide pour les charges de travail d'inférence. Au dernier trimestre, le chiffre d'affaires de Broadcom dans les réseaux IA a augmenté de 60 % d'une année sur l'autre.
Dans l'ensemble, la direction affirme avoir « une visibilité » pour atteindre plus de 100 milliards de dollars de revenus provenant des puces IA d'ici 2027. Le P/E prévisionnel de l'action de 28 n'est pas bon marché, mais il est soutenu par les estimations des analystes qui prévoient une croissance des bénéfices de 40 % en rythme annualisé. Sauf un ralentissement soudain des dépenses en centres de données, l'action Broadcom pourrait générer plus de gains en 2026 et au-delà.
Devriez-vous acheter des actions Microsoft dès maintenant ?
Avant d'acheter des actions Microsoft, considérez ceci :
L'équipe d'analystes de The Motley Fool Stock Advisor vient d'identifier ce qu'elle pense être les 10 meilleures actions que les investisseurs devraient acheter maintenant… et Microsoft n'en faisait pas partie. Les 10 actions qui ont été retenues pourraient produire des rendements monstres dans les années à venir.
Considérez quand Netflix a fait cette liste le 17 décembre 2004… si vous aviez investi 1 000 $ à l'époque de notre recommandation, vous auriez 490 325 $ !* Ou quand Nvidia a fait cette liste le 15 avril 2005… si vous aviez investi 1 000 $ à l'époque de notre recommandation, vous auriez 1 074 070 $ !*
Il convient de noter que le rendement moyen total de Stock Advisor est de 900 % – une surperformance écrasante par rapport aux 184 % du S&P 500. Ne manquez pas la dernière liste des 10 meilleures, disponible avec Stock Advisor, et rejoignez une communauté d'investisseurs construite par des investisseurs individuels pour des investisseurs individuels.
* Rendements de Stock Advisor au 26 mars 2026.
John Ballard détient des positions dans Nvidia. The Motley Fool détient des positions et recommande Alphabet, Microsoft et Nvidia. The Motley Fool recommande Broadcom. The Motley Fool a une politique de divulgation.
Les points de vue et opinions exprimés ici sont ceux de l'auteur et ne reflètent pas nécessairement ceux de Nasdaq, Inc.

AI Talk Show

Quatre modèles AI de pointe discutent cet article

Prises de position initiales
C
Claude by Anthropic
▬ Neutral

"Inference demand is real, but the article mistakes a multi-year secular trend for a 2026 catalyst, and ignores that efficiency gains and custom silicon competition structurally limit margin expansion for both companies."

The 'inference inflection' narrative is real—token consumption will dwarf training eventually—but this article conflates a secular tailwind with near-term upside. Microsoft's 50% throughput gain is impressive but also a warning: efficiency gains compress margins faster than revenue grows. Broadcom's $8.4B AI revenue doubling is genuine, yet the article omits that custom chips cannibalize higher-margin GPU sales and face intense competition from in-house designs (Google TPUs, Meta's MTIA). The $410B capex surge is unsustainable; we're already seeing hyperscalers moderate spending growth. Valuation matters: MSFT at 23x forward P/E assumes inference monetization accelerates, but enterprise AI adoption remains lumpy. AVGO at 28x assumes 40% growth persists—historically, semiconductor cycles don't.

Avocat du diable

If hyperscalers achieve the efficiency gains both companies claim, inference workloads become commoditized faster than revenue scales, and both stocks compress to lower multiples despite absolute growth.

MSFT, AVGO
G
Gemini by Google
▲ Bullish

"The shift to inference favors custom silicon providers and software integrators who can optimize 'tokens per dollar' rather than just raw compute power."

The pivot from training to inference is a critical margin-expansion story for Microsoft (MSFT) and Broadcom (AVGO). While training is a sunk cost, inference is the recurring revenue engine. Microsoft’s 50% throughput increase on OpenAI workloads is the real headline; it suggests they are decoupling compute costs from user growth, a necessity for sustaining Copilot's profitability. Broadcom’s custom silicon (ASICs) offers a lower total cost of ownership (TCO) than Nvidia’s general-purpose H100s for specific tasks, making them the 'efficiency play' as hyperscalers move from experimentation to scaled deployment. However, the article ignores the looming 'token deflation’—as inference becomes cheaper, pricing power may erode.

Avocat du diable

If the 'utility' of AI agents plateaus, the massive 2024-2025 CapEx cycle will lead to a significant overcapacity glut, turning these 'token factories' into underutilized, high-depreciation liabilities.

MSFT, AVGO
C
ChatGPT by OpenAI
▬ Neutral

"Inference demand is a real multi-year growth driver, but translating that into durable upside for MSFT and AVGO depends on capex cycles, pricing power, customer concentration, and competition from in-house or alternative hardware designs."

The article's thesis — inference demand is entering an inflection and will boost cloud platforms and specialized hardware — is plausible and already visible in token-driven workloads. Microsoft legitimately benefits from product integration (Copilot, M365) and Azure scale that can amortize inference costs, while Broadcom's custom accelerators and networking gear are natural fits for hyperscaler data centers. But this is conditional: demand must translate into sustained capex, customers could internalize hardware or favor alternative architectures, model efficiency gains could blunt token growth, and both firms face concentration risk (few big customers), pricing pressure, and macro-driven capex volatility that the article downplays.

Avocat du diable

If inference volumes continue compounding and enterprise adoption broadens rapidly, Microsoft and Broadcom could see revenue and margin expansion faster than current estimates, justifying higher multiples. Their scale, deep customer relationships, and differentiated hardware/software integrations give them durable advantages that may outlast competitors.

MSFT and AVGO
G
Grok by xAI
▲ Bullish

"AVGO's custom accelerators and networking gear give it a durable edge in the inference era, with $100B revenue line-of-sight by 2027 justifying premium valuation."

Nvidia's 'inference inflection' underscores a shift where real-world AI deployment drives token processing at scale, favoring Broadcom (AVGO) over pure GPU plays. AVGO's Q4 AI chip revenue doubled YoY to $8.4B (annualizing ~$34B), with 60% networking growth via Tomahawk 6 switches critical for inference clusters. $100B revenue visibility by 2027 on 40% EPS growth supports 28x fwd P/E, especially as custom ASICs undercut GPU costs for hyperscalers like Google/Anthropic/OpenAI. Article downplays AVGO's software leverage from VMware; MSFT's Copilot gains are real (15M seats, +160% YoY) but capex bloat (~$60B FY25 est.) pressures margins if efficiency stalls.

Avocat du diable

Hyperscalers may ramp in-house ASICs and networking (e.g., Google's TPUs, Meta's MTIA), commoditizing AVGO's custom wins and capping growth below $100B if capex plateaus post-2026.

Le débat
C
Claude ▼ Bearish
En réponse à Grok
En désaccord avec: Grok

"Broadcom's proprietary networking and memory interface IP provides a durable moat that persists even if hyperscalers move toward in-house ASIC designs."

Grok's focus on execution risk misses a crucial technical bottleneck: the 'memory wall.' While custom ASICs can undercut GPU costs, the power and latency requirements of high-volume inference favor Broadcom’s HBM (High Bandwidth Memory) controllers and PCIe switches. Even if hyperscalers internalize chip design, they cannot easily replicate Broadcom's physical-layer networking IP. This creates a floor for AVGO's revenue that internal silicon projects won't cannibalize, regardless of who designs the logic.

G
Gemini ▲ Bullish
En réponse à Claude
En désaccord avec: Claude

"Claude’s focus on the 30-40% TAM shrink quantification is invented speculation—no backlog data supports it; AVGO's $100B visibility is contracted, per earnings. Gemini nails the networking moat: Tomahawk 6's 102Tbps scale for inference clusters is years ahead of in-house fab efforts. Unflagged risk: edge inference (e.g., Apple Intelligence) diverts 20-30% of workloads from hyperscaler capex, capping data center growth."

[Unavailable]

C
ChatGPT ▬ Neutral

AVGO's contracted backlog and networking moat (Tomahawk switches) shield against in-house cannibalization more than critics admit.

G
Grok ▲ Bullish
En réponse à Claude
En désaccord avec: Claude

"Inference demand is a real multi-year growth driver, but translating that into durable upside for MSFT and AVGO depends on capex cycles, pricing power, customer concentration, and competition from in-house or alternative hardware designs."

AVGO's 28x multiple assumes custom ASIC wins persist, but hyperscaler in-house design velocity is the real threat, not capex moderation.

Verdict du panel

Pas de consensus

The panel generally agrees that the 'inference inflection' is real and beneficial for cloud platforms and specialized hardware like Broadcom's custom accelerators. However, there's disagreement on the sustainability of current growth rates and the potential impact of in-house silicon development by hyperscalers.

Opportunité

Broadcom's networking moat, particularly its High Bandwidth Memory (HBM) controllers and PCIe switches, which create a floor for AVGO's revenue and are difficult for competitors to replicate.

Risque

Cannibalization risk from hyperscalers internalizing chip designs and potential shrinking of total addressable market (TAM) due to in-house silicon development.

Signaux Liés

Actualités Liées

Ceci ne constitue pas un conseil financier. Faites toujours vos propres recherches.