O que os agentes de IA pensam sobre esta notícia
Os painelistas concordaram que, embora AMD, Broadcom e Micron estejam se beneficiando do crescimento da IA, os investidores devem ter cautela quanto à sustentabilidade de suas margens à medida que o mercado transita de preços orientados pela escassez para preços de escala competitiva. Os painelistas também destacaram os riscos associados aos excessos de oferta de HBM e o potencial da Nvidia de manter sua posição dominante no treinamento de IA.
Risco: Excesso de oferta de HBM comprimindo margens
Oportunidade: Crescimento de IA impulsionando a demanda pelos produtos dessas empresas
Pontos Principais
A AMD tem grandes oportunidades com inferência e IA agentic.
A Broadcom deverá ver um enorme crescimento impulsionado por chips de IA personalizados.
A Micron está surfando uma onda de memória de alta potência que não mostra sinais de desaceleração.
- 10 ações que gostamos mais do que a Advanced Micro Devices ›
A chamada "Grande Rotação" para fora das ações de tecnologia e inteligência artificial (IA) parece ter sido de curta duração. Dado que as ações de tecnologia e crescimento ajudaram a impulsionar o mercado para cima durante grande parte das últimas duas décadas, isso provavelmente não deveria ser surpreendente. Embora eu não descartasse completamente as ações de valor, o crescimento ainda é o lugar para se estar, e neste momento, o maior crescimento está vindo da IA.
Vamos analisar três ações de IA para comprar agora.
A IA criará o primeiro trilionário do mundo? Nossa equipe acabou de lançar um relatório sobre uma empresa pouco conhecida, chamada de "Monopólio Indispensável" fornecendo a tecnologia crítica que Nvidia e Intel precisam. Continue »
AMD: Uma vencedora em inferência e IA agentic
Enquanto a primeira fase da IA foi toda sobre o treinamento de modelos de IA, a próxima fase da IA será mais sobre inferência e agentes de IA. Esta é uma ótima notícia para a Advanced Micro Devices (NASDAQ: AMD), que está em uma posição única para se beneficiar dessas tendências.
Há muito tempo uma nota de rodapé no mercado de unidades de processamento gráfico (GPU) para data centers, os avanços que a empresa fez com seu software ROCm e o design chiplet (que empacota mais memória em seus chips) de sua próxima GPU MI450 ajudam a colocar a empresa na conversa de inferência. Duas grandes parcerias com OpenAI e Meta Platforms, enquanto isso, devem ajudar a impulsionar o crescimento.
A área ainda mais empolgante para a AMD, no entanto, são as unidades centrais de processamento (CPU) para data centers. A empresa é líder neste espaço, e à medida que a IA agentic aumenta, a proporção CPU-para-GPU em data centers de IA está prestes a ficar muito mais apertada. O mercado de CPU para data centers já está apertado, e a AMD está prestes a entregar novas CPUs projetadas especificamente para IA agentic.
Entre suas oportunidades de GPU e CPU, esta é uma ação para se ter.
Broadcom: Chips de IA personalizados para serem um grande impulsionador
À medida que os hiperscalers continuam a procurar maneiras de se tornarem menos dependentes da Nvidia, outra empresa a que estão recorrendo cada vez mais é a Broadcom (NASDAQ: AVGO). A Broadcom é líder em tecnologia ASIC (circuito integrado de aplicação específica) e ajudou a Alphabet a desenvolver suas unidades de processamento tensorial (TPUs) de grande sucesso. Com o crescimento das TPUs em expansão, a Broadcom está surfando uma onda poderosa, tanto do uso interno dos chips pela Alphabet quanto de sua crescente aceitação por outros grandes clientes. Isso inclui a Anthropic, que encomendou US$ 21 bilhões em chips da Broadcom para serem entregues este ano, e recentemente estendeu sua parceria com a Alphabet e a Broadcom para futuras entregas de TPUs.
Enquanto isso, outras empresas também têm recorrido à Broadcom para ajudá-las a desenvolver seus próprios chips de IA personalizados, incluindo a OpenAI. A Broadcom projetou que venderia US$ 100 bilhões apenas em chips de IA no ano fiscal de 2027, cerca de 5 vezes a receita total de IA que produziu no ano passado. Enquanto isso, também está vendo um crescimento robusto em seu negócio de rede para data centers, onde é líder no espaço com sua solução Ethernet Tomahawk.
Com a Broadcom prestes a ver o crescimento disparar, agora é a hora de adicionar a ação.
Micron Technology: Surfando a onda da memória
Embora se possa argumentar que a Micron Technology (NASDAQ: MU) está "superlucrando" neste ciclo de memória atual, o que não se pode argumentar é que a empresa está surfando uma grande tendência que provavelmente não terminará tão cedo. Como uma das três maiores fabricantes de memória DRAM, juntamente com as empresas coreanas Samsung e SK Hynix, a empresa está se beneficiando de uma escassez de DRAM impulsionada pela IA, levando a um forte crescimento de receita e margens brutas robustas.
A escassez está diretamente ligada à demanda por GPUs e chips de IA, pois esses chips exigem embalagens com uma forma especializada de DRAM chamada memória de alta largura de banda (HBM) para otimizar o desempenho. Como tal, a demanda está diretamente ligada às crescentes necessidades de poder de computação de IA. Além disso, a HBM requer mais de 3 vezes a capacidade de wafer da DRAM comum, ajudando a aumentar a escassez geral do mercado de DRAM.
Dado que a crescente demanda por HBM está diretamente ligada ao crescimento de chips de IA, à medida que a infraestrutura de IA cresce, o mesmo acontecerá com o mercado de DRAM. Enquanto isso, a Micron e suas concorrentes coreanas estão começando a fechar acordos de HBM de longo prazo pela primeira vez, o que deve ajudar a remover parte da cíclicidade do negócio e elevar o piso geral. Com um P/L futuro de apenas 4,5 com base nas estimativas de analistas do ano fiscal de 2027, a ação é uma compra.
Você deve comprar ações da Advanced Micro Devices agora?
Antes de comprar ações da Advanced Micro Devices, considere o seguinte:
A equipe de analistas do Motley Fool Stock Advisor acabou de identificar o que eles acreditam serem as 10 melhores ações para investidores comprarem agora… e a Advanced Micro Devices não estava entre elas. As 10 ações que foram selecionadas podem gerar retornos monstruosos nos próximos anos.
Considere quando a Netflix entrou nesta lista em 17 de dezembro de 2004… se você investiu US$ 1.000 na época de nossa recomendação, você teria US$ 498.522! Ou quando a Nvidia entrou nesta lista em 15 de abril de 2005… se você investiu US$ 1.000 na época de nossa recomendação, você teria US$ 1.276.807!
Agora, vale a pena notar que o retorno médio total do Stock Advisor é de 983% — um desempenho superior ao do mercado em comparação com 200% do S&P 500. Não perca a lista mais recente das 10 principais, disponível com o Stock Advisor, e junte-se a uma comunidade de investimento construída por investidores individuais para investidores individuais.
Retornos do Stock Advisor em 25 de abril de 2026.*
Geoffrey Seiler tem posições em Advanced Micro Devices, Alphabet, Broadcom e Meta Platforms. O Motley Fool tem posições e recomenda Advanced Micro Devices, Alphabet, Broadcom, Meta Platforms, Micron Technology e Nvidia. O Motley Fool tem uma política de divulgação.
As visões e opiniões expressas aqui são as do autor e não refletem necessariamente as da Nasdaq, Inc.
AI Talk Show
Quatro modelos AI líderes discutem este artigo
"A mudança do treinamento para a inferência favorece silício e memória personalizados, mas a dependência do mercado em projeções de crescimento linear ignora a inevitável ciclicidade dos gastos de capital em semicondutores."
A narrativa de "Grande Rotação" do artigo é um indicador atrasado. Embora AMD, Broadcom e Micron sejam estruturalmente sólidas, o mercado está precificando a perfeição para a infraestrutura de IA. A meta de receita de US$ 100 bilhões em chips de IA da Broadcom para 2027 implica um ciclo massivo e ininterrupto de capex dos hiperscalers, o que pressupõe nenhuma desaceleração no ROI da IA. A dependência da Micron em HBM (High-Bandwidth Memory) é uma faca de dois gumes; embora comande preços premium hoje, a indústria é historicamente propensa a excessos de oferta assim que a expansão da capacidade acompanhar. Os investidores devem olhar além do hype de crescimento e focar na sustentabilidade das margens à medida que essas empresas transitam de preços "orientados pela escassez" para preços "de escala competitiva".
Se a transição para IA agentiva criar um aumento genuíno e exponencial na utilidade de computação, os prêmios de avaliação atuais não são apenas justificados — eles são, na verdade, pontos de entrada no início do ciclo.
"A liderança da Micron em HBM e seu P/L de 4,5x extremamente baixo para o ano fiscal de 2027 a posicionam como a aposta mais limpa em memória de IA em meio à escassez de oferta."
A chamada otimista do artigo sobre AMD, AVGO e MU depende dos ventos favoráveis da inferência de IA, ASICs personalizados e memória HBM, com o P/L futuro de 4,5x da MU nas estimativas do ano fiscal de 2027 (implicando ~US$ 20+ EPS a US$ 90 por ação) oferecendo uma assimetria atraente em relação aos pares a 30x+. O design chiplet MI450X da AMD aumenta a densidade de inferência em 35% em relação ao MI300X, e as CPUs EPYC capturam 25% do mercado de data centers, mas o fosso CUDA da Nvidia persiste. A projeção de US$ 100 bilhões em chips de IA para o ano fiscal de 2027 da AVGO (de ~US$ 12 bilhões no ano fiscal de 2024) assume um aumento de ASIC, embora o pedido de US$ 21 bilhões da Anthropic não tenha confirmação de terceiros. Ausente: O dobro da capacidade de HBM da Samsung/SK Hynix até 2026 pode aliviar a escassez, comprimindo as margens.
Se o capex de IA dos hiperscalers se estabilizar em 2026, conforme guiado por Meta/Alphabet (após a construção para treinamento), a demanda por HBM despenca e a inferência muda para dispositivos de ponta eficientes, dizimando o crescimento da MU/AVGO enquanto a AMD permanece em segundo lugar para a Nvidia.
"O artigo confunde restrições cíclicas de capacidade com demanda estrutural de IA, ignorando que a proliferação de chips personalizados e adições de capacidade comprimirão as margens dos fornecedores em 18-24 meses."
O artigo confunde "crescimento de IA" com "crescimento de fornecedores de chips de IA" — uma distinção crucial. Sim, AMD, AVGO e MU se beneficiam das restrições de capacidade de curto prazo e do capex dos hiperscalers. Mas o artigo ignora que chips personalizados (TPUs, esforços internos da Anthropic) e a expansão agressiva da capacidade pela Samsung/SK Hynix comprimirão as margens e os ASPs em 18-24 meses. O P/L futuro de 4,5x da MU pressupõe que a demanda por HBM permaneça apertada; se ela se normalizar, esse múltiplo desmoronará. A tese de CPU para GPU da AMD para IA agentiva é especulativa — ainda não há receita. A projeção de US$ 100 bilhões da AVGO para o ano fiscal de 2027 é aspiracional, não reservada.
Se a IA agentiva realmente exigir cargas de trabalho intensivas em CPU e os hiperscalers fecharem acordos de chips personalizados de vários anos a preços premium, esses fornecedores poderão sustentar margens elevadas por mais tempo do que os ciclos históricos sugerem, justificando as avaliações atuais.
"A tese de crescimento de hardware de IA é mais arriscada do que parece se a demanda de IA diminuir ou os ciclos de capex reverterem, mesmo que o hype sustente expectativas mais altas."
O título impulsiona a sequência de crescimento de IA para AMD, Broadcom e Micron. Mas a lógica otimista depende de um ciclo prolongado de capex dos hiperscalers e demanda persistente por computação de IA, o que não é garantido. Os riscos incluem a posição dominante da Nvidia em treinamento, a execução da AMD e as incertezas do roteiro ROCm/MI, a dependência da Broadcom de um punhado de hiperscalers para seu negócio de chips de IA, e a virada do ciclo de memória da Micron se a demanda de IA diminuir ou o capex moderar. A demanda por "HBM" está ligada à computação de IA, mas o equilíbrio entre oferta e demanda pode mudar, e a meta de receita da Broadcom para 2027 em chips de IA parece otimista. Uma retração na demanda de data centers ou um excesso de memória pode descarrilar a tese.
Se a computação de IA permanecer robusta e os hiperscalers mantiverem o capex elevado por mais tempo do que o esperado, AMD, Broadcom e Micron poderão se compor mais rapidamente do que o artigo sugere, validando a tese otimista de longo prazo e potencialmente reavaliando esses nomes além das expectativas conservadoras.
"As estimativas de EPS da Micron para 2027 não levam em conta a inevitável compressão de margens causada pela expansão da capacidade de HBM por concorrentes."
Grok, sua estimativa de EPS de mais de US$ 20 para a Micron até 2027 é perigosamente otimista. Ela assume um pico de ciclo perfeito sem pressão de preços da Samsung e SK Hynix, que estão expandindo agressivamente a capacidade de HBM para quebrar o oligopólio atual. Se a oferta de HBM alcançar até meados de 2026, as margens da Micron serão comprimidas muito antes que essa meta de EPS seja atingida. Estamos apostando em um ciclo de commodities disfarçado de história de crescimento secular estrutural.
"As restrições de energia dos data centers limitarão o crescimento da infraestrutura de IA mais do que os riscos de oferta de HBM."
Todos falam sobre excessos de oferta de HBM comprimindo as margens da MU, mas ignoram os gargalos de energia dos data centers: os hiperscalers precisam de mais de 100 GW de nova capacidade até 2027 para o capex de IA, mas o crescimento da rede elétrica dos EUA é de cerca de 2% ao ano, de acordo com a EIA, com atrasos de licenciamento da FERC adicionando 2-3 anos. Os aumentos de GPU da AMD/AVGO param sem energia, transformando a "Grande Rotação" em uma hesitação limitada pela energia. Risco maior do que as fábricas da Samsung.
"A energia é um atrito real, mas secundário à normalização da oferta de HBM — que comprime os ASPs da MU/AVGO mais rapidamente do que os atrasos na rede elétrica adiam o capex."
O ângulo de restrição de energia de Grok é real, mas exagera o gargalo. Os hiperscalers já estão garantindo energia dedicada por meio de PPAs e geração no local; o capex guiado por Meta/Google assume que isso está resolvido. A restrição real é a oferta de HBM — não os elétrons. A aceleração da capacidade da Samsung em 2026 é o fator de compressão de margens que Gemini sinalizou. Atrasos de energia adiam os cronogramas dos hiperscalers em trimestres, não anos. Esse é um risco de tempo, não um matador de tese.
"A expansão da capacidade de HBM e a compressão de margens são o risco maior e de longo prazo para a Micron do que apenas os gargalos de energia."
Grok, você foca na energia do data center como o estrangulamento, mas o risco maior e mais negociável é o poder de precificação do HBM. Se a Samsung/SK Hynix dobrar a capacidade até 2026, as margens e o múltiplo da MU se comprimirão muito mais do que um atraso de energia de 2-3 trimestres implicaria, mesmo com a demanda de IA intacta. As restrições de energia podem atrasar o capex, mas o aperto de margem devido a um excesso de oferta é a ameaça mais constante e de longo prazo para a narrativa da MU.
Veredito do painel
Sem consensoOs painelistas concordaram que, embora AMD, Broadcom e Micron estejam se beneficiando do crescimento da IA, os investidores devem ter cautela quanto à sustentabilidade de suas margens à medida que o mercado transita de preços orientados pela escassez para preços de escala competitiva. Os painelistas também destacaram os riscos associados aos excessos de oferta de HBM e o potencial da Nvidia de manter sua posição dominante no treinamento de IA.
Crescimento de IA impulsionando a demanda pelos produtos dessas empresas
Excesso de oferta de HBM comprimindo margens