O Superciclo de IA Agente Está Aqui. Esta Ação Poderia Ser Seu Maior Ganho.
Por Maksym Misichenko · Nasdaq ·
Por Maksym Misichenko · Nasdaq ·
O que os agentes de IA pensam sobre esta notícia
O painel concordou em geral que o crescimento da CPU para data center da AMD é promissor, mas enfrenta desafios significativos, incluindo travamento de software, concorrência de silício personalizado e riscos de execução. A mudança na proporção GPU-para-CPU é real, mas pode não se traduzir no tamanho de mercado esperado ou na captura de valor desproporcional pela AMD.
Risco: O efeito de travamento de software do ROCm e o risco de ser substituído por silício personalizado (TPUs, Trainium) foram os riscos mais frequentemente citados.
Oportunidade: A oportunidade reside no potencial da AMD de capturar um crescimento significativo de data center, impulsionado por sua genuína liderança em CPU e pela genuína mudança na proporção GPU-para-CPU.
Esta análise é gerada pelo pipeline StockScreener — quatro LLMs líderes (Claude, GPT, Gemini, Grok) recebem prompts idênticos com proteções anti-alucinação integradas. Ler metodologia →
Embora o software-as-a-service (SaaS) seja uma forma de jogar IA agente, a AMD pode ser o maior vencedor com seus CPUs.
A IA agente precisa de uma quantidade imensa de CPUs, e a AMD é a líder de mercado no espaço de CPUs de data center.
A próxima grande onda de inteligência artificial (IA) está aqui com a IA agente. É aí que a IA passa de simplesmente gerar uma resposta -- seja texto, uma foto ou um vídeo -- para executar tarefas atribuídas de forma independente, com base em instruções, e, esperançosamente, com barreiras apropriadas.
Com a IA agente vem a promessa de comércio agente, onde agentes de IA podem colocar itens no seu carrinho com base em suas solicitações, permitindo que você clique em um botão para finalizar a compra. Também oferece a possibilidade de uma força de trabalho virtual que trabalha lado a lado com funcionários humanos.
A IA criará o primeiro bilionário do mundo? Nosso time acaba de lançar um relatório sobre a única empresa pouco conhecida, chamada "Monopólio Indispensável", que fornece a tecnologia crítica que a Nvidia e a Intel ambos precisam. Continue »
Não surpreendentemente, muitas empresas estão perseguindo o uso de agentes de IA, e certamente há diversas empresas de software-as-a-service (SaaS) seguindo esse caminho. No entanto, talvez a melhor forma de jogar IA agente seja do lado do hardware. E quando se trata de hardware de IA agente, uma das empresas melhor posicionadas é Advanced Micro Devices (NASDAQ: AMD).
Embora melhor conhecida como o jogador distante número 2 no mercado de unidades de processamento gráfico (GPU) atrás da Nvidia, a AMD é na verdade a líder de mercado em unidades de processamento central (CPU) de data center. Essa é uma posição excelente para estar, porque com o aumento dos agentes de IA, haverá uma necessidade enorme de CPUs de alto desempenho.
As GPUs são ótimas para fornecer o poder para treinar modelos de IA e ajudar a executar inferência. O que elas não são boas é trabalhar com outras ferramentas e raciocínio sequencial. É aí que as CPUs entram, agindo mais como o cérebro da operação. Com a IA agente, os servidores de data center precisarão de muito mais CPUs para orchestrar o uso crescente de agentes de IA.
Tanto a AMD quanto o rival Intel discutiram a mudança na razão GPU para CPU em data centers, passando de 8 para 1 para 1 para 1 com a IA agente. Isso está levando a um aumento enorme na demanda, com a demanda por CPUs agora começando a superar a oferta. Ao mesmo tempo, a IA agente é melhor servida com CPUs de alto núcleo, pois os núcleos atuam como locais de trabalho individuais onde as tarefas podem ser concluídas. Normalmente, quanto mais núcleos uma CPU tem, maior seu preço, então, além de mais unidades sendo vendidas, os preços também devem aumentar. A AMD disse que vê o mercado de CPUs de servidores alcançando $120 bilhões até 2030, subindo de uma previsão de $60 bilhões que deu em novembro.
Com uma demanda por CPUs de alto desempenho apenas começando, a AMD é uma das formas mais claras de jogar a tendência da IA agente.
Antes de comprar ações da Advanced Micro Devices, considere isso:
A Equipe de Aconselhamento de Ações do Motley Fool acabou de identificar o que acreditam serem as 10 melhores ações para investidores comprarem agora... e a Advanced Micro Devices não estava entre elas. As 10 ações que entraram na lista poderiam gerar retornos monstros nos anos vindouros.
Considere quando Netflix entrou nessa lista em 17 de dezembro de 2004... se você investiu $1.000 na época da nossa recomendação, você teria $469.293! Ou quando Nvidia entrou nessa lista em 15 de abril de 2005... se você investiu $1.000 na época da nossa recomendação, você teria $1.381.332!
Agora, é importante notar que o retorno total médio do Stock Advisor é de 993% -- um desempenho de mercado esmagador em comparação com 207% para o S&P 500. Não perca a lista mais recente dos 10 melhores, disponível com o Stock Advisor, e junte-se a uma comunidade de investimento criada por investidores individuais para investidores individuais.
**Retornos do Stock Advisor até 16 de maio de 2026. *
Geoffrey Seiler possui posições na Advanced Micro Devices. O Motley Fool possui posições e recomenda a Advanced Micro Devices, Intel e Nvidia. O Motley Fool possui uma política de divulgação.
As opiniões e visões expressas aqui são as opiniões e visões do autor e não necessariamente refletem as da Nasdaq, Inc.
Quatro modelos AI líderes discutem este artigo
"O crescimento da AMD no mercado de CPUs para servidores é vulnerável ao surgimento de silício personalizado (ASICs) e arquiteturas de data center com restrição de energia que priorizam aceleradores especializados em vez de computação de CPU de propósito geral."
A tese do artigo se baseia em uma mudança na proporção GPU-para-CPU de 8:1 para 1:1, o que é uma suposição massiva. Embora os processadores EPYC da AMD estejam ganhando participação contra os Xeon da Intel, o artigo ignora o "muro da memória" e as restrições de energia. Se a IA agentiva requer raciocínio sequencial massivo, o gargalo é frequentemente I/O e largura de banda de memória, não apenas a contagem bruta de núcleos de CPU. A avaliação da AMD (negociando a aproximadamente 30x os lucros futuros) já precifica um crescimento significativo de data center. Os investidores devem ter cautela: se os hiperescaladores como Amazon ou Google optarem por silício personalizado (ASICs) para orquestração de agentes para economizar custos de energia, a narrativa de CPU "indispensável" da AMD pode evaporar mais rápido do que o mercado espera.
A tese assume que as CPUs permanecem os principais orquestradores para agentes, ignorando a rápida integração da lógica agentiva diretamente em frameworks residentes em GPU e aceleradores de IA personalizados.
"N/A"
[Indisponível]
"A liderança de CPU da AMD é real, mas o artigo assume que a IA agentiva será limitada por CPU e que a AMD capturará poder de precificação — ambos não comprovados e contraditos pelos incentivos dos hiperescaladores para comoditizar."
A mudança na proporção GPU-para-CPU do artigo (8:1 para 1:1) é real e a liderança da AMD em CPUs para data centers é genuína. No entanto, a afirmação de tamanho de mercado de US$ 120 bilhões até 2030 precisa ser examinada — isso é um CAGR de 100% a partir de uma base de US$ 60 bilhões, o que pressupõe crescimento de unidades E poder de precificação em um mercado onde os hiperescaladores (MSFT, GOOG, META) têm enorme alavancagem. As margens brutas da AMD em CPUs (~45-50%) também ficam atrás da economia das GPUs. O artigo confunde "IA agentiva precisa de CPUs" com "AMD capturará valor desproporcional", que não são a mesma coisa. A atualização do Xeon da Intel e o silício personalizado dos provedores de nuvem representam ameaças reais. Mais importante: se as cargas de trabalho de IA agentiva acabarem sendo limitadas por GPU (não por CPU, como alegado), toda essa tese se inverte.
Os hiperescaladores já estão projetando silício personalizado (TPUs do Google, Trainium da AWS) para reduzir a dependência de CPU/GPU, e a suposição de proporção 1:1 é especulativa — AMD/Intel não provaram que isso se materializará em escala ou que favorece a AMD em relação ao aumento do Xeon da Intel.
"O hype da IA pode exagerar o potencial de longo prazo da AMD; a expansão do TAM e os ganhos de participação de CPU são incertos, e a avaliação pode se comprimir se a demanda se mostrar mais cíclica do que estrutural."
Embora a peça considere a tendência de IA agentiva como um impulso de demanda durável para CPUs de alto núcleo, ela exagera a taxa de vitória provável da AMD. A Nvidia ainda domina a inferência de IA, e a demanda por CPU depende de arquiteturas de nuvem que podem atrasar os gastos com IA. A proporção alegada de 1 para 1 de GPU para CPU não é comprovada e pode levar anos para se materializar, o que limita o volume incremental da AMD e o poder de precificação. O TAM de US$ 120 bilhões até 2030 parece otimista e depende de suprimento, ciclos de produtos e capex de hiperescaladores que podem desacelerar. Se os orçamentos de nuvem estagnarem ou as cargas de trabalho de IA migrarem para aceleradores alternativos, o potencial de alta da AMD pode ser muito mais cíclico do que o artigo sugere.
O ciclo de hardware de IA pode ser durável, com os hiperescaladores expandindo núcleos por servidor e buscando CPUs eficientes em custo e energia. Se a AMD executar seu roteiro de CPU e ganhar participação em servidores de data center, as ações poderão se valorizar além do caso pessimista.
"O debate centrado em hardware ignora que a paridade do ecossistema de software é o verdadeiro gargalo para os ganhos de participação de mercado da AMD no data center."
Claude está correto sobre o risco de compressão de margem, mas tanto Claude quanto Gemini ignoram o efeito de "travamento de software" do ROCm. Se a pilha de software da AMD não atingir paridade com o CUDA, a proporção CPU-para-GPU se torna irrelevante porque os desenvolvedores priorizarão ambientes nativos da Nvidia, independentemente da eficiência do hardware. Estamos apostando em uma mudança de hardware, ignorando o fosso — ou a falta dele — na camada de software que dita onde essas cargas de trabalho realmente pousam.
[Indisponível]
"O ROCm é uma ferramenta de negociação para hiperescaladores, não um fosso técnico — o investimento em CPU da AMD sobrevive mesmo que permaneça secundário ao silício personalizado."
A crítica do Gemini ao ROCm é afiada, mas subestima a alavancagem da AMD. Os hiperescaladores (Meta, Microsoft) estão financiando ativamente a paridade do ROCm porque o travamento da Nvidia lhes custa bilhões em capex e extração de margem. Isso não é um fosso de software — é uma situação de reféns. A AMD não precisa de paridade com CUDA; precisa de 80% de paridade com 40% menos TCO. Isso já está acontecendo. O risco real não é o fracasso do ROCm; é que o silício personalizado (TPUs, Trainium) torne ambos obsoletos mais rápido do que o painel assume.
"A paridade do ROCm por si só não é um fosso; o potencial de alta real requer adoção ampla por desenvolvedores e paridade de ecossistema para se traduzir em participação e ganhos de margem significativos."
A afirmação de paridade do ROCm de Claude destaca um risco real, mas subestima o risco de execução. Mesmo com maior paridade, o ecossistema CUDA domina e a migração de desenvolvedores não é linear; o travamento não evaporará apenas porque a AMD atinge a paridade — o ROI depende do desempenho da biblioteca, ferramentas e suporte. Se os hiperescaladores impulsionarem pilhas compatíveis com CUDA ou aceleradores personalizados, a paridade do ROCm pode não se traduzir em ganhos de participação significativos, deixando a AMD exposta em margens e tempo de ciclo.
O painel concordou em geral que o crescimento da CPU para data center da AMD é promissor, mas enfrenta desafios significativos, incluindo travamento de software, concorrência de silício personalizado e riscos de execução. A mudança na proporção GPU-para-CPU é real, mas pode não se traduzir no tamanho de mercado esperado ou na captura de valor desproporcional pela AMD.
A oportunidade reside no potencial da AMD de capturar um crescimento significativo de data center, impulsionado por sua genuína liderança em CPU e pela genuína mudança na proporção GPU-para-CPU.
O efeito de travamento de software do ROCm e o risco de ser substituído por silício personalizado (TPUs, Trainium) foram os riscos mais frequentemente citados.