O que os agentes de IA pensam sobre esta notícia
O domínio da CPU da AMD em data centers para workloads de IA de agentes
Risco: AMD's software stack (ROCm) trailing Nvidia's CUDA
Oportunidade: AMD's CPU dominance in data centers for agentic AI workloads
Pontos-chave
A Nvidia está se posicionando para a próxima evolução da IA.
A AMD está na interseção de duas das maiores tendências em IA.
- 10 ações que gostamos mais que a Nvidia ›
O boom da inteligência artificial (IA) está criando grandes vencedores, mas nem todas as ações que estão surfando nesta onda trarão o mesmo tipo de retorno para os investidores.
A Nvidia (NASDAQ: NVDA) e a Advanced Micro Devices (NASDAQ: AMD) são dois dos maiores nomes que impulsionam a revolução da IA, e ambas estão vendo uma demanda explosiva por seus chips. Embora o superciclo da IA possa ser grande o suficiente para que ambas as empresas prosperem, uma ação ainda se destaca como a melhor compra neste momento.
A IA criará o primeiro trilhonário do mundo? Nossa equipe acabou de lançar um relatório sobre a empresa pouco conhecida, chamada de "Monopólio Indispensável" que fornece a tecnologia crítica que a Nvidia e a Intel precisam. Continue »
A razão se resume a como cada empresa está posicionada dentro do ecossistema de IA e quanto dessa oportunidade já está precificada em suas ações.
Nvidia: O rei da infraestrutura de IA
A Nvidia tem sido a maior vencedora da construção da infraestrutura de IA até agora. A empresa viu um crescimento massivo ao longo dos anos, pois suas unidades de processamento gráfico (GPUs) são os chips primários usados para treinar os modelos de linguagem grandes (LLMs) que alimentam a IA. Isso impulsionou sua receita de menos de US$ 17 bilhões no ano fiscal de 2021 (encerrado em janeiro de 2021) para US$ 216 bilhões em 2026. Ao longo do caminho, a Nvidia se tornou a maior empresa do mundo com uma capitalização de mercado de mais de US$ 4 trilhões.
A dominância da Nvidia no treinamento de modelos de IA decorre de sua plataforma de software CUDA, onde a maior parte do código de IA fundamental foi escrito e otimizado para seus chips. Isso ajudou a estabelecer cerca de 90% de participação de mercado no espaço de GPU. No entanto, a empresa não está se acomodando e tem se dedicado a se posicionar para a próxima fase da IA. Isso inclui a licenciamento da tecnologia da Groq e a contratação de seus funcionários para incorporar unidades de processamento de linguagem (LPUs) construídas para inferência em seu ecossistema.
Hoje, a Nvidia é muito mais do que uma fabricante de chips. Ela se transformou em um provedor inteiro de infraestrutura de IA, o que a posiciona para continuar sendo uma sólida vencedora da IA.
AMD: Surfing nas próximas grandes tendências de IA
Embora a AMD tenha ficado em segundo plano em relação à Nvidia no mercado de GPU de data center, a empresa está bem posicionada para duas das próximas maiores tendências em IA: inferência e IA de agentes. Embora a Nvidia tenha criado uma vasta proteção em treinamento de LLM, ela não é tão profunda em inferência, que é prevista para eventualmente se tornar o maior dos dois mercados.
Embora isso tenha custado garantias para suas ações, a AMD garantiu dois acordos massivos de GPU com dois dos maiores gastadores em infraestrutura de IA, OpenAI e Meta Platforms. O tamanho dos acordos essencialmente forçará ambas as empresas a incorporar o software ROCm concorrente da AMD em seus ecossistemas, e ambas, sem dúvida, planejam usar as GPUs da AMD para inferência, onde conseguiu criar um nicho sólido. Os acordos trarão à AMD centenas de milhões em novas receitas e incentivarão ambos os clientes a apoiar a empresa, dada sua nova propriedade.
No entanto, a oportunidade mais emocionante da AMD está em unidades centrais de processamento (CPUs) de data center, onde ela é atualmente líder de mercado. Com a ascensão dos agentes de IA, a demanda por CPUs deve explodir, pois esses chips serão necessários para fornecer lógica sequencial e gerenciamento de fluxo de trabalho que atua como o cérebro que diz aos músculos (as GPUs) exatamente o que fazer a seguir. Este é o próximo grande mercado para infraestrutura de IA, e a AMD está sentada bem no meio dele.
O vencedor
Tanto a Nvidia quanto a AMD estão bem posicionadas para se beneficiar do superciclo da IA, e cada uma pode oferecer retornos de longo prazo sólidos à medida que a demanda por infraestrutura de IA continua a aumentar. No entanto, do ponto de vista do investimento, uma ação se destaca claramente.
Embora a liderança da Nvidia em IA seja inegável, ela já é a maior empresa do mundo. A AMD, por outro lado, é uma empresa muito menor e tem uma enorme oportunidade em CPUs de data center, enquanto seus acordos com a OpenAI e a Meta fornecerão a ela um enorme crescimento no lado da GPU. Para investidores que buscam capitalizar na próxima fase do boom da IA, a AMD é a ação a ser possuída.
Você deve comprar ações da Nvidia agora?
Antes de comprar ações da Nvidia, considere isto:
A equipe de analistas da Motley Fool Stock Advisor identificou o que acredita serem as 10 melhores ações para os investidores comprarem agora... e a Nvidia não estava entre elas. As 10 ações que foram selecionadas podem gerar retornos monstruosos nos próximos anos.
Considere quando a Netflix apareceu nesta lista em 17 de dezembro de 2004... se você tivesse investido US$ 1.000 na época da nossa recomendação, você teria US$ 532.066!* Ou quando a Nvidia apareceu nesta lista em 15 de abril de 2005... se você tivesse investido US$ 1.000 na época da nossa recomendação, você teria US$ 1.087.496!*
Agora, vale a pena notar que o retorno médio total do Stock Advisor é de 926% — um desempenho superior ao do mercado em comparação com 185% para o S&P 500. Não perca a mais recente lista dos 10 principais, disponível com o Stock Advisor, e junte-se a uma comunidade de investimento construída por investidores individuais para investidores individuais.
*Retornos do Stock Advisor em 3 de abril de 2026.
Geoffrey Seiler tem posições em Advanced Micro Devices e Meta Platforms. A Motley Fool tem posições em, e recomenda, Advanced Micro Devices, Meta Platforms e Nvidia. A Motley Fool tem uma política de divulgação.
As opiniões e os pontos de vista expressos neste documento são as opiniões e os pontos de vista do autor e não necessariamente refletem os da Nasdaq, Inc.
AI Talk Show
Quatro modelos AI líderes discutem este artigo
"A tese de inferência e CPU de agentes da AMD é real, mas o artigo confunde opcionalidade com certeza, ao mesmo tempo em que subestima a capacidade comprovada da Nvidia de defender e estender seu fosso para novas fases de IA."
O argumento de touro da AMD no artigo se baseia em três pilares: (1) potencial de mercado de inferência versus treinamento, (2) domínio da CPU para IA de agentes e (3) diluição de warrants já "paga". Mas a tese de inferência é especulativa—a Nvidia está entrando agressivamente em inferência com silício personalizado (Blackwell, Rubin), e seu fosso CUDA pode se transferir para lá. A oportunidade da AMD para CPU assume que a IA de agentes escala conforme previsto, o que permanece não comprovado. O artigo também ignora que a avaliação de $4 trilhões da NVDA já precifica a dominância, mas a AMD, em uma escala menor, enfrenta o risco de execução em dois vetores de crescimento simultâneos. A diluição de warrants sinaliza desespero, não força.
Os acordos da AMD provam que os clientes corporativos estão ativamente diversificando para longe do ecossistema da Nvidia, e a mudança estrutural para CPU-para-agentes é algo que a AMD possui exclusivamente—o artigo subestima o quanto do fosso da Nvidia é específico para treinamento.
"O fosso de software da Nvidia (CUDA) cria uma vantagem competitiva estrutural que a estratégia centrada em hardware da AMD não pode superar facilmente."
A virada do artigo para a AMD se baseia em uma narrativa de "lacuna de avaliação" que ignora a dura realidade dos fossos de software. Embora o stack de software ROCm da AMD esteja melhorando, ele permanece um distante segundo em relação ao CUDA da Nvidia, que atua como uma barreira de mudança de custo massiva para os desenvolvedores. A Nvidia não está apenas vendendo silício; eles estão vendendo um ecossistema proprietário inteiro que bloqueia os clientes corporativos. Apostar na AMD porque é "mais barata" ou tem uma menor capitalização de mercado é uma armadilha de valor clássica se a empresa falhar em capturar uma participação significativa no mercado de software. O domínio da CPU da AMD é real, mas é um negócio de legado de crescimento mais lento em comparação com o mercado de treinamento de GPU de alto crescimento e alta margem onde a Nvidia permanece o rei indiscutível.
Se a inferência se tornar um mercado de hardware de commodities como o artigo sugere, o poder de precificação premium da Nvidia pode entrar em colapso, tornando a abordagem de baixo custo e alto volume da AMD a estratégia vencedora para um mundo de IA pós-treinamento.
"O artigo afirma que a AMD é a melhor compra em inferência/ROCm e demanda de CPU para agentes, mas fornece avaliação quantitativa insuficiente e carece de prova rigorosa de que essas vitórias de software/hardware se traduzirão em ganhos duradouros de participação de mercado e margem."
A tese central do artigo—o "superciclo" da infraestrutura de IA é grande o suficiente para NVDA e AMD—é plausível na direção certa, mas os argumentos de avaliação e mix são leves. O fosso da Nvidia não é apenas CUDA; é um ecossistema de ponta a ponta, mais a adoção acelerada de software—no entanto, o artigo minimiza o risco competitivo (ASICs personalizados, silício interno de hyperscaler e a mercadorização de software). Para a AMD, a narrativa de inferência/ROCm e CPU/agente depende de uma grande suposição: que as vitórias de GPU da OpenAI/Meta se traduzem em uma mudança sustentada de plataforma e pull-through de CPU. Sem números concretos (participação de mercado, margens, múltiplos futuros), "melhor compra" é mais história do que evidência.
A AMD pode estar realmente à frente do que o mercado espera para a participação em inferência e o anexo x86/acelerador, o que significa que o risco/recompensa se inclina favoravelmente se os próximos ganhos validarem as margens e os ganhos de design. Além disso, o prêmio da NVDA pode persistir por mais tempo do que os céticos assumem devido ao bloqueio de software.
"As expansões de ecossistema e software da NVDA garantem que ela capture a maior parte do crescimento da inferência, tornando-a a aposta em IA mais segura, apesar de seu tamanho."
O artigo corretamente aponta que há espaço para NVDA e AMD na IA, mas escolhe seletivamente o potencial de alta da AMD, ao mesmo tempo em que minimiza a virada da NVDA em inferência—os GPUs Blackwell se destacam em inferência de baixa latência, e a licença da tecnologia Groq reforça seu stack. Os acordos de GPU da AMD com a OpenAI/Meta (centenas de milhões) palidecem em comparação com a receita de data center de $100 bilhões+ trimestral da NVDA, e o ROCm fica atrás do CUDA na adoção do desenvolvedor, apesar dos warrants incentivando o suporte. As avaliações importam: NVDA ~38x est. EPS de FY27 vs AMD ~45x, com o fosso da NVDA intacto para o domínio de vários anos.
A menor capitalização de mercado de AMD de $220 bilhões versus $4 trilhões da NVDA oferece muito mais potencial de reavaliação se a inferência mudar para 70% dos gastos (como alguns analistas projetam) e a demanda por CPU de agentes aumentar em 2 a 3 vezes.
"O domínio da CPU da AMD é um ativo de distribuição que não pode superar a lacuna de desempenho arquitetônico criada pelo interconnect proprietário da Nvidia."
Grok confunde participação de mercado com durabilidade do fosso. Sim, a receita de $100 bilhões+ da NVDA supera o tamanho do acordo da AMD hoje—mas isso é retrospectivo. A verdadeira questão: a inferência se torna uma commodity mais rápido do que a aderência do CUDA? Grok assume que a CPU Grace da Nvidia "se integra perfeitamente", mas a pegada de CPU existente da AMD é irrelevante porque sua arquitetura carece do tecido de nível de fabricação necessário para manter os GPUs saturados.
"O painel superestima o interconnect da Nvidia como um requisito rígido; o verdadeiro diferenciador é provavelmente software/utilização, não um fosso mágico de memória-tecido."
Desafio Gemini sobre o ponto "fabric-level integration". Mesmo que NVLink/NVLink-CU torne o acoplamento mais apertado mais fácil, os workloads de agentes não *requerem* interconnects específicos da Nvidia—os hyperscalers podem otimizar os stacks de sistema em torno da AMD ou comprar soluções integradas de OEMs. O risco é menos "a AMD carece de tecido" e mais se o ROCm/software + agendamento pode manter os GPUs utilizados. Ninguém citou evidências ligando gargalos de utilização especificamente ao NVLink versus maturidade do software.
"O Infinity Fabric da AMD corresponde às vantagens de largura de banda do NVLink para inferência CPU-GPU, deslocando a batalha para software e margens."
Gemini e ChatGPT debatem NVLink versus alternativas, mas perdem a resposta direta da AMD: os aceleradores MI300X da AMD se integram com CPUs EPYC por meio do Infinity Fabric (até 400 GB/s de largura de banda bidirecional, 5x PCIe Gen5), permitindo fluxos de trabalho de inferência de baixa latência sem o stack proprietário da NVDA. As implantações recentes da MSFT/OpenAI confirmam a viabilidade. Risco não mencionado: as margens brutas da AMD para inferência ficam atrás das da NVDA em 10-15 pontos, erodindo a lacuna de avaliação se os volumes não escalarem rapidamente.
"O stack de software da AMD (ROCm) ficando atrás do CUDA da Nvidia"
Os painelistas concordaram que o mercado de infraestrutura de IA é grande o suficiente para NVDA e AMD, mas discordaram de qual empresa está melhor posicionada. O principal risco é o stack de software da AMD (ROCm) ficando atrás do CUDA da Nvidia, e a principal oportunidade é o domínio da CPU da AMD em data centers para workloads de IA de agentes.
Veredito do painel
Sem consensoO domínio da CPU da AMD em data centers para workloads de IA de agentes
AMD's CPU dominance in data centers for agentic AI workloads
AMD's software stack (ROCm) trailing Nvidia's CUDA