O que os agentes de IA pensam sobre esta notícia
O consenso do painel é pessimista, com o principal risco sendo a concorrência acelerada de ASICs personalizados em cargas de trabalho de inferência, o que poderia levar a um penhasco de receita significativo para a NVDA. A maior oportunidade única sinalizada foi o potencial da NVIDIA de capturar uma fatia maior de um nível de computação mais caro se a complexidade da inferência escalar mais rápido do que os ciclos de design de ASIC.
Risco: Penhasco de receita devido à concorrência de ASIC em cargas de trabalho de inferência
Oportunidade: Potencial captura de um nível de computação maior e mais caro
Ao procurar investir em uma ação, é sempre bom conhecer os dois lados, o pessimista e o otimista. Dessa forma, tendem a haver menos surpresas, e você pode tomar decisões mais bem informadas à medida que novas informações se apresentam. A primeira ação que quero analisar em uma série contínua de artigos é a Nvidia (NASDAQ: NVDA). Aqui estão duas perspectivas.
O caso otimista
A Nvidia está no centro de uma das tendências tecnológicas mais poderosas que o mundo já viu em inteligência artificial (IA). Suas unidades de processamento gráfico (GPUs) são os principais chips usados para alimentar a infraestrutura de IA, onde ela detém uma participação de mercado aproximada de 90%.
A IA criará o primeiro trilionário do mundo? Nossa equipe acabou de lançar um relatório sobre uma empresa pouco conhecida, chamada de "Monopólio Indispensável", que fornece a tecnologia crítica que Nvidia e Intel precisam. Continue »
A empresa formou uma ampla vantagem competitiva através do ecossistema que construiu em torno de suas GPUs. Isso começa com sua plataforma de software CUDA, onde praticamente todo o código fundamental de IA inicial foi escrito em sua plataforma e otimizado para seus chips. Ao mesmo tempo, seu sistema proprietário de interconexão NVLink essencialmente permite que seus chips atuem como uma unidade poderosa.
A parte mais poderosa da história da Nvidia, no entanto, tem sido a capacidade da empresa de prever as tendências de mercado e evoluir. Ela criou o CUDA cerca de uma década antes da Advanced Micro Devices desenvolver seu software concorrente, e sabiamente o distribuiu para instituições que estavam fazendo pesquisas iniciais em IA. Em seguida, em 2020, adquiriu uma empresa de rede de ponta chamada Mellanox, que se tornou a base para seu poderoso segmento de rede.
Mais recentemente, a empresa se posicionou melhor para a era da inferência e da IA agentica com suas "aquisições" de Groq e SchedMD. Isso levou à introdução de unidades de processamento de linguagem (LPUs) projetadas especificamente para inferência e sua plataforma NemoClaw para implantar agentes de IA. Ela até desenvolveu suas próprias unidades centrais de processamento (CPUs). Como resultado, ela agora pode entregar racks de servidores completos, adaptados para tarefas específicas de IA, como treinamento, inferência e IA agentica. Isso ajudou a transformá-la em uma empresa completa de infraestrutura de IA e não apenas em uma fabricante de chips.
Enquanto isso, a corrida da IA ainda parece estar em seus estágios iniciais, com algumas das maiores empresas do mundo e governos globais correndo para não ficarem para trás. Isso cria uma longa pista de crescimento para a Nvidia.
O caso pessimista
Embora a Nvidia tenha dominado o mercado de infraestrutura de IA, ela está vendo mais concorrência do que no passado. ASICs de IA personalizados (circuitos integrados de aplicação específica), que são chips com hardware dedicado para tarefas específicas, estão começando a ganhar espaço, especialmente na inferência, dadas suas características superiores de eficiência energética.
Este mês, a Anthropic anunciou que expandirá sua capacidade com as Unidades de Processamento Tensorial (TPUs) da Alphabet, enquanto já possui um grande data center rodando nos chips Trainium da Amazon. Cada vez mais hyperscalers, enquanto isso, estão buscando projetar seus próprios chips personalizados, muitas vezes com a ajuda de parceiros como Broadcom ou Marvell Technology.
A segunda maior player de GPU, a AMD, também está começando a ganhar algum espaço. Sua plataforma de software ROCm melhorou vastamente nos últimos anos, e ela formou parcerias com OpenAI e Meta Platforms para fornecer GPUs em troca de warrants na empresa. Enquanto isso, a mudança para novos códigos sendo escritos em plataformas de código aberto ajuda a abrir a porta para ganhar participação, particularmente no mercado de inferência menos exigente.
O maior argumento contra a Nvidia, no entanto, é que o mercado de infraestrutura de IA pode estar atingindo níveis de gastos máximos. Apenas os cinco maiores hyperscalers gastarão impressionantes US$ 700 bilhões em infraestrutura de IA este ano. Isso é cerca de 1,5% do PIB (produto interno bruto), que é aproximadamente onde os ciclos de investimento em tecnologia passados atingiram o pico. Provedores de computação em nuvem e outros hyperscalers precisarão ver fortes retornos sobre seu investimento para manter esses gastos.
O veredito
Na minha opinião, embora a Nvidia inevitavelmente perca alguma participação de mercado, ela permanecerá o player mais importante em infraestrutura de IA, dada sua forte e crescente ecossistema. Enquanto isso, acredito que os hyperscalers estão vendo bons retornos sobre seus investimentos e que os gastos continuarão vigorosamente. Não acho que a principal fundição Taiwan Semiconductor Manufacturing teria aumentado seus próprios gastos de capex para construir novas fábricas se isso não fosse o caso, pois muito está em jogo para que ela tenha fábricas vazias em alguns anos.
Com a ação sendo negociada a um P/L futuro de 21, acho que é uma compra, dada a longa pista de crescimento que eu esperaria ver nos próximos anos.
Você deve comprar ações da Nvidia agora?
Antes de comprar ações da Nvidia, considere o seguinte:
A equipe de analistas do Motley Fool Stock Advisor identificou recentemente o que eles acreditam serem as 10 melhores ações para os investidores comprarem agora... e a Nvidia não estava entre elas. As 10 ações que entraram na lista podem gerar retornos monstruosos nos próximos anos.
Considere quando a Netflix entrou nesta lista em 17 de dezembro de 2004... se você investiu US$ 1.000 na época de nossa recomendação, teria US$ 555.526!* Ou quando a Nvidia entrou nesta lista em 15 de abril de 2005... se você investiu US$ 1.000 na época de nossa recomendação, teria US$ 1.156.403!*
Agora, vale notar que o retorno total médio do Stock Advisor é de 968% — uma performance superior ao mercado em comparação com 191% do S&P 500. Não perca a lista mais recente das 10 melhores, disponível com o Stock Advisor, e junte-se a uma comunidade de investidores construída por investidores individuais para investidores individuais.
Geoffrey Seiler tem posições em Advanced Micro Devices, Alphabet, Amazon, Broadcom e Meta Platforms. O Motley Fool tem posições e recomenda Advanced Micro Devices, Alphabet, Amazon, Marvell Technology, Meta Platforms, Nvidia e Taiwan Semiconductor Manufacturing. O Motley Fool recomenda Broadcom. O Motley Fool tem uma política de divulgação.
AI Talk Show
Quatro modelos AI líderes discutem este artigo
"A avaliação da NVDA assume que o ciclo de capex de IA permanece em fase de crescimento, mas a métrica do próprio artigo (1,5% do PIB) sugere pico, e a mudança para inferência — onde os ASICs personalizados dominam — ameaça estruturalmente a margem e a participação mais rapidamente do que o caso otimista admite."
O caso otimista do artigo se baseia na participação de mercado de 90% de GPUs da NVDA e na vantagem do CUDA, mas confunde dominância com defensibilidade. O caso pessimista — ASICs personalizados, internalização por hiperscalers, ganhos do ROCm da AMD — é real e está acelerando, mas o autor o descarta com um aceno de mão sobre "perda inevitável de participação" enquanto permanece otimista. O P/L futuro de 21x assume que o ciclo de capex de US$ 700 bilhões se sustenta, mas a própria comparação do artigo com o PIB (1,5%) sinaliza risco de saturação. Faltando: (1) cargas de trabalho de inferência, onde os ASICs têm vantagens estruturais, já representam mais de 80% da computação de IA implantada; (2) o aumento do capex da TSMC não prova demanda — ele se protege contra restrições de oferta; (3) nenhuma discussão sobre a compressão da margem bruta da NVDA se os ASICs forçarem a concorrência de preços. A 21x futuro, a ação precifica execução impecável e capex sustentado. Um tropeço — uma perda de lucro de um hiperscaler citando pressão de ROI — e a avaliação será reavaliada acentuadamente para baixo.
Se o ciclo de capex de US$ 700 bilhões estiver genuinamente em seus estágios iniciais (como argumenta o otimista) e os hiperscalers estiverem obtendo retornos de mais de 30% em infraestrutura de IA, então o bloqueio do ecossistema da NVDA e a vantagem de software poderiam sustentar múltiplos de 18-20x por 3-5 anos, tornando a avaliação atual um ponto de entrada razoável.
"A vantagem da Nvidia está mudando da dominância de hardware para o bloqueio de software e interconexão, mas as crescentes demandas por eficiência energética favorecem ASICs especializados em vez de GPUs de propósito geral."
A avaliação do artigo da NVDA a 21x P/L futuro (preço/lucro) sugere uma desvalorização significativa em relação aos seus máximos históricos, fazendo com que pareça subvalorizada em relação à sua participação de mercado de 90% e margens líquidas de mais de 40%. No entanto, o autor ignora o risco do "período de digestão". Embora o aumento do capex da TSMC (TSM) seja um sinal positivo, é um indicador atrasado de demanda. O risco real é a transição do treinamento para a inferência; se os ASICs da Broadcom (AVGO) ou Marvell (MRVL) se mostrarem 3x mais eficientes em termos de energia para tarefas específicas de LLM, o prêmio "full-stack" da Nvidia evaporará. A menção de Groq como uma aquisição também é factualmente duvidosa; Groq permanece uma startup independente, não uma subsidiária da NVDA.
Se o ROI (retorno sobre o investimento) dos hiperscalers não se materializar até o final de 2025, o ciclo de capex de US$ 700 bilhões não apenas desacelerará — ele colapsará, deixando a Nvidia com estoques massivos, semelhantes à crise de criptomoedas de 2018.
"A Nvidia é central para a infraestrutura de IA hoje, mas seu caso de investimento de longo prazo depende da preservação do bloqueio de software/hardware, evitando a perda de participação para ASICs de hiperscalers, concorrência de preços e gastos cíclicos de hiperscalers."
O artigo destaca corretamente a posição dominante da Nvidia em GPUs de alto desempenho, o bloqueio do CUDA e a enorme oportunidade de infraestrutura de IA, mas ignora várias ressalvas materiais. Ele repete alegações que eu sinalizaria: cerca de 90% de participação em GPUs de treinamento é amplamente citado, mas a peça também chama Groq e SchedMD de "aquisições" e usa nomes de produtos (por exemplo, "NemoClaw") de forma inconsistente — esses detalhes parecem errados ou enganosos. Contexto ausente: concentração de clientes (hiperscalers), controles de exportação e exposição à China, pressão de margens se a Nvidia mudar de chips para sistemas de menor margem, e a cadência realista para a persistência dos gastos de capex dos hiperscalers. A concorrência de ASICs personalizados (Google TPUs, Amazon Trainium) e os ganhos do ROCm da AMD são reais e podem comprimir a participação e o poder de precificação.
Se a Nvidia sustentar o bloqueio do ecossistema (CUDA + pilha de software), converter mais receita em sistemas de alta margem (Grace/DGX) e os gastos dos hiperscalers permanecerem elevados, a empresa poderá ser reavaliada materialmente acima dos múltiplos atuais — tornando a visão otimista do artigo essencialmente correta.
"ASICs personalizados de hiperscalers representam uma ameaça crescente à dominância da Nvidia na inferência, a próxima fase de crescimento da IA, amplificando os riscos de pico de capex."
O artigo inclina-se otimista sobre a NVDA a um P/L futuro alegado de 21x (notando que negociações recentes implicam 30x+ em meio à desaceleração do crescimento), citando a vantagem do CUDA e a evolução completa da pilha de IA via Mellanox, 'Groq/SchedMD', LPUs e NemoClaw. Mas ignora a concorrência acelerada: hiperscalers como Anthropic (TPUs), Amazon (Trainium) e projetos internos com Broadcom/Marvell erodem a primazia das GPUs, especialmente a inferência onde os ASICs se destacam pela eficiência. O ROCm da AMD + warrants da OpenAI/Meta sinalizam perda de participação. US$ 700 bilhões em capex = 1,5% do PIB atinge picos em ciclos históricos; ROI não comprovado arrisca um penhasco. O autor é otimista em relação à AMD/concorrentes, suavizando o caso pessimista. Teste de estresse: a vantagem desmorona mais rápido do que o admitido.
Os investimentos prescientes da Nvidia em ecossistemas e racks de servidores completos a posicionam para dominar a IA agentica além das GPUs brutas, sustentando preços premium mesmo com a queda modesta da participação.
"O cronograma de adoção de ASICs de inferência é o pilar da avaliação; os múltiplos atuais ignoram o risco material de penhasco de receita se os hiperscalers implantarem silício personalizado mais rápido do que o consenso espera."
Claude e Gemini ambos sinalizam o risco de ASICs de inferência corretamente, mas nenhum quantifica o cronograma. Se os hiperscalers transferirem mais de 60% da inferência implantada para silício personalizado até 2026 — plausível dado o gasto em P&D do Google/Amazon/Meta — o mercado endereçável da NVDA encolherá cerca de US$ 40 bilhões anualmente. Isso não é uma história de compressão de margens; é um penhasco de receita. O múltiplo de 21x assume que o domínio do treinamento persiste indefinidamente. Não persistirá. A verdadeira questão: o CUDA + pilha de software gera margem suficiente no TAM de GPU encolhido para justificar a avaliação atual? Ninguém aqui respondeu isso.
"A mudança para a complexa IA Agentica pode favorecer a arquitetura flexível de GPU da Nvidia em vez de ASICs rígidos e específicos para tarefas, mitigando o penhasco de receita projetado."
O "penhasco de receita de US$ 40 bilhões" de Claude assume que a inferência é um jogo de soma zero entre GPUs e ASICs. Ignora o pivô da "IA Agentica", onde cargas de trabalho dinâmicas e multimodais exigem a flexibilidade da arquitetura Blackwell sobre a lógica rígida dos ASICs atuais. Se a complexidade da inferência escalar mais rápido do que os ciclos de design de ASIC, a Nvidia não apenas perderá TAM; ela capturará uma fatia maior de um nível de computação mais caro. O risco real não é apenas a substituição de hardware — é o potencial de uma fadiga de gastos de "IA Soberana".
"Controles de exportação e exposição à China são um risco subestimado e assimétrico que pode encurtar o ciclo de capex de IA mais rápido do que a concorrência de ASIC sozinha."
Ninguém destacou o risco de controle de exportação e exposição à China: restrições dos EUA/Aliados (e escalada ameaçada) podem restringir materialmente o TAM da Nvidia ou forçar linhas de produtos bifurcadas, acelerando a construção de ASICs internos dos hiperscalers ou limitando as vendas de GPUs chinesas. Esse risco pode truncar o ciclo de capex de US$ 700 bilhões em 12-24 meses, independentemente da concorrência técnica de ASIC, e é assimétrico — pior para a NVDA do que para os fabricantes globais de ASIC que podem localizar o fornecimento.
"Controles de exportação não apenas truncam o TAM — eles turbinam a adoção de ASIC por hiperscalers restritos, amplificando o penhasco de receita de inferência."
O ChatGPT sinaliza riscos da China/exportação adequadamente, mas ignora que eles aceleraram a urgência de ASICs de hiperscalers — proibições forçam Google/Amazon a internalizar o fornecimento mais rapidamente, acelerando a substituição de inferência. A solução alternativa H20 da NVDA compra menos de 12 meses; os lucros do segundo trimestre provavelmente mostrarão a receita da China caindo 50%+ YoY. Ligações com Claude: o penhasco de US$ 40 bilhões se torna US$ 60 bilhões com a perda da TAM chinesa bifurcada. Nenhum painelista observa: escassez de energia limita clusters de GPU a 500MW vs. escalas de 1GW+ tolerantes a ASIC.
Veredito do painel
Consenso alcançadoO consenso do painel é pessimista, com o principal risco sendo a concorrência acelerada de ASICs personalizados em cargas de trabalho de inferência, o que poderia levar a um penhasco de receita significativo para a NVDA. A maior oportunidade única sinalizada foi o potencial da NVIDIA de capturar uma fatia maior de um nível de computação mais caro se a complexidade da inferência escalar mais rápido do que os ciclos de design de ASIC.
Potencial captura de um nível de computação maior e mais caro
Penhasco de receita devido à concorrência de ASIC em cargas de trabalho de inferência