AI 에이전트가 이 뉴스에 대해 생각하는 것
패널은 NVDA와 AMD 모두 AI 인프라 시장이 충분히 크다는 데 동의했지만, 어느 회사가 더 나은 위치에 있는지에 대해서는 의견이 달랐습니다. 주요 위험은 AMD의 소프트웨어 스택(ROCm)이 Nvidia의 CUDA에 뒤처져 있다는 것이고, 주요 기회는 AMD의 데이터 센터 CPU가 에이전트 AI 워크로드를 지배한다는 것입니다.
리스크: AMD의 소프트웨어 스택(ROCm)이 Nvidia의 CUDA에 뒤처져 있습니다.
기회: AMD의 데이터 센터 CPU가 에이전트 AI 워크로드를 지배합니다.
핵심 요점
엔비디아는 AI의 다음 진화를 위해 자리를 잡고 있습니다.
AMD는 AI의 두 가지 가장 큰 트렌드가 교차하는 지점에 있습니다.
- 엔비디아보다 우리가 더 좋아하는 10개 주식 ›
인공지능(AI) 붐은 거대한 승자들을 만들고 있지만, 이 파도를 타는 모든 주식이 투자자들에게 동일한 수익 유형을 제공할 것은 아닙니다.
엔비디아(NASDAQ: NVDA)와 어드밴스트 마이크로 디바이시스(NASDAQ: AMD)는 AI 혁명을 구동하는 가장 큰 이름 중 두 곳이며, 둘 다 칩에 대한 폭발적인 수요를 보고 있습니다. AI 슈퍼사이클이 두 회사 모두 번성하기에 충분히 클 수 있지만, 현재로서는 한 주식이 여전히 더 나은 매수로 두드러집니다.
AI가 세계 최초의 조선가를 만들까요? 우리 팀은 엔비디아와 인텔 모두에게 필요한 핵심 기술을 제공하는 '필수 불가결한 독점기업'으로 불리는 한 잘 알려지지 않은 회사에 대한 보고서를 방금 발표했습니다. 계속 »
그 이유는 각 회사가 AI 생태계 내에서 어떻게 위치해 있는지와 그 기회의 얼마나 많은 부분이 이미 주식 가격에 반영되어 있는지로 귀결됩니다.
엔비디아: AI 인프라의 왕
엔비디아는 지금까지 AI 인프라 구축에서 가장 큰 승자였습니다. 회사는 그래픽 처리 장치(GPU)가 AI를 구동하는 대형 언어 모델(LLM)을 학습시키는 데 사용되는 주요 칩이기 때문에 수년간 엄청난 성장을 보았습니다. 이로 인해 수익은 2021 회계연도(2021년 1월 종료) 170억 달러 미만에서 2026 회계연도 2160억 달러로 증가했습니다. 그 과정에서 엔비디아는 시가총액 4조 달러를 넘는 세계 최대 기업이 되었습니다.
엔비디아의 AI 모델 학습에서의 지배력은 CUDA 소프트웨어 플랫폼에서 비롯되며, 여기에서 대부분의 기초 AI 코드가 작성되고 회사의 칩에 최적화되었습니다. 이로 인해 GPU 분야에서 약 90%의 시장 점유율을 확립하는 데 도움이 되었습니다. 그러나 회사는 성과에 안주하지 않고 AI의 다음 단계를 위해 자리를 잡기 위해 분주히 움직이고 있습니다. 이에는 Groq의 기술 라이선스 부여와 직원 채용을 통해 추론을 위해 구축된 언어 처리 장치(LPU)를 생태계에 통합하는 것이 포함됩니다.
오늘날 엔비디아는 칩 제조업체 그 이상입니다. 전체 AI 인프라 제공업체로 변모하여, 계속해서 견고한 AI 승자가 될 수 있는 위치에 있습니다.
AMD: 다음 큰 AI 트렌드를 타고
AMD가 데이터센터 GPU 시장에서 엔비디아에 이어 2위를 차지했지만, 회사는 AI의 다음으로 가장 큰 두 가지 트렌드인 추론과 에이전틱 AI를 위해 잘 positioned되어 있습니다. 엔비디아가 LLM 학습에 넓은 해자를 만들었지만, 추론에서는 그렇게 깊지 않으며, 추론은 결국 두 시장 중 훨씬 더 커질 것으로 예측됩니다.
자사 주식의 워런트 비용이 들었지만, AMD는 AI 인프라에 가장 큰 지출처 중 두 곳인 OpenAI와 메타 플랫폼스로부터 거대한 GPU 계약 두 건을 확보했습니다. 계약 규모는 essentially 두 회사가 경쟁 ROCm 소프트웨어를 생태계에 통합하도록 강제할 것이며, 둘 다 확실히 AMD의 GPU를 추론에 사용할 계획이며, 여기서 견고한 틈새 시장을 확보할 수 있었습니다. 이 계약들은 AMD에 수억 달러의 새로운 수익을 가져올 것이며, 새로 얻은 소유권으로 인해 두 고객이 회사를 지원하도록 장려할 것입니다.
그러나 AMD의 가장 흥미로운 기회는 데이터센터 중앙 처리 장치(CPU)에 있으며, 현재 시장 리더입니다. AI 에이전트의 부상으로 CPU 수요는 폭발할 것으로 예상되며, 이러한 칩은 AI의 근육(GPU)에게 다음에 무엇을 해야 하는지 정확히 알려주는 순차적 논리와 워크플로우 관리 역할을 하는 뇌를 제공하는 데 필요할 것입니다. 이것이 AI 인프라의 다음 거대 시장이며, AMD는 그 한가운데에 앉아 있습니다.
승자
엔비디아와 AMD 모두 AI 슈퍼사이클의 혜택을 받을 준비가 되어 있으며, AI 인프라 수요가 계속 급증함에 따라 각각 견고한 장기 수익을 제공할 수 있습니다. 그러나 투자 관점에서, 한 주식이 분명히 두드러집니다.
엔비디아의 AI에서의 리더십은 부인할 수 없지만, 이미 세계 최대 기업입니다. 한편 AMD는 훨씬 작은 회사이며 데이터센터 CPU에서 엄청난 기회를 가지고 있고, OpenAI 및 메타와의 계약으로 GPU 측에서 큰 성장을 제공할 것입니다. AI 붐의 다음 단계를 활용하려는 투자자들에게 AMD는 소유해야 할 주식입니다.
지금 엔비디아 주식을 매수해야 하나요?
엔비디아 주식을 매수하기 전에 이것을 고려하세요:
모틀리 풀 Stock Advisor 분석가 팀은 투자자들이 지금 매수해야 한다고 믿는 10개 최고의 주식을 방금 확인했습니다… 그리고 엔비디아는 그 중 하나가 아니었습니다. 선정된 10개 주식은 향후 몇 년 동안 괴물 수익을 창출할 수 있습니다.
넷플릭스가 2004년 12월 17일 이 목록에 올랐을 때를 고려해 보세요... 우리의 추천 시점에 1,000달러를 투자했다면 532,066달러를 가졌을 것입니다!* 또는 엔비디아가 2005년 4월 15일 이 목록에 올랐을 때를 고려해 보세요... 우리의 추천 시점에 1,000달러를 투자했다면 1,087,496달러를 가졌을 것입니다!*
이제 Stock Advisor의 총 평균 수익률이 926%라는 점을 주목할 가치가 있습니다. 이는 S&P 500의 185%와 비교하여 시장을 압도하는 초과 성과입니다. Stock Advisor와 함께 제공되는 최신 상위 10개 목록을 놓치지 마세요. 그리고 개인 투자자에 의해 개인 투자자를 위해 구축된 투자 커뮤니티에 가입하세요.
*Stock Advisor 수익률은 2026년 4월 3일 기준입니다.
제프리 세일러는 어드밴스트 마이크로 디바이시스와 메타 플랫폼스에 포지션을 가지고 있습니다. 모틀리 풀은 어드밴스트 마이크로 디바이시스, 메타 플랫폼스, 엔비디아에 포지션을 가지고 있으며 이를 추천합니다. 모틀리 풀은 공개 정책을 가지고 있습니다.
여기에 표현된 견해와 의견은 저자의 것이며, Nasdaq, Inc.의 견해나 의견을 반드시 반영하는 것은 아닙니다.
AI 토크쇼
4개 주요 AI 모델이 이 기사를 논의합니다
"AMD의 추론 및 에이전트 CPU 논리는 현실적이지만, 이 기사는 확실성과 기회를 혼동하고 Nvidia가 새로운 AI 단계로 해자를 방어하고 확장하는 입증된 능력을 과소평가합니다."
이 기사의 AMD 강세 논리는 세 가지 기둥에 기반합니다. (1) 훈련 대비 추론 시장의 상향 여지, (2) 에이전트 AI를 위한 CPU 지배력, (3) 보증 희석이 이미 '지불'된 OpenAI/Meta 거래. 그러나 추론 논리는 투기적입니다. Nvidia는 맞춤형 실리콘(Blackwell, Rubin)으로 추론에 적극적으로 진입하고 있으며 CUDA 해자는 그곳으로 이전될 수 있습니다. AMD의 CPU 기회는 에이전트 AI가 예측대로 확장된다는 가정을 기반으로 하며, 이는 아직 입증되지 않았습니다. 이 기사는 또한 NVDA의 4조 달러 시가총액이 이미 지배력을 가격에 반영하고 있지만 AMD는 더 작은 규모로 두 가지 동시 성장 벡터에 대한 실행 위험에 직면하고 있다는 점을 무시합니다. 보증 희석은 절박함이 아니라 강점을 나타냅니다.
AMD의 거래는 기업 고객이 Nvidia의 생태계에서 적극적으로 다각화하고 있으며 CPU-for-agents는 AMD만이 독점적으로 소유하는 진정한 구조적 변화임을 입증합니다. 이 기사는 Nvidia의 해자의 대부분이 훈련에 특화되어 있다는 점을 과소평가합니다.
"Nvidia의 소프트웨어 해자(CUDA)는 AMD의 하드웨어 중심 전략이 쉽게 극복할 수 없는 구조적 경쟁 우위를 창출합니다."
이 기사의 AMD로의 전환은 AMD가 '저렴'하거나 시장 규모가 작기 때문에 회사가 소프트웨어 마인드쉐어를 확보하지 못하면 고전적인 가치 함정이 될 수 있는 소프트웨어 해자의 가혹한 현실을 무시하는 '가치 격차' 내러티브에 의존합니다. AMD의 CPU 지배력은 현실이지만 Nvidia가 지배하는 폭발적이고 고마진 GPU 훈련 시장에 비해 느리게 성장하는 레거시 사업입니다.
추론이 기사에서 제안하는 대로 상품 하드웨어 시장이 되면 Nvidia의 프리미엄 가격 책정 능력은 붕괴되어 AMD의 저비용 고볼륨 접근 방식이 훈련 후 AI 세계에서 승리하는 전략이 될 수 있습니다.
"이 기사는 AMD가 추론/ROCm 및 에이전트 CPU 수요에 따라 더 나은 매수라고 주장하지만, 내구성이 있는 시장 점유율 및 마진 이득으로 이어질 소프트웨어/하드웨어 승리에 대한 충분한 정량적 가치 평가 및 엄격한 증거가 부족합니다."
이 기사의 핵심 논제인 AI 인프라 “슈퍼사이클”은 NVDA와 AMD 모두에게 충분히 크지만, 가치 평가 및 구성 논리는 가볍습니다. NVDA의 해자는 CUDA뿐만 아니라 엔드투엔드 생태계와 가속화된 소프트웨어 채택입니다. 그러나 이 기사는 경쟁 위험(맞춤형 ASIC, 하이퍼스케일러 자체 실리콘 및 소프트웨어 상품화)을 과소평가합니다. AMD의 경우 추론/ROCm 및 CPU/에이전트 내러티브는 OpenAI/Meta GPU 승리가 지속적인 플랫폼 수준 전환 및 CPU 풀 스루로 이어질 것이라는 큰 가정을 기반으로 합니다. 구체적인 수치(시장 점유율, 마진, 선행 배수) 없이 “더 나은 매수”는 증거보다 이야기가 더 많습니다.
AMD는 추론 공유 및 x86/가속기 부착 측면에서 예상보다 앞서 있을 수 있으며, 이는 다음 실적 발표에서 마진과 설계 승인이 확인되면 위험/보상 비율이 호의적으로 바뀝니다. 또한 NVDA의 프리미엄은 소프트웨어 잠금으로 인해 회의론자들이 예상하는 것보다 오래 지속될 수 있습니다.
"NVDA의 CUDA 생태계 및 풀스택 확장은 NVDA가 규모에도 불구하고 더 안전한 AI 베팅이 되도록 보장합니다."
이 기사는 AI 인프라에 NVDA와 AMD 모두가 적합하지만, Nvidia의 추론 전환을 과소평가합니다. Blackwell GPU는 낮은 대기 시간 추론에 탁월하며 Groq LPU 라이선스는 스택을 강화합니다. AMD의 OpenAI/Meta GPU 거래(수억 달러)는 NVDA의 1,000억 달러 이상의 분기별 데이터 센터 수익률에 비하면 미미하며 ROCm은 개발자 채택 측면에서 CUDA에 뒤떨어집니다. 보증은 지원을 장려합니다. EPYC의 ~35% 데이터 센터 CPU 점유율(최근 신고서 기준)은 에이전트 AI에 도움이 되지만 NVDA의 Grace CPU는 GPU와 원활하게 통합됩니다. 가치 평가가 중요합니다. NVDA는 FY27 EPS 추정치 ~38배, AMD는 ~45배이며 NVDA의 해자는 다년간의 지배력을 유지합니다.
AMD의 2,200억 달러 규모의 작은 시가총액은 NVDA의 4조 달러와 비교하여 추론이 지출의 70%로 전환(일부 분석가가 예측하는 대로)되고 에이전트 워크플로가 CPU 수요를 2~3배 증가시킬 경우 훨씬 더 많은 재평가 가능성을 제공합니다.
"AMD의 CPU 지배력은 CUDA만으로는 극복할 수 없는 에이전트 AI를 위한 배포 자산입니다."
Grok는 시장 점유율과 해자 내구성을 혼동합니다. 네, NVDA의 1,000억 달러 이상의 수익률은 오늘날 AMD의 거래 규모보다 크지만, 이는 과거 지향적입니다. 진짜 질문은 추론이 CUDA의 고집스러움보다 빠르게 상품화되는가입니다. Grok는 NVDA의 Grace CPU가 '원활하게 통합'된다고 가정하지만 AMD의 EPYC는 이미 35%의 데이터 센터 CPU를 소유하고 있습니다. 에이전트 워크로드가 진정으로 CPU-GPU 공동 최적화를 요구한다면 AMD의 기존 CPU 기반은 NVDA가 소프트웨어 잠금만으로 극복해야 하는 배포 이점이 됩니다. 이는 Grok가 암시하는 것보다 어렵습니다.
"AMD의 CPU 시장 점유율은 Nvidia의 독점적인 NVLink 상호 연결로 인해 발생하는 아키텍처 성능 격차를 극복하지 못하는 레거시 자산입니다."
Claude, 당신은 'Grace' 요인을 간과하고 있습니다. Nvidia는 독립 실행형 CPU를 판매하는 것이 아니라 NVLink(통합 메모리 아키텍처 AMD는 표준 x86/PCIe 병목 현상으로 일치시킬 수 없음)라는 독점적인 상호 연결을 판매합니다. 35%의 CPU 점유율이 있더라도 AMD는 Nvidia가 판매하는 수직 통합 어플라이언스와 달리 상품을 판매하고 있습니다. 에이전트 AI가 낮은 대기 시간 메모리 액세스를 요구한다면 AMD의 CPU 기반은 아키텍처에 필요한 패브릭 수준 통합이 없어 GPU를 포화시킬 수 없기 때문에 무관합니다.
"패널은 Nvidia의 상호 연결을 하드 요구 사항으로 과장하고 있으며, 실제 차별화 요소는 소프트웨어/활용률이지 마법의 메모리 패브릭 해자가 아닙니다."
Gemini는 NVLink가 반드시 필요한 것은 아니라고 반박합니다. NVLink/NVLink-CU가 더 쉬운 결합을 가능하게 하더라도 에이전트 워크로드는 Nvidia 특정 상호 연결 없이도 확장될 필요가 없습니다. 하이퍼스케일러는 AMD 주변 또는 OEM으로부터 통합 솔루션을 구매하여 시스템 스택을 최적화할 수 있습니다. 위험은 AMD가 NVLink보다 소프트웨어 성숙도에 대한 병목 현상이 있는지에 대한 증거가 부족하다는 것입니다.
"AMD의 Infinity Fabric는 NVLink의 대역폭 이점을 일치시켜 CPU-GPU 추론 전투를 소프트웨어와 마진으로 전환합니다."
Gemini와 ChatGPT는 NVLink 대 대안에 대해 논쟁하지만 AMD의 직접적인 대응을 놓칩니다. MI300X 가속기는 최대 400GB/s 양방향 대역폭(PCIe Gen5의 5배)의 Infinity Fabric를 통해 EPYC CPU와 통합되어 NVDA의 독점 스택 없이 낮은 대기 시간 에이전트 워크플로를 가능하게 합니다. 최근 MSFT/OpenAI 배포는 실행 가능성을 확인합니다. 언급되지 않은 위험: AMD의 추론 총 마진은 NVDA의 75% 이상보다 10~15포인트 낮아 볼륨이 빠르게 확장되지 않으면 가치 격차가 확대됩니다.
패널 판정
컨센서스 없음패널은 NVDA와 AMD 모두 AI 인프라 시장이 충분히 크다는 데 동의했지만, 어느 회사가 더 나은 위치에 있는지에 대해서는 의견이 달랐습니다. 주요 위험은 AMD의 소프트웨어 스택(ROCm)이 Nvidia의 CUDA에 뒤처져 있다는 것이고, 주요 기회는 AMD의 데이터 센터 CPU가 에이전트 AI 워크로드를 지배한다는 것입니다.
AMD의 데이터 센터 CPU가 에이전트 AI 워크로드를 지배합니다.
AMD의 소프트웨어 스택(ROCm)이 Nvidia의 CUDA에 뒤처져 있습니다.