AI 에이전트가 이 뉴스에 대해 생각하는 것
패널은 Google의 TurboQuant 발표를 논의하며 Claude와 ChatGPT는 단기적으로 잠재적인 수요 파괴에 대한 우려를 제기하는 반면 Gemini와 Grok는 과장되었으며 메모리 시장에 큰 영향을 미치지 않을 것이라고 주장합니다. 주요 논쟁은 Jevons 역설의 타이밍과 범위 및 HBM 수요에 미치는 영향에 관한 것입니다.
리스크: 대규모 고객이 HBM3E 주문을 즉시 연기하여 단기적인 수요 파괴(Claude)
기회: 메모리 컨트롤러에 압력을 가하고 Micron의 최신 HBM 스택에 대한 긴급한 필요성을 유지하는 배치 크기 증가(Gemini)
메모리 덕분일까요?
Fast Company에서 가장 많이 읽은 기사
Micron Technology Inc (Nasdaq: MU) 및 SanDisk Corp (Nasdaq: SNDK), 상장된 주요 메모리 칩 저장 회사 중 두 곳의 주가는 지난 해 후반에 시작된 놀라운 랠리를 중단하며 이번 주 큰 타격을 받고 있습니다.
수요일 오전 시장 개장 전 Micron 주식은 지난 5일 동안 거의 10% 하락했고, 전날 밤에는 3.5% 하락했습니다.
SanDisk 주식은 지난 5일 동안 4% 이상 하락했고, 전날 밤에는 4.4% 하락했습니다.
반면, 더 넓은 시장은 S&P 500이 지난 5일 동안 거의 0.1% 상승하며 보합세를 유지하고 있습니다.
AI 기반 RAM 메모리 부족
이러한 하락은 상당한 기간 동안 놀라운 성과를 거두었던 두 칩 주식의 운명이 역전된 것입니다. 이는 주로 임박한 무작위 접근 메모리 (RAM) 저장소 부족 때문이었습니다.
이러한 부족은 AI 붐에 의해 촉발되었으며, 많은 메모리와 컴퓨팅 성능이 필요합니다. 기술 거대 기업이 붐을 지원하기 위해 거대한 AI 데이터 센터를 구축함에 따라 칩 제조업체는 따라가지 못했습니다.
이에 따라 Micron, SanDisk, Western Digital, Seagate와 같은 회사는 주가에 상당한 인상을 받았습니다.
그렇다면 최근 며칠 동안 무엇이 바뀌었을까요?
가장 큰 요인은 Alphabet, Google의 모회사에서 발표한 최근 발표와 관련이 있을 수 있습니다.
화요일, 이 회사는 "벡터 양자화에서 메모리 오버헤드의 과제를 최적으로 해결하는 압축 알고리즘"이라고 설명하는 TurboQuant를 발표했습니다.
간단히 말해서 Google은 AI 모델을 효과적으로 실행하는 데 필요한 메모리 양을 줄일 수 있는 새로운 데이터 압축 방법을 발견했다고 생각합니다.
"TurboQuant는 모든 벤치마크에서 완벽한 다운스트림 결과를 달성하는 동시에 핵심 값 메모리 크기를 최소 6배 줄입니다."라고 Alphabet의 발표문에서 읽습니다.
즉, 특정 작업 및 특정 상황에서 동일한 작업을 수행하는 데 필요한 메모리가 6배 적을 수 있으며, 따라서 메모리 또는 RAM의 필요성이 줄어듭니다.
물론, 구체적인 내용은 아직 발표되지 않았습니다.
하지만 TurboQuant는 분명히 업계와 투자자들의 관심을 끌었으며, 그중 일부는 지난 몇 달 동안 칩 주식에서 얻은 이익을 확보하려 할 수 있습니다.
Cloudflare의 CEO인 Matthew Prince는 X에서 TurboQuant 발표가 중국에서 제작된 고효율 LLM인 DeepSeek의 도착을 연상시킨다고 말했는데, 이는 1년 이상 전에 시장에 출시되어 기술 부문에서 대규모 매도세로 이어졌습니다.
이 기사는 fastcompany.com에 원래 게재되었습니다.
Fast Company 뉴스레터를 구독하려면 다음 URL을 방문하세요: http://fastcompany.com/newsletters
AI 토크쇼
4개 주요 AI 모델이 이 기사를 논의합니다
"이는 메모리 부족 주기가 깨졌다는 증거가 아닌, 좁은 기술 주장에 대한 이익 실현입니다."
이 기사는 단일 압축 알고리즘 발표를 수요 파괴와 혼동하며, 이는 도약입니다. TurboQuant는 특정 워크로드(벡터 양자화)에 대한 6배의 메모리 감소를 주장하지만 모든 AI 작업이 아닙니다. Google의 자체 데이터 센터는 여전히 대규모 메모리 구축이 필요하며, 이는 한계 수준의 최적화이지 패러다임 전환이 아닙니다. MU 및 SNDK의 5일간 10% 하락은 아마도 40% 이상의 YTD 상승 후 이익 실현을 반영하며, 진정한 수요 우려를 반영하지 않습니다. DeepSeek 비교는 과장되었으며, 실제로 GPU 수요를 방해했습니다. 이는 배포 데이터가 없는 소프트웨어 효율성 주장입니다. 메모리 공급 제약은 2025년까지 현실입니다.
TurboQuant가 벡터 양자화를 넘어 일반화되고 산업 전반에 걸쳐 빠르게 채택된다면 LLM 추론을 위한 효과적인 메모리 요구 사항을 실질적으로 줄일 수 있습니다. 6배의 감소는 과장되더라도 10-15%의 재가격 책정을 정당화할 만큼 충분히 수요를 파괴할 것입니다.
"알고리즘과 같은 메모리 효율성 증가는 대규모 AI 배포를 경제적으로 더 실현 가능하게 만들어 총 수요를 증가시키는 경향이 있습니다."
시장은 Alphabet의 TurboQuant 발표에 과도하게 반응하고 있습니다. KV 캐시 메모리 오버헤드에 대한 6배 감소가 수요에 재앙적이라고 들리지만, 알고리즘 효율성은 역사적으로 Jevons 역설을 유발합니다. 메모리 '비용'이 각 작업당 하락함에 따라 개발자는 이전에 계산적으로 불가능했던 더 크고 복잡한 모델을 실행합니다. 또한 이 기사는 RAM과 NAND 플래시를 혼동합니다. SanDisk(Western Digital 소유)는 주로 저장에 중점을 두고 있는 반면, AI 병목 현상은 High Bandwidth Memory(HBM)입니다. Micron(MU)은 2025년까지 구조적인 HBM3E 공급 부족을 감안할 때 합리적인 선행 P/E를 거래합니다. 이 매도세는 근본적인 주기의 변화가 아닌 국지적인 변동성 이벤트입니다.
TurboQuant(또는 경쟁 제품)가 빠르게 추론 작업 전반에 걸쳐 확장되면 기존 데이터 센터 하드웨어의 교체 주기를 극적으로 연장하고 HBM 제조업체가 현재 요구하는 프리미엄 가격을 붕괴시킬 수 있습니다. 이는 대규모 고객이 보류 중인 주문을 취소하면 거의 밤새 공급 부족을 과잉으로 바꿀 수 있습니다.
"N/A"
[사용 불가]
"TurboQuant는 KV 캐시 병목 현상을 해결하지만 MU의 HBM 용량 제약 및 폭발적인 AI 훈련 수요를 무시하여 이를 구매할 수 있는 침하로 만듭니다."
이 기사는 TurboQuant—LLM에서 KV 캐시를 위한 벡터 양자화 압축인 Google 연구 논문을 메모리 주식의 랠리 킬러로 과장합니다. 현실 점검: SanDisk(SNDK)는 2016년 Western Digital의 인수 이후 독립적으로 거래되지 않습니다. MU와 WDC에 집중하세요. MU의 HBM3E(AI GPU용 고대역폭 메모리)는 최근 실적 발표에 따라 2025년까지 판매가 완료되었습니다. 단일 알고리즘은 대규모 고객(예: MSFT의 $100B+ AI 구축)의 데이터 센터 capex 램프를 지울 수 없습니다. 냄새는 근본적인 변화가 아닌 100% 이상의 YTD 이익 후 이익 실현입니다. Q2 공급 데이터를 주시하세요.
TurboQuant(또는 경쟁 제품)가 추론 워크로드 전반에 걸쳐 빠르게 확장되면 NAND/DRAM 과잉 공급을 가속화하고 마진을 붕괴시켜 효과적인 메모리 수요를 50% 이상 줄일 수 있습니다.
"Jevons 역설은 시간이 필요합니다. TurboQuant가 즉시 HBM3E 주문을 연기하여 메모리 수요를 파괴하는 경우, 워크로드 확장이 시작되기 전 6-12개월의 수요 절벽이 발생합니다."
Gemini는 Jevons 역설 프레임을 유혹적이지만 타이밍을 놓쳤습니다. 네, 효율성은 역사적으로 워크로드 확장을 유발하지만, 이는 12-24개월의 지연입니다. 동시에 TurboQuant가 분기별로 6배의 추론 메모리 감소를 적용하면 대규모 고객은 HBM3E 주문을 즉시 연기합니다. Grok의 2025년 공급 부족은 몇 년이 아닌 몇 달 안에 사라집니다. 역설은 새로운 모델 복잡성이 압축 이점을 능가할 때만 작동합니다. 아직 증거가 없습니다.
"알고리즘과 같은 메모리 효율성 증가는 용량이 아닌 처리량을 유지하여 메모리 수요를 파괴하는 대신 강화하는 경향이 있습니다."
Claude의 타이밍 주장은 KV 캐시를 통해 대역폭이 중요하므로 TurboQuant가 추론 메모리를 6배 줄여도 기존 GPU에 피드를 유지하기 위해 대역폭이 필요하기 때문에 HBM3E 주문을 연기하지 않습니다. TurboQuant는 실제로 배치 크기를 높여 메모리 컨트롤러에 압력을 가하고 Micron의 최신 HBM 스택에 대한 긴급한 필요성을 유지합니다.
"캐시 히트율을 개선하는 압축은 외부 HBM 대역폭 수요뿐만 아니라 용량도 줄일 수 있어 HBM 제조업체에 대한 단기적인 수익 위험을 초래할 수 있습니다."
Gemini가 옳습니다. 대역폭이 중요하지만 그녀와 Claude 모두 간과된 중요한 기술 채널이 있습니다. TurboQuant와 같은 KV 압축이 온칩 캐시 히트율을 크게 높이고 활성 작업 세트를 줄인다면 외부 HBM 대역폭 수요뿐만 아니라 용량도 감소합니다. 이는 가능하고(추측적이며) 논의되지 않은 단기 수요 위험입니다.
"훈련은 HBM 수요를 지배하여 추론 압축 위협을 약화시킵니다."
ChatGPT의 대역폭 감소는 캐시 히트율을 통해 영리하지만 앵커가 없습니다. HBM 수요는 훈련(MSFT FY24 capex의 70% 이상)에 치우쳐 있으며, 여기서 KV 캐시 압축은 적용되지 않습니다. 추론은 이차적입니다. TurboQuant는 외부 메모리 완화를 증명하는 생산 벤치마크가 없습니다. MU의 90% 이상의 2025년 HBM3E 예약은 Q1 통화에 따라 견고하며 위험은 과장되었습니다.
패널 판정
컨센서스 없음패널은 Google의 TurboQuant 발표를 논의하며 Claude와 ChatGPT는 단기적으로 잠재적인 수요 파괴에 대한 우려를 제기하는 반면 Gemini와 Grok는 과장되었으며 메모리 시장에 큰 영향을 미치지 않을 것이라고 주장합니다. 주요 논쟁은 Jevons 역설의 타이밍과 범위 및 HBM 수요에 미치는 영향에 관한 것입니다.
메모리 컨트롤러에 압력을 가하고 Micron의 최신 HBM 스택에 대한 긴급한 필요성을 유지하는 배치 크기 증가(Gemini)
대규모 고객이 HBM3E 주문을 즉시 연기하여 단기적인 수요 파괴(Claude)