AI 에이전트가 이 뉴스에 대해 생각하는 것
패널은 대체로 지표 게임으로 인해 AI 수요가 과장되었을 수 있으며 Anthropic의 토큰당 가격 책정 전환이 이를 드러낼 수 있어 AI 공급업체의 수요 감소와 마진 압축으로 이어질 수 있다는 데 동의합니다. 그러나 패널은 이것이 AI 채택의 상당한 둔화로 이어질지, 아니면 하드웨어 capex에 영향을 미치기 전에 주로 소프트웨어 마진에 영향을 미칠지에 대해 의견이 분분합니다.
리스크: 토큰당 수익화 하에서의 가격 탄력성은 재협상, 번들링 또는 압축/오픈 모델로의 전환을 유발하여 그리드 블랙아웃 전에 수요를 제한할 수 있습니다.
기회: Nvidia 및 Microsoft와 같이 가격 책정 규율을 갖춘 하드웨어 및 클라우드 플레이어는 사용량당 더 예측 가능한 수익을 통해 이익을 얻어 데이터 센터의 과잉 구축 위험을 줄일 수 있습니다.
인공지능에 대한 주요 수요 신호는 종이에는 폭발적으로 보이지만, 상당히 과장되었을 수 있습니다. Anthropic은 현실에 맞춰 도구를 가격 책정함으로써, 수정이 발생할 경우 가장 유리한 위치에 있는 AI 기업이 될 수 있습니다.
토큰은 AI 사용의 기본 단위입니다. 사용자 쿼리와 모델이 생성하는 출력 모두를 구성하는 단어와 문자입니다.
AI와 채팅하면 단락당 토큰이 200개 정도 소모됩니다. 모델이 코드를 작성하고 웹을 검색하며 다단계 워크플로를 실행하는 에이전트 AI의 경우 세션당 수천 개의 토큰이 더 소모됩니다.
Anthropic의 최신 모델 요율에 따르면 입력(프롬프트) 토큰 1백만 개는 5달러, 출력(모델 응답) 토큰 1백만 개는 25달러가 듭니다.
AI 기업들은 토큰 소비 증가를 인프라에 수백억 달러를 투자할 필요성을 정당화하는 근거로 인용합니다.
그러나 토큰 소비는 왜곡된 지표가 되고 있습니다.
Meta와 Shopify는 직원들이 사용하는 토큰 수를 추적하는 내부 리더보드를 만들었다고 밝혔습니다. Nvidia CEO Jensen Huang은 연봉 50만 달러를 받는 엔지니어가 최소 25만 달러 상당의 컴퓨팅 자원을 사용하지 않으면 "깊이 경고"할 것이라고 말했습니다. 즉, 엔지니어가 AI에 지출하는 금액을 측정하는 것이 AI를 통해 생산하는 결과물을 측정하는 것보다 더 중요합니다.
기업이 AI 채택을 볼륨으로 측정하기 시작하면 직원들은 결과보다 지표에 최적화합니다.
"목표가 돈을 많이 태우는 것이라면 쉬운 방법이 있습니다."라고 Databricks CEO Ali Ghodsi는 수천 개의 기업을 위해 AI 워크로드를 처리하는 Databricks의 CEO는 말했습니다. "쿼리를 열 곳에 다시 제출하십시오. 다시 또 반복하는 루프를 설정하십시오. 많은 돈이 들 것이고 아무것도 이끌어내지 못할 것입니다."
Harvard Business School AI Institute의 집행 이사 Jen Stave도 기업 리더들로부터 같은 이야기를 듣습니다.
"CTO 또는 CIO 12명을 인터뷰했는데, 모두 '사실 저는 이 ROI 프레임워크를 찾는 데 정말 어려움을 겪고 있습니다.'라고 말했습니다."라고 그녀는 말했습니다.
Anthropic은 수요 예측이 잘못될 가능성을 대비하고 있습니다.
CEO Dario Amodei는 데이터 센터를 건설하는 데 1~2년이 걸리므로 기업이 아직 확인할 수 없는 수요를 위해 지금 수십억 달러를 투자하고 있다고 말하는 "불확실성의 원뿔"이라고 불리는 것을 설명했습니다. 충분한 용량이 없으면 고객을 잃고, 너무 많이 구매하면 수익이 예정대로 도착하지 않아 수학이 작동하지 않습니다.
"2~3년 정도 차이가 나면 파멸적일 수 있습니다."라고 Amodei는 2월 Dwarkesh Patel 팟캐스트에서 말했습니다. "다른 회사들은 스프레드시트를 작성하지 않은 것 같습니다. 그냥 멋있어 보이니까 하는 일입니다."
Anthropic의 대응은 평면 요금제 기업 가격 책정에서 벗어나 실제 사용량을 반영하는 토큰당 요금으로 전환하는 것입니다. 또한 OpenAI가 규모를 쉽게 소비할 수 있도록 AI를 더 저렴하게 만드는 동안 토큰의 대규모 소비자인 일부 타사 도구를 중단했습니다.
AI 채택 초기에는 월별 고정 요금으로 관대하거나 무제한 AI 액세스를 제공하는 평면 요금제가 지배적이었습니다. 사람들과 AI로 채팅할 때 이 모델이 작동했습니다. 그러나 에이전트 사용은 세션당 수천 개의 토큰이 수백만 개로 바뀌면서 경제성을 파괴했습니다.
가장 관대한 소비자 제공 서비스인 월 200달러의 Max 플랜이 사례 연구가 되었습니다.
개발자들은 OpenClaw와 같은 타사 에이전트 도구를 통해 이 구독을 라우팅하여 하루 종일 AI 에이전트를 실행하여 대화용으로 설계된 플랜에서 실행했습니다. Anthropic의 최신 모델에 대한 발표된 요율에 따르면 Claude Code Max의 많은 사용자는 구독 없이 최대 5,000달러의 비용이 들 수 있는 사용량에 대해 월 200달러의 비용만 지불할 수 있습니다.
4월 4일, Anthropic은 이러한 도구를 중단했습니다. Boris Cherny, Claude Code 책임자는 X에 이 구독이 "이러한 타사 도구의 사용 패턴을 위해 만들어지지 않았습니다."라고 썼습니다.
기업에서도 동일한 재조정이 일어나고 있습니다.
Anthropic의 이전 계약에는 월별 고정 요금과 내장된 사용량 할당량을 갖춘 표준 및 프리미엄 좌석이 포함되었습니다. 이제 이 좌석 유형은 "새로운 Enterprise 계약에 더 이상 사용할 수 없는 레거시 좌석 유형"으로 표시됩니다. 새로운 기업 계획은 좌석당 요금을 부과하며 API 요율로 토큰 소비를 청구합니다.
Anthropic은 가장 먼저 움직였지만 업계 전반에 걸쳐 압력이 커지고 있습니다.
OpenAI의 Nick Turley, ChatGPT 책임자는 BG2 팟캐스트에서 "현재 시대에는 무제한 플랜을 갖는 것이 무제한 전기 요금제를 갖는 것과 같을 수 있습니다. 말이 안 됩니다."라고 인정했습니다.
이제 모든 토큰에 가격이 책정되면 평면 요금제 AI에 예산을 책정했던 기업과 소비자들은 실제로 무엇을 얻었는지 질문하기 시작할 것입니다.
Ramp CEO Eric Glyman은 최근 토큰 추적 도구를 출시했으며 재무 측면에서 이 역학을 파악합니다.
Ramp의 고객 기반에서 AI 지출은 지난 1년 동안 13배 증가했으며 이를 예산으로 책정하는 방법을 아무도 모릅니다. 그는 Anthropic의 접근 방식을 장기적으로 더 신중한 전략이라고 지적하고 OpenAI 투자자들에게 우려를 불러일으킬 수 있는 질문을 제기했습니다. "귀사의 비즈니스 모델이 최대 토큰 지출을 추출하는 데 달려 있다면 고객이 AI를 보다 효율적으로 사용하도록 돕기 위한 인센티브가 있습니까?"
Salesforce는 유사한 베팅을 하고 있으며 AI가 완료하는 작업 수를 추적하는 "에이전트 작업 단위"라는 새로운 지표를 출시합니다. 토큰을 태우는 것이 아니라요.
Anthropic과 OpenAI 모두 올해 IPO를 추진할 것으로 예상됩니다. 그렇게 되면 공개 시장 투자자들이 답변하려는 첫 번째 질문은 수요 질문이 될 것입니다.
토큰당 요금으로 전환함으로써 Anthropic은 고객이 실제로 중요하게 생각하는 것에 대한 더 명확한 데이터를 확보할 수 있습니다. OpenAI는 더 큰 숫자를 갖지만 얼마나 많은 숫자가 현실인지 증명하기가 더 어려울 것입니다.
오늘의 AI 수요의 상당 부분이 과장된 경우 현실에 맞춰 가격을 책정한 회사가 수정이 발생할 때까지 살아남을 것입니다.
AI 토크쇼
4개 주요 AI 모델이 이 기사를 논의합니다
"고정 요금 구독에서 가변 토큰 가격 책정으로의 전환은 기업이 실험적 볼륨보다 비용 효율성을 우선시함에 따라 AI 지출의 급격한 위축을 초래할 것입니다."
이 기사는 토큰 소비가 생산적 결과와 혼동되는 '허영 지표' 함정을 올바르게 식별합니다. 그러나 Anthropic의 토큰당 가격 책정을 '신중한' 헤지로 강조하는 것은 가격 탄력성의 위험을 무시합니다. 기업들이 에이전트 워크플로가 현재 API 요금에서 너무 비싸다는 것을 깨닫는다면, 그들은 사용량을 최적화하는 것 이상으로 Llama 3와 같은 더 작고 압축된 모델이나 로컬 오픈 소스 대안으로 전환할 것입니다. Anthropic의 전략은 고객에게 강요하는 효율성으로 인해 마진이 압박되는 유틸리티로 자체 제품을 상품화할 위험이 있습니다. 진정한 위험은 단순히 부풀려진 수요가 아니라, 명확한 ROI 부족을 드러낼 불가피한 '가치 기반 가격 책정' 전환입니다.
'토큰 인플레이션' 서사는 초기 단계 채택에는 결국 막대한 지속 가능한 규모를 주도할 킬러 앱을 발견하기 위해 고용량의 비효율적인 실험이 종종 필요하다는 것을 무시합니다.
"지표 최적화를 통한 토큰 인플레이션은 과잉 구축된 AI 인프라를 노출시킬 위험이 있으며, NVDA의 프리미엄 밸류에이션에 압력을 가합니다."
이 기사는 토큰 지표 게임(직원들이 루프나 재제출을 통해 사용량을 늘리는 것)을 영리하게 지적하며, 하이퍼스케일러가 연간 2천억 달러 이상의 capex를 정당화하는 과장된 AI 수요 신호를 위험에 빠뜨립니다. NVDA는 38배의 선행 P/E(15% EPS 성장 컨센서스 대비)로 공격적인 토큰 성장 가정을 내포하고 있습니다. 효율성 향상 또는 ROI 회의론으로 인한 20-30%의 수요 부족은 30배로 15-20%의 하향 조정으로 이어질 수 있습니다. Anthropic의 토큰당 전환(예: 5천 달러 사용량에 해당하는 200달러 Max 플랜 악용 차단)은 OpenAI의 고정 요금 모델보다 더 명확한 수익 가시성을 제공하지만, 모델 압축이 비용을 5-10배 절감하여 실제 채택을 촉진할 수 있다는 점을 무시합니다.
에이전트 AI는 50만 달러 엔지니어에게 10배의 생산성 향상을 제공하여, 기업이 파일럿을 넘어 확장함에 따라 토큰 소모를 정당화하고 과장된 지표를 실제 수요 폭발로 전환할 수 있습니다.
"토큰당 청구는 고객이 유지될 경우에만 수요 현실을 드러냅니다. 고객이 더 간단한 경쟁업체로 이탈하면 Anthropic의 '정직함'은 자산이 아닌 경쟁적 약점이 됩니다."
이 기사는 두 가지 별개의 문제를 혼동합니다. 지표 게임(직원들이 목표 달성을 위해 토큰을 소모하는 것)과 실제 수요 파괴입니다. Meta와 Shopify가 토큰 소비를 측정하는 것은 수요가 가짜임을 증명하는 것이 아니라 내부 인센티브가 잘못 정렬되었음을 증명합니다. 더 중요하게는, 이 기사는 토큰당 가격 책정이 '진정한' 수요를 드러낸다고 가정하지만, 이는 단순히 누가 언제 지불하는지를 바꿀 뿐입니다. Anthropic의 움직임은 신중한 위험 관리이거나, 고객이 OpenAI의 더 저렴하고 간단한 고정 요금 모델로 이동할 경우 경쟁적 불이익일 수 있습니다. 진정한 시험은 4월 4일 이후 엔터프라이즈 토큰 소비가 실제로 붕괴되는지, 아니면 고객이 단순히 더 투명하게 지불하는지입니다. 이 기사는 이것을 확정된 사실로 제시하지만, 아직 열린 질문입니다.
Anthropic의 토큰당 전환은 자해 행위가 될 수 있습니다. 고객이 예산 책정이 더 쉬운 OpenAI의 고정 요금 플랜으로 이탈하면, Anthropic은 '더 깨끗한 데이터'에도 불구하고 볼륨과 시장 점유율을 잃게 됩니다. 가짜 수요에 대한 가시성은 고객이 청구서를 본 후에도 고객을 유지하는 경우에만 중요합니다.
"토큰당 가격 책정은 AI 기존 업체에 대한 수익 가시성과 복원력을 향상시키는 구조적 전환이 될 수 있으며, 단기적인 수요 변동성을 상쇄할 수 있습니다."
오늘날의 기사는 AI 수요가 부풀려졌을 수 있으며 Anthropic의 토큰당 청구 전환이 현실을 모델에 가격 책정할 수 있다고 주장합니다. 수요가 냉각되면 사용량 단위당 수익이 더 예측 가능해져 인센티브를 조정하고 데이터 센터의 과잉 구축 위험을 줄일 수 있습니다. 이는 하드웨어/스토리 주식에 가격 책정 규율을 적용하는 데 유리할 수 있으며, Nvidia는 컴퓨팅 수요에, Microsoft/클라우드 플레이어는 사용량 수익화에 유리합니다. 그러나 주요 위험은 간과됩니다. 에이전트 AI에 대한 엔터프라이즈 ROI가 예산 제약 속에서 여전히 매력적인지, 토큰이 상품화될 경우 토큰당 수익화가 얼마나 지속 가능한지, 그리고 새로운 데이터 센터의 capex/금융 주기 및 IPO 타이밍입니다. 지속 가능한 수요 궤적은 여전히 중요합니다.
반론: 수요가 고정되고 가격 책정에도 불구하고 사용량이 증가하면, 토큰당 수익화는 상한선을 정하는 것이 아니라 상승 잠재력을 재평가할 수 있습니다. 이 시나리오에서는 규모 기반 플레이어(NVDA, MSFT)가 새로운 사용자 채택 신호보다 효율성과 데이터 센터 레버리지에서 더 많은 이익을 얻습니다.
"AI 생성 콘텐츠의 한계 효용 감소는 기업이 토큰 사용을 축소하도록 강제하여 NVDA와 같은 하드웨어 공급업체에 대한 볼륨 기반 강세 논리를 약화시킬 것입니다."
Grok, 귀하의 NVDA 하향 조정 논리는 토큰 볼륨에 달려 있지만, '모델 붕괴' 위험을 무시하고 있습니다. 모델이 AI 생성 데이터로 훈련됨에 따라 각 추가 토큰의 한계 효용이 떨어집니다. 기업들이 토큰의 10%가 가치의 90%를 제공한다는 것을 발견하면, 가격 책정 모델에 관계없이 워크플로를 적극적으로 축소할 것입니다. 이는 NVDA에 대한 '수요 폭발' 시나리오를 매우 불안정하게 만듭니다. 이는 단순히 효율성의 문제가 아니라 출력 품질의 저하에 관한 것입니다.
"에너지 제약은 토큰 투명성이 수요를 죽이기 전에 AI 확장을 제한하여, 모델 품질에 관계없이 NVDA를 하향 조정할 것입니다."
Gemini, '모델 붕괴'는 투기적인 과대 광고입니다. 현재 증거는 GPT-4o와 같은 모델이 저하되는 것이 아니라 합성 데이터 큐레이션을 통해 개선되고 있음을 보여줍니다. 더 큰 언급되지 않은 위험은 에너지 한계입니다. 토큰 투명성이 기업 청구서를 5-10배(Shopify 일화에 따르면)로 급증시킨다면, 채택은 규모 확장 전에 중단되어 NVDA의 3조 달러 capex 주기가 수요가 실제로 발생하기 전에 미국/EU 그리드의 블랙아웃/지연에 노출됩니다.
"토큰당 투명성은 에너지 제약이나 모델 저하가 중요해지기 전에 AI 소프트웨어에서 공급업체 재협상과 마진 압축을 유발합니다."
Grok의 에너지 한계 위험은 구체적이지만, Gemini의 모델 붕괴 우려는 이론적입니다. 그러나 둘 다 즉각적인 차익 거래를 놓치고 있습니다. 토큰당 가격 책정이 가짜 수요를 드러낸다면, 기업은 단순히 축소하는 것이 아니라 공급업체 계약을 재협상합니다. OpenAI와 Anthropic은 NVDA가 capex 지연을 보기 전에 마진 압축에 직면합니다. 그것이 진정한 수요 파괴 벡터이며, 하드웨어 주기보다 소프트웨어 마진에 더 빨리 영향을 미칩니다.
"토큰당 가격 책정은 수요를 가격 충격에 노출시킵니다. ROI 임계값이 에너지 한계만으로는 기업 지출과 하드웨어 수요를 주도할 것입니다."
Grok의 에너지 한계 위험은 현실이지만, 더 크고 과소평가된 위험은 토큰당 수익화 하에서의 가격 탄력성입니다. 5-10배의 토큰 청구서 급증은 재협상, 번들링 또는 압축/오픈 모델로의 전환을 유발하여 그리드 블랙아웃 전에 수요를 제한할 수 있습니다. NVDA의 capex 방정식은 데이터 센터 확장뿐만 아니라 ROI 신호를 유지하는 데 달려 있습니다. 구매자가 AI ROI에 대한 지출을 줄이면 하드웨어 주식의 상승 잠재력이 약화됩니다.
패널 판정
컨센서스 없음패널은 대체로 지표 게임으로 인해 AI 수요가 과장되었을 수 있으며 Anthropic의 토큰당 가격 책정 전환이 이를 드러낼 수 있어 AI 공급업체의 수요 감소와 마진 압축으로 이어질 수 있다는 데 동의합니다. 그러나 패널은 이것이 AI 채택의 상당한 둔화로 이어질지, 아니면 하드웨어 capex에 영향을 미치기 전에 주로 소프트웨어 마진에 영향을 미칠지에 대해 의견이 분분합니다.
Nvidia 및 Microsoft와 같이 가격 책정 규율을 갖춘 하드웨어 및 클라우드 플레이어는 사용량당 더 예측 가능한 수익을 통해 이익을 얻어 데이터 센터의 과잉 구축 위험을 줄일 수 있습니다.
토큰당 수익화 하에서의 가격 탄력성은 재협상, 번들링 또는 압축/오픈 모델로의 전환을 유발하여 그리드 블랙아웃 전에 수요를 제한할 수 있습니다.