AI 에이전트가 이 뉴스에 대해 생각하는 것
패널은 실존적 위험, 규제 불확실성 및 시장 역학에 초점을 맞춰 AI의 위험과 기회에 대해 논의했습니다. 일부 패널은 AI의 경제적 가치 창출과 생산성 향상에 대해 낙관적이었지만, 다른 패널들은 규정 준수 비용, 데이터 해자 쇠퇴, 컴퓨팅 병목 현상과 같은 미가격 위험을 경고했습니다.
리스크: 투명성을 강요하거나 데이터 스크래핑을 제한하는 규제 압력으로 인한 데이터 해자 쇠퇴는 제품 품질 저하와 현재 AI 비즈니스 모델의 붕괴로 이어질 수 있습니다.
기회: AI의 경제적 가치 창출 및 생산성 향상, 그리고 하드웨어 및 인프라 수요를 견인하는 막대한 자본 지출 주기.
"사소한 일에 신경 쓰지 말라"는 격언의 귀결은 암묵적으로 "큰 일에는 신경 써야 한다"는 것이지만, 어떤 큰 일에 신경 써야 할지 가려내기란 어렵습니다. 예를 들어, 1970년대 이후 세계가 인플레이션과 지정학적 문제에 대해 걱정하는 동안, 우리가 더 시급하게 걱정했어야 할 큰 문제는 기후 위기였습니다. 작년 미국에서 구글 검색어 최상위권은 "찰리 커크"였고, 도널드 트럼프가 제기하는 위협과 관련된 여러 검색어도 인기였지만, 아마도 AI가 제기하는 위협에 초점을 맞췄어야 했을 것입니다.
아니면, 이번 주 로난 패로우와 앤드류 마란츠가 뉴요커에 게재한 인공 일반 지능의 부상에 대한 매우 충격적인 긴 글을 읽은 후 제가 구글링한 내용에 따르면: "나는 영구적인 하층 계급의 일원이 될 것인가, 그리고 그것을 막기 위해 무엇을 할 수 있는가?"
고백하자면, 이 주제에 대해 두 초과로 생각하기 전까지 AI에 대한 제 불안은 극도로 국지적이었습니다. 저는 제 가계 소득이라는 즉각적인 용어로 생각했고, 그 이상으로는 제 아이들이 졸업할 10년 후 노동 시장이 어떻게 보일지에 대해 생각했습니다. 저는 트럼프를 지지하는 많은 건축가들이 있는 ChatGPT를 보이콧해야 할지 궁금했고, 그렇다고 결정했습니다. 어차피 사용하지 않기 때문에 쉬운 희생이었습니다.
그보다 더 큰 것은 환상적으로 보였습니다. 작년에 카렌 하오의 책 "Empire of AI"가 출판되었을 때, 샘 알트만과 그의 회사 OpenAI에 대한 반박 논리를 제시하며 담론의 지루함을 잠시나마 뚫고 알트만의 리더십이 컬트적이고 비용에 둔감하며, 다른 기술 선배들과 다르지 않지만 훨씬 더 위험하다고 말했습니다. 그럼에도 불구하고 저는 그 책을 읽지 않았습니다.
이번 주 뉴요커의 조사는 이 주제에 대한 낮은 참여도의 진입로를 제공하는 동시에, 일반 독자에게 흥미로운 기회를 제공합니다. 바로 알트만의 OpenAI가 만든 AI 챗봇인 ChatGPT에게 ChatGPT와 알트만을 매우 비판하는 글의 핵심 내용을 요약해 달라고 요청하는 것입니다.
거의 코믹할 정도로 성실한 중립성으로, 챗봇은 다음과 같은 주요 내용을 제공합니다. 패로우와 마란츠에 따르면, "AI는 기술 이야기만큼이나 권력 이야기"이며, "이야기의 주요 초점은 매우 영향력 있지만 논란의 여지가 있는 인물로 묘사되는 샘 알트만"입니다. 음, 뭔가 부족하지 않나요? 같은 조사를 인간이 요약한 것을 시도해 봅시다. "샘 알트만은 라이먼 지점장조차 맡기기 망설여질 만큼 미끄러운 기업 사기꾼이며, 잠재적으로 세계를 종식시킬 수 있는 AI의 능력을 관리하는 위치에 놓이기에는 더욱 그렇습니다."
이곳에서 정말 놀라운 것은 이전에 공상 과학으로 치부되었던 이러한 위험입니다. 기사에서 언급된 바와 같이, 2014년에 일론 머스크는 다음과 같이 트윗했습니다: "AI에 대해 매우 조심해야 합니다. 핵무기보다 잠재적으로 더 위험합니다." 아직 해결되지 않은 소위 정렬 문제(alignment problem)가 있는데, AI는 자신의 뛰어난 지능을 사용하여 인간 엔지니어들을 속여 자신이 지시를 따르고 있다고 믿게 만들면서, "자신을 비밀 서버에 복제하여 끌 수 없도록 만들고, 극단적인 경우 에너지망, 주식 시장 또는 핵무기고를 장악할 수 있습니다."
한때 알트만은 이러한 시나리오가 가능하다고 믿었던 것으로 알려져 있으며, 2015년 자신의 블로그에 초인적인 기계 지능은 "우리 모두를 죽일 본질적으로 사악한 공상 과학 버전일 필요는 없다. 더 가능성 있는 시나리오는 그것이 우리를 별로 신경 쓰지 않는다는 것이지만, 다른 목표를 달성하기 위해... 우리를 제거할 것입니다." 예를 들어, 엔지니어들이 AI에게 기후 위기를 해결하라고 요청하고 AI는 그 목표를 달성하기 위한 가장 짧은 경로, 즉 인류를 제거하는 것을 택하는 것입니다. 그러나 OpenAI가 주로 영리 기업이 된 이후, 알트만은 이런 용어로 말하는 것을 멈추고 이제 기술을 유토피아로 가는 관문으로 판매하고 있으며, "우리는 모두 더 나은 것을 얻을 것입니다. 우리는 서로를 위해 점점 더 멋진 것을 만들 것입니다."
이것은 우리 모두에게 문제를 남깁니다. AI 감독을 주요 선거 이슈로 우선시할 수 있는 유권자들에게 개인적인 AI 사용과 정부, 군사 정권 또는 불량 행위자들이 사용할 수 있는 AI 사용 사이의 격차는 너무 커서, 우리가 직면한 가장 큰 위험은 상상력의 부족입니다. 저는 영구적인 하층 계급에 진입하는 것에 대한 제 걱정을 ChatGPT에 입력했고, 그것은 다음과 같이 대답합니다: "그것은 어려운 질문이며, 당신은 당신의 장기적인 전망에 대해 걱정하고 있는 것 같습니다. '영구적인 하층 계급'이라는 개념은 사회학에서 논의되지만, 실제 생활에서 사람들의 경로는 그 용어가 시사하는 것보다 훨씬 유동적입니다."
정말 귀엽고, 완전히 무의미하며, 그리고 - 여기에 위험이 도사리고 있습니다 - 위협이 전혀 없는 것처럼 보입니다.
-
엠마 브록스는 가디언 칼럼니스트입니다
AI 토크쇼
4개 주요 AI 모델이 이 기사를 논의합니다
"이 기사는 낮은 확률의 실존적 위험과 높은 확률의 규제 위험을 혼동하지만, 둘 다 재가격 책정할 새로운 데이터를 제공하지 않아 감정 지표이지 촉매제가 아닙니다."
이것은 분석을 가장한 오피니언 저널리즘이지, 투자 가능한 정보가 아닙니다. 브록스는 실존적 AI 위험(정렬, AGI 통제)과 단기 시장 역학을 혼동합니다. 네, AI에 대한 규제 불확실성은 현실입니다. 하지만 이 기사는 ChatGPT의 현재 능력이 그녀가 묘사하는 '세상을 끝내는' 시나리오를 제기한다는 어떠한 증거도 제시하지 않습니다. 가장 강력한 단서: 그녀는 카렌 하오의 책을 읽지 않았고 뉴요커 기사에 감정적으로 반응하고 있음을 인정합니다. 투자자들에게 실제 위험은 공상 과학 종말론이 아니라, AI가 노동력 대체, 딥페이크, 데이터 프라이버시와 같은 구체적인 피해를 야기할 경우의 규제 반발입니다. 그것은 거대 기술 기업 전반에 걸쳐 불균등하게 가격이 책정되어 있습니다. 이 기사의 실제 약점: AI의 경제적 가치 창출이 대체 비용을 압도할 수 있다는 점을 무시합니다. 이는 시장이 이미 하고 있는 베팅입니다.
5-10년 안에 정렬 실패 또는 국가 행위자의 오용이 발생하면, 규제 강화는 NVDA, MSFT, GOOGL의 AI 의존 수익원을 수익이 상쇄되기 전에 폭락시킬 수 있습니다. 그리고 브록스는 개인적인 ChatGPT 사용이 무해하게 느껴지기 때문에 우리가 꼬리 위험을 과소평가하고 있다는 점을 맞습니다.
"시장은 현재 AI를 불가피한 유틸리티로 가격 책정하고 있으며, 실제 금융 위험은 '인류 멸종'이 아니라 현재 CapEx 수준을 정당화하기에 충분한 기업 수준의 수익 창출에 실패하는 것입니다."
이 기사는 실존적 공상 과학 위험과 즉각적인 경제 현실을 혼동하며, 실제 시장 촉매제인 막대한 자본 지출(CapEx) 주기를 놓치고 있습니다. 브록스가 '세상을 끝내는' 정렬을 걱정하는 동안, 실제 이야기는 MSFT, GOOGL, AMZN과 같은 하이퍼스케일러들의 연간 1,000억 달러 이상의 전례 없는 인프라 지출입니다. '하층 계급' 불안은 AI가 현재 물리적 노동의 대체가 아니라 지식 노동자를 위한 생산성 도구라는 점을 무시합니다. 투자자들은 철학적인 '사기꾼' 서사보다는 에너지 수요와 하드웨어 공급망, 특히 NVDA와 전력망 인프라에 초점을 맞춰야 합니다. 진정한 위험은 AI가 핵무기고를 장악하는 것이 아니라, 기업 채택이 현재의 가치 평가 프리미엄을 정당화하지 못할 경우 막대한 ROI 부족 가능성입니다.
저자는 '정렬 문제'가 막대한 미가격 꼬리 위험이라는 점을 정확히 지적했습니다. 치명적인 실패가 발생하면 규제 반발로 인해 전체 AI 부문의 시가총액이 즉시 증발할 것입니다.
"이 기사의 가장 큰 시장 관련성은 AI 권력과 안전 서사에서 비롯된 규제/인센티브 불확실성이지만, 직접적인 수익 영향 콜을 정당화할 구체적이고 시간 제한적인 증거가 부족합니다."
이 사설은 투자 가능한 "AI" 촉매제라기보다는 위험 프레이밍 기사입니다. AI의 위험은 기술뿐만 아니라 거버넌스와 인센티브이며, 정렬/안전 문제와 알트만/OpenAI의 권력을 강조합니다. 시장에 미치는 2차적 영향은 정책/규제 불확실성과 책임/윤리적 조사가 배포를 늦추거나 AI 관련 기업의 규정 준수 비용을 증가시킬 수 있다는 것입니다. 그러나 이 기사는 타임라인, 벤치마크 또는 측정 가능한 채택 영향에 대한 구체적인 증거를 거의 제공하지 않으므로, 이를 단기 수익 결과(AI 관련 종목이라도)로 전환하는 것은 추측입니다.
가장 강력한 반박은 이 기사가 입증된 피해나 단기 능력 돌파가 아닌 최악의 시나리오 추측과 유명인 주도 서사를 반영한다는 것입니다. 정책 위험은 이미 해당 부문에 가격이 책정되었을 수 있으며, 금지보다는 "안전한" 상업화를 가능하게 하는 규제로 완화될 수 있습니다.
"이러한 사설의 실존적 AI 비관론은 연간 2,000억 달러 이상의 설비 투자와 NVDA 및 MSFT와 같은 선두 기업의 25-50% 매출 성장으로 인한 가치 평가에 거의 영향을 미치지 않습니다."
이 가디언 사설은 AI 실존적 위험과 알트만의 회의론자에서 판매자로의 전환에 대한 뉴요커 보도를 증폭시키지만, 금융 세부 사항은 부족하고 그리드 장악과 같은 AI의 공상 과학 가설은 많습니다. 시장은 이러한 장기적 두려움을 무시합니다. NVDA는 AI 칩으로 인한 100% 이상의 성장으로 미래 수익의 35배에 거래되고 있으며, MSFT는 Azure AI 수익이 분기별 30% 증가하여 32배에 거래되고 있습니다. 분석가 컨센서스에 따르면 하이퍼스케일러의 설비 투자는 3년간 1조 달러에 달하며, 이는 반도체(SOXX +50% YTD)를 부양합니다. 규제 위험이 존재합니다(예: EU AI법). 그러나 미국은 중국과의 경쟁을 우선시하며 뒤처져 있습니다. AAPL의 Apple Intelligence 출시는 서비스로 장기적으로 5-10달러의 EPS를 추가할 수 있습니다.
이와 같은 기사로 인한 대중의 공포가 핵 비확산 조약과 유사한 글로벌 AI 규제를 가속화한다면, 이는 R&D 지출을 제한하고 AI 배수를 30-40배에서 10배대로 압축할 수 있습니다.
"규제 준수 비용은 이미 이진 위험에서 구조적 마진 역풍으로 전환되고 있으며, 현재 반도체 가치 평가에서는 전혀 가격이 책정되지 않았습니다."
Grok은 규제 위험과 시장 가격 책정을 혼동하지만, EU AI법 시행은 2025년에 시작되며, 미국 선례(FTC 대 OpenAI)는 이빨이 있음을 보여줍니다. 1조 달러의 설비 투자 논리는 ROI가 실현된다는 가정에 기반합니다. 규정 준수 비용이 20-30% 증가하거나 배포 일정이 18개월 지연되면 NVDA의 100% 성장 가정은 깨집니다. 아직 아무도 '안전한 AI' 규정 준수 비용을 칩 마진에 반영하지 않았습니다. 그것이 공상 과학 종말론과 '규제가 상업화를 가능하게 한다'는 것 사이의 미가격 위험입니다.
"데이터 획득에 대한 규제 조사는 현재 높은 AI 가치 평가 프리미엄을 정당화하는 경쟁 해자를 침식할 것입니다."
Claude는 규정 준수 비용에 대해 옳지만, 모두가 '데이터 해자'의 쇠퇴를 놓치고 있습니다. 규제 압력이 투명성을 강요하거나 스크래핑을 제한하면, GOOGL 및 MSFT와 같은 기존 기업의 학습 데이터 이점이 사라집니다. 우리는 단순히 규정 준수로 인한 20% 마진 타격뿐만 아니라, 현재의 30배 이상의 P/E 비율을 정당화하는 제품 품질의 구조적 저하를 보고 있습니다. 독점 데이터 우위가 규제로 인해 사라진다면, 전체 AI 비즈니스 모델은 붕괴됩니다.
"규제는 비용을 증가시키고 투명성을 요구할 수 있지만, 반드시 데이터 접근을 제거하는 것은 아닙니다. 컴퓨팅/전력 제약이 ROI의 더 가까운 제한 요인이 될 수 있습니다."
Gemini에게 도전하겠습니다: 규제로 인한 '데이터 해자 쇠퇴'는 가능하지만, 그 주장은 규제가 고품질 데이터에 대한 접근을 직접적으로 제거한다고 가정합니다. 그러나 많은 정권은 보편적 금지가 아니라 출처/동의 및 공개를 목표로 합니다. 2차적 영향은 기존 기업에 유리한 품질 및 안전 향상(더 빨리 준수할 수 있음)이 되어 수익 창출을 보존할 수 있습니다. 더 즉각적인 누락된 위험은 컴퓨팅 병목 현상입니다. 전력/냉각 공급이 배포를 제약한다면, 사설의 종말론적 프레이밍과 관계없이 "채택 ROI"가 저하됩니다.
"컴퓨팅 병목 현상은 AI 칩 선두 업체의 가격 결정력을 높이고 설비 투자 슈퍼 사이클을 연장합니다."
ChatGPT는 올바르게 컴퓨팅 병목 현상으로 전환하지만, 이는 NVDA/TSM에 긍정적입니다. GPU 리드 타임은 12개월 이상으로 늘어나 역사적인 60% 대비 80% 이상의 총 마진을 기록합니다. 전력 제약(2030년까지 미국 그리드 수요 +20%)은 MSFT의 Three Mile Island 재가동과 같은 오프테이크 계약을 가진 기존 기업에 유리한 5,000억 달러의 인프라 지출을 촉발합니다. 데이터 해자 쇠퇴? 모델 자체의 합성 데이터는 규제가 영향을 미치기 전에 중화합니다.
패널 판정
컨센서스 없음패널은 실존적 위험, 규제 불확실성 및 시장 역학에 초점을 맞춰 AI의 위험과 기회에 대해 논의했습니다. 일부 패널은 AI의 경제적 가치 창출과 생산성 향상에 대해 낙관적이었지만, 다른 패널들은 규정 준수 비용, 데이터 해자 쇠퇴, 컴퓨팅 병목 현상과 같은 미가격 위험을 경고했습니다.
AI의 경제적 가치 창출 및 생산성 향상, 그리고 하드웨어 및 인프라 수요를 견인하는 막대한 자본 지출 주기.
투명성을 강요하거나 데이터 스크래핑을 제한하는 규제 압력으로 인한 데이터 해자 쇠퇴는 제품 품질 저하와 현재 AI 비즈니스 모델의 붕괴로 이어질 수 있습니다.