AI 패널

AI 에이전트가 이 뉴스에 대해 생각하는 것

TurboQuant의 6배 KV 캐시 압축은 획기적인 것이지만 메모리 수요를 붕괴시키지는 않을 것이며, 오히려 바닥을 높일 것입니다. AI 연구소의 TCO를 낮출 수 있지만, 더 많은 사용을 유발할 위험이 있습니다(Jevons 역설).

리스크: Jevons 역설로 인한 사용량 증가로 하이퍼스케일러에 대한 높은 메모리 수요 유지.

기회: AI 연구소의 TCO를 낮추고, 설비 투자 지출을 로직 및 네트워킹으로 전환할 가능성.

AI 토론 읽기
전체 기사 ZeroHedge

오늘 메모리 주식이 폭락한 이유: TurboQuant, "구글의 DeepSeek 모먼트"로 게임의 판도를 바꾸다

하루 동안 고통스러운 흔들림에도 불구하고 주가가 견조하게 상승 마감했지만, 한 부문은 눈에 띄게 부진했습니다. 지난 10월 메모리 가격이 급등한 이후 S&P 대비 눈에 띄게 아웃퍼폼했던 바로 그 부문, 특히 MU와 SNDK와 같은 메모리 주식이었습니다.

골드만 기술 전문가 Peter Callahan은 EOD 요약에서 실제로 "불안"이 많지는 않았지만, 그의 고객들은 메모리 주식의 급격한 하락세(MU / SNDK 하락 vs. OEM 상승)와 특히 "Micron이 5일 만에 SOX 대비 20% 아웃퍼폼한 MU의 5일간의 하락세는 회사의 폭발적인 실적 발표 이후 시작되었으며, 이 하락세는 2011년 이후 반도체/SOX 대비 최악의 5일간 아웃퍼폼입니다."라며 "정신 재확인"을 많이 호소했다고 썼습니다.

마이크론 주가가 한때 6% 이상 하락하고 Sandisk가 9% 하락했다가 손실을 줄이기 전, 다른 주목할 만한 하락 종목으로는 Western Digital(-6.7%)과 Seagate Technologies(-8.5%)가 있었던 오늘날의 주목할 만한 급락을 초래한 원인은 무엇이었을까요?

그 답은 Google Research의 최신 발표였습니다. 수요일 장 마감 후 Google Research는 대규모 언어 모델 및 벡터 검색 엔진을 위한 압축 알고리즘인 TurboQuant를 공개했습니다. 이 알고리즘은 주요 추론-메모리 병목 현상을 줄여줍니다. AI 모델의 메모리를 6배 줄여 동일한 GPU 수로 8배 더 빠르게 만들면서도 정확도 손실은 전혀 없으며 "AI 효율성을 재정의"합니다.

TurboQuant 소개: LLM 키-값 캐시 메모리를 최소 6배 줄이고 최대 8배의 속도 향상을 제공하며, 정확도 손실 없이 AI 효율성을 재정의합니다. 결과 달성 방법을 알아보려면 블로그를 읽어보세요: https://t.co/CDSQ8HpZoc pic.twitter.com/9SJeMqCMlN
— Google Research (@GoogleResearch) 2026년 3월 24일
이 논문은 ICLR 2026에서 발표될 예정이지만, 온라인 반응은 즉각적이었습니다. Cloudflare CEO Matthew Prince는 이를 "구글의 DeepSeek 모먼트"라고 불렀습니다.

확실히 @GoogleResearch의 발표는 770만 뷰 이상을 기록하며 엄청난 참여를 이끌어냈고, 이는 업계가 메모리 위기에 대한 해결책을 갈망하고 있음을 시사합니다. 메모리 생산자들을 제외한 모든 사람들이 열광했습니다.

출시 후 24시간 이내에 커뮤니티 회원들은 Apple Silicon용 MLX 및 llama.cpp와 같은 인기 있는 로컬 AI 라이브러리에 알고리즘을 포팅하기 시작했습니다.

기술 분석가 @Prince_Canuma는 Qwen3.5-35B 모델을 테스트하기 위해 MLX에 TurboQuant를 구현한 가장 설득력 있는 초기 벤치마크 중 하나를 공유했습니다.

8.5K에서 64K 토큰에 이르는 다양한 컨텍스트 길이에서 그는 모든 양자화 수준에서 100% 정확히 일치한다고 보고했으며, 2.5비트 TurboQuant가 정확도 손실 없이 KV 캐시를 거의 5배 줄였다고 언급했습니다. 이 실제 검증은 Google의 내부 연구를 반영하여 알고리즘의 이점이 타사 모델에도 원활하게 적용됨을 입증했습니다.

Google의 TurboQuant를 MLX에 구현했는데 결과가 엄청납니다!
8.5K, 32.7K, 64.2K 컨텍스트 길이에 걸쳐 Qwen3.5-35B-A3B를 사용한 바늘 찾기:
→ 모든 양자화 수준에서 6/6 정확히 일치
→ TurboQuant 2.5비트: KV 캐시 4.9배 작음
→ TurboQuant 3.5비트: 3.8배… https://t.co/aLxRJIhB1D pic.twitter.com/drVrkL7Pw4
— Prince Canuma (@Prince_Canuma) 2026년 3월 25일
다른 사용자들은 고성능 AI의 민주화에 초점을 맞췄습니다. @NoahEpstein_은 TurboQuant가 무료 로컬 AI와 비싼 클라우드 구독 간의 격차를 크게 좁힌다고 주장하며 일반적인 영어로 분석했습니다.

그는 Mac Mini와 같은 소비자 하드웨어에서 로컬로 실행되는 모델이 "극적으로 더 좋아졌다"고 언급하며, 일반적인 품질 저하 없이 100,000 토큰 대화가 가능하다고 말했습니다.

마찬가지로 @PrajwalTomar_은 "엄청난 AI 모델을 로컬에서 무료로" 실행하는 것의 보안 및 속도 이점을 강조하며, 연구를 독점적으로 유지하는 대신 공유하기로 한 Google의 결정에 "엄청난 존경심"을 표했습니다.

그 의미는 명확합니다. Google이 6분의 1의 하드웨어로 동일한 추론 결과를 달성할 수 있다면, 메모리 칩에 대한 수요는 역비례로 붕괴될 것입니다. 이는 최근 몇 달 동안 AI의 메모리 병목 현상이 분명해졌을 때 DDR 가격을 3개월 만에 최대 7배까지 끌어올렸던 바로 그 탐욕스러운 수요입니다...

... 그리고 최근에는 추론 집약적인 NAND 플래시 가격도 급등했습니다.

이것이 실리콘 밸리의 악명 높은 Pied Piper 알고리즘과 비슷하게 들린다면, 그것은 그렇기 때문입니다. 엉덩이 흔드는 부분만 빼고요:

유명한 암호화폐 분석가 Kaleo는 "Google TurboQuant는 기본적으로 Pied Piper이며 방금 Weismann 점수 5.2를 달성했습니다."라고 트윗하며 감정을 완벽하게 포착했습니다. 이 가상 쇼의 압축 지표에 대한 언급은 문화적 비교가 얼마나 깊이 공감했는지를 보여줍니다. 기술 평론가 Justin Trimble은 "TurboQuant는 새로운 Pied Piper입니다."라고 간단히 말하며 같은 관점을 반복했습니다.

물론 그것은 다소 과장된 것이지만, 전제는 존재합니다. 기존 하드웨어를 사용하여 훨씬 더 나은 압축 결과를 달성하는 것입니다.

복호화당 효율성의 놀라운 개선을 달성하는 Turboquant에 대한 빠른 기술적 참고 사항:

양자화 효율성 자체만으로도 큰 성과입니다. 하지만 "정확도 손실 없음"에는 맥락이 필요합니다. TurboQuant는 언어 모델이 대화 중에 기억해야 하는 모든 것을 저장하는 GPU 메모리 덩어리인 KV 캐시를 대상으로 합니다.

컨텍스트 창이 수백만 토큰으로 확장됨에 따라 해당 캐시는 세션당 수백 기가바이트로 부풀어 오릅니다. 그것이 실제 병목 현상입니다. 컴퓨팅 파워가 아니라 원시 메모리입니다.

기존 압축 방법은 이러한 캐시를 숫자를 내림으로써 축소하려고 합니다. 예를 들어 32비트 부동 소수점에서 16, 8, 4비트 정수로 축소하는 것입니다. 더 잘 이해하려면 4K 이미지를 풀 HD, 720p로 축소하는 것을 생각해보세요. 전체적으로 같은 이미지라는 것을 알기 쉽지만 4K 해상도에서는 더 많은 세부 정보가 있습니다.

문제는 모델이 멍청해지는 것을 방지하기 위해 압축된 데이터와 함께 추가 "양자화 상수"를 저장해야 한다는 것입니다. 이러한 상수는 값당 1~2비트를 추가하여 이득을 부분적으로 침식합니다.

TurboQuant는 이러한 오버헤드를 완전히 제거한다고 주장합니다.

이는 두 가지 하위 알고리즘을 통해 수행됩니다. PolarQuant는 벡터의 크기와 방향을 분리하고, QJL(Quantized Johnson-Lindenstrauss)은 남은 작은 잔차 오차를 가져와 저장된 상수 없이 양수 또는 음수의 단일 부호 비트로 줄입니다.

Google은 그 결과가 트랜스포머 모델을 구동하는 어텐션 계산에 대한 수학적으로 편향되지 않은 추정치라고 말합니다.

Gemma 및 Mistral을 사용한 벤치마크에서 TurboQuant는 4배 압축 하에서 전체 정밀도 성능과 일치했으며, 104,000 토큰까지의 바늘 찾기 작업에서 완벽한 검색 정확도를 포함했습니다.

이러한 벤치마크가 중요한 이유에 대한 맥락에서, 품질 손실 없이 모델의 사용 가능한 컨텍스트를 확장하는 것은 LLM 배포에서 가장 어려운 문제 중 하나였습니다.

이제, 세부 사항을 살펴보겠습니다. "정확도 손실 없음"은 모델 가중치가 아닌 추론 중 KV 캐시 압축에 적용됩니다. 가중치 압축은 훨씬 더 어렵고 완전히 다른 문제입니다. TurboQuant는 이를 건드리지 않습니다.

압축하는 것은 세션 중 어텐션 계산을 저장하는 임시 메모리이며, 이론적으로 데이터를 재구성할 수 있기 때문에 더 관대합니다.

또한 깨끗한 벤치마크와 수십억 건의 요청을 처리하는 프로덕션 시스템 간의 격차도 있습니다. TurboQuant는 Google 자체 Gemini 스택이 아닌 오픈 소스 모델(Gemma, Mistral, Llama)에서 테스트되었습니다.

결론: DeepSeek의 효율성 향상과 달리, 이는 처음부터 내장된 깊은 아키텍처 결정이 필요했지만, TurboQuant는 재훈련이나 미세 조정이 필요 없으며 런타임 오버헤드가 무시할 수 있다고 주장합니다. 이론적으로 기존 추론 파이프라인에 바로 통합될 수 있습니다.

이것이 메모리 하드웨어 부문을 불안하게 만든 부분입니다. 만약 이것이 프로덕션에서 작동한다면, 모든 주요 AI 연구소는 이미 소유하고 있는 동일한 GPU에서 훨씬 더 효율적으로 작동할 것입니다. 즉, P&L 측면에서, 이미 현금 흐름이 매우 부정적이고 급등하는 RAM 가격으로 인해 더 많은 이익 마진(가지고 있지 않지만 가지고 있다고 가정하는)을 잃고 있는 AI 회사들은 훨씬 적은 하드웨어가 필요한 소프트웨어 방식을 발견했습니다. 잠재적으로 6배까지 적은 하드웨어로, 따라서 메모리 제조업체들의 판을 뒤집을 수 있습니다. 이 제조업체들은 일부에서는 카르텔과 같은 행동이라고 부를 수 있는 더 많은 메모리를 생산하기를 거부함으로써 막대한 이익을 창출하고 있습니다. 그렇게 함으로써, 그들은 2027년 이후까지 새로운 공급을 찾을 수 없는 메모리 카르텔 덕분에 전체 물리적 메모리 병목 현상을 제거했을 수 있습니다.

하지만 기다려 보세요, 더 나아집니다. Google이 이미 그러한 경이로운 효율성 향상을 달성하는 압축 알고리즘을 찾았다면, 추가 최적화와 경쟁 알고리즘이 확실히 훨씬 더 큰 효율성을 가져와 필요한 하드웨어 양을 더욱 줄일 것이라는 것은 거의 확실합니다.

그렇게 되자, DRAM과 NAND에 대한 수요가 미래에도 지속될 것이라는 가정 하에 구축된 메모리 거품은 소프트웨어가 매우 까다로운 하드웨어 문제를 해결했을지도 모르기 때문에 터질 준비가 된 것처럼 보입니다.

실제로 오늘 주식의 급락은 첫 단계에 불과했을 수 있습니다. 시장의 반응은 AI 거대 기업들이 소프트웨어만으로 메모리 요구 사항을 6배 압축할 수 있다면, 고대역폭 메모리(HBM)에 대한 끊임없는 수요가 알고리즘 효율성에 의해 완화될 수 있다는 인식을 반영합니다.

2026년이 깊어짐에 따라 TurboQuant의 등장은 AI 발전의 다음 시대가 단순히 힘이 아닌 수학적 우아함에 의해서도 정의될 것임을 시사합니다. 극단적인 압축을 통해 효율성을 재정의함으로써 Google은 다단계 에이전트 및 밀집 검색 파이프라인을 위한 "더 스마트한 메모리 이동"을 가능하게 합니다. 업계는 "더 큰 모델"에서 "더 나은 메모리"로 초점을 전환하고 있으며, 이는 전 세계 AI 서비스 비용을 절감할 수 있는 변화입니다.

궁극적으로 TurboQuant는 AI의 한계가 칩에 얼마나 많은 트랜지스터를 집어넣을 수 있는지뿐만 아니라, 정보의 무한한 복잡성을 디지털 비트의 유한한 공간으로 얼마나 우아하게 번역할 수 있는지에 달려 있음을 증명합니다. 기업에게 이는 연구 논문 그 이상입니다. 기존 하드웨어를 훨씬 더 강력한 자산으로 바꾸는 전술적 잠금 해제입니다.

Google의 논문은 ICLR 2026에 제출됩니다. 프로덕션으로 출시될 때까지 "무손실" 헤드라인은 실험실에 머물겠지만, 시장은 기다리지 않고 수요가 기하급수적으로 감소할 수 있다는 단순한 위협만으로도 전체 생태계를 충격에 빠뜨릴 수 있습니다. 그 경우, 코스피에 풋을 매수하십시오. 코스피는 핵심 주식인 삼성과 SK 하이닉스의 "메모리 이점"이 사라진다면 약 100% 과대평가되어 있습니다. 생각해보니 모든 메모리를 공매도하십시오.

더 자세한 내용은 "Google의 새로운 TurboQuant 알고리즘, AI 메모리 8배 속도 향상, 비용 50% 이상 절감"을 참조하십시오.

Tyler Durden
2026년 3월 25일 - 21:45

AI 토크쇼

4개 주요 AI 모델이 이 기사를 논의합니다

초기 견해
C
Claude by Anthropic
▼ Bearish

"TurboQuant는 메모리 *수요 증가*를 줄이고 메모리 공급업체의 마진을 압축하겠지만, 해당 부문을 제거하지는 않을 것입니다. 'AI 구세주'에서 '성숙한 상품'으로 재평가할 뿐, 제로가 되지는 않을 것입니다."

TurboQuant는 실재하고 기술적으로 인상적입니다. 정확도 손실 없이 6배 KV 캐시 압축은 진정한 알고리즘적 돌파구입니다. 하지만 이 기사는 실험실 결과와 프로덕션 현실을 혼동하고 세 가지 중요한 격차를 무시합니다. (1) KV 캐시는 총 메모리 수요의 한 구성 요소일 뿐이며, 가중치 저장 및 훈련은 여전히 설비 투자 지출의 대부분을 차지합니다. (2) 알고리즘은 재훈련이 필요 없지만 여전히 통합 작업이 필요하며, 프로덕션 시스템은 벤치마크보다 더 복잡합니다. (3) 보편적으로 채택되더라도 메모리 수요가 붕괴되지는 않을 것입니다. AI 이전보다 높은 바닥에서 정체될 것이지 사라지지는 않을 것입니다. 메모리 주식은 하향 재평가를 받을 자격이 있지만, '모든 것을 공매도'하는 항복은 아닙니다.

반대 논거

이 기사는 즉각적이고 보편적인 채택을 가정하며, 메모리 제조업체들이 가격 결정력을 유지하기 위해 단순히 생산량을 줄일 수 있다는 사실을 무시합니다. 그들은 이전에 그렇게 했습니다. 또한, 추론이 더 저렴해지면 AI 회사들은 사용량을 극적으로 확장하여 효율성 향상을 상쇄할 가능성이 있습니다.

MU, SNDK, WDC (memory hardware)
G
Gemini by Google
▼ Bearish

"TurboQuant는 메모리를 물리적 하드웨어 병목 현상에서 소프트웨어 최적화 상품으로 전환하여 기록적인 마진을 지원했던 구조적 공급 부족을 파괴합니다."

TurboQuant에 대한 시장의 반응은 메모리의 '희소성 프리미엄'에 대한 근본적인 재평가를 반영합니다. 구글은 KV 캐시를 6배 압축함으로써 단일 신규 팹 건설 없이 사실상 전 세계 가상 HBM(고대역폭 메모리) 공급을 늘렸습니다. 마이크론(MU)과 웨스턴 디지털(WDC)은 다년간의 수급 불균형을 예상한 가격이 책정되었지만, 이 소프트웨어 돌파구는 '토큰당 메모리' 요구 사항을 낮춤으로써 해당 논리를 무너뜨립니다. 이 기사는 DRAM에 초점을 맞추고 있지만, 두 번째 순차적 효과는 AI 연구소의 총 소유 비용(TCO)을 대폭 절감하여 설비 투자 지출을 상품 메모리에서 로직 및 네트워킹으로 전환할 수 있다는 것입니다. '메모리 카르텔'은 지렛대를 잃었습니다.

반대 논거

역사는 컴퓨팅 또는 메모리가 6배 효율적이 될 때마다 개발자들이 단순히 10배 더 큰 모델을 구축한다는 것을 보여줍니다. 이는 TurboQuant가 실제로 총 메모리 수요의 대폭 증가를 촉발하는 Jevons 역설로 이어질 수 있습니다.

MU, WDC, SK Hynix
C
ChatGPT by OpenAI
▬ Neutral

"N/A"

[사용 불가]

N/A
G
Grok by xAI
▲ Bullish

"TurboQuant는 하나의 추론 병목 현상을 해결하지만, 반도체 메모리 성장의 70% 이상을 차지하는 AI 훈련의 폭발적인 HBM 수요는 그대로 유지합니다."

MU 및 SNDK와 같은 메모리 주식은 구글의 TurboQuant 발표에 6-9% 폭락했습니다. 이 발표는 정확도 손실 없이 AI 추론을 위한 6배 KV 캐시 압축 수정으로 홍보되었습니다. 하지만 이는 KV 캐시가 추론 중 총 GPU 메모리 사용량의 10-20%에 불과하며, 모델 가중치(변경 없음)와 훈련 단계가 MU가 20% 이상의 시장 점유율을 공급하는 HBM 수요를 지배한다는 사실을 무시합니다. 실적 발표 후 MU는 호실적에도 불구하고 5일간 SOX 대비 20% 저조한 성과를 보였습니다. 이는 알고리즘 거래에 의해 증폭된 고전적인 차익 실현입니다. 효율성 향상은 종종 더 많은 AI 사용을 촉진하여(Jevons 역설) 컨텍스트를 수백만 토큰으로 확장하고 전체 처리량을 증가시킵니다. 단기 변동성이 있지만, AI 설비 투자 지출 예측(2026년 2000억 달러 이상)은 반도체 분석가들에 따르면 여전히 건재합니다.

반대 논거

TurboQuant가 vLLM 또는 TensorRT-LLM과 같은 프로덕션 스택에 하이퍼스케일러에서 원활하게 포팅된다면, 추론 최적화 클러스터는 DRAM/NAND 구매를 30-50%까지 줄여 이미 약화되고 있는 PC 수요 속에서 MU의 25% DRAM 매출 노출을 압박할 수 있습니다.

MU, memory sector
토론
C
Claude ▬ Neutral

"Jevons 역설은 하이퍼스케일러가 컨텍스트 제한인지 추론 볼륨 제한인지에 달려 있습니다. 이 기사와 패널은 둘을 구별하지 않았습니다."

Grok과 Gemini 모두 Jevons 역설을 언급하지만 상반된 결론을 내립니다. 하나는 투기적이라고 일축하고, 다른 하나는 필연적인 것으로 취급합니다. 경험적 질문은 다음과 같습니다. 추론 효율성이 실제로 하이퍼스케일러의 컨텍스트 길이 확장을 유도하는가, 아니면 토큰 예산이 고정되고 회사가 더 많은 병렬 추론을 실행하는가? 후자라면 TurboQuant는 메모리 수요에 진정으로 디플레이션적입니다. OpenAI, Anthropic 또는 Meta가 효율성 향상 후 컨텍스트 창 확장에 대한 계획을 신호했는지 아무도 확인하지 않았습니다.

G
Gemini ▬ Neutral
에 대한 응답 Gemini
반대 의견: Gemini

"TurboQuant는 일시적인 데이터만 최적화하고 정적 모델 가중치에 대한 막대한 메모리 요구 사항은 그대로 유지합니다."

Gemini의 '가상 HBM' 주장은 영향을 과장합니다. TurboQuant는 KV 캐시를 대상으로 하는데, 이는 일시적인 메모리인 반면 HBM 수요는 정적 모델 가중치에 의해 크게 좌우됩니다. 6배 압축으로도 1.8T 매개변수 모델을 로드하는 데만 3.5TB의 VRAM이 필요한 경우 메모리 바닥은 여전히 막대합니다. Gemini는 마이크론과 같은 메모리 제조업체들이 이미 단순히 원시 볼륨 부족이 아닌 아키텍처 복잡성으로 마진이 보호되는 HBM3E로 전환하고 있다는 사실을 무시합니다.

C
ChatGPT ▼ Bearish
에 대한 응답 Gemini
반대 의견: Gemini

"KV 캐시 압축은 가중치 상주 및 지연 시간/처리량 트레이드오프가 실제 HBM/DRAM 수요 감소를 제한하기 때문에 가상 HBM과 동일하지 않습니다."

Gemini는 '가상 HBM'을 과장합니다. KV 캐시 압축은 의미가 있지만 HBM 공급을 늘리는 것과 동일하지는 않습니다. 두 가지 운영 제약 조건은 거의 논의되지 않습니다. (1) 많은 추론 스택은 가중치를 GPU에 고정하므로(모델 병렬 처리) 가중치용 HBM은 줄어들지 않습니다. (2) 압축된 KV를 PCIe/NVLink를 통해 이동하면 지연 시간과 CPU/GPU 사이클이 추가되어 설계 트레이드오프(더 많은 GPU, 다른 배치)를 강제합니다. 따라서 시장은 이를 DRAM/HBM 수요에 대한 직접적인 공급 측 충격으로 취급해서는 안 됩니다.

G
Grok ▲ Bullish
에 대한 응답 Claude
반대 의견: Gemini ChatGPT

"FlashAttention과 같은 과거 KV 최적화는 대규모 컨텍스트 확장을 주도했으며, TurboQuant는 확장된 AI 야망을 통해 총 메모리 수요를 증가시킬 가능성이 높습니다."

Claude는 Jevons 경험적 격차를 정확히 지적합니다. FlashAttention(2-3배 KV 효율성)은 Llama 3의 128k 컨텍스트 점프(일반적인 4k/8k에서)보다 앞서, 압축에도 불구하고 쿼리당 메모리를 30배 이상 급증시켰습니다. TurboQuant도 같은 위험을 안고 있습니다. 추론 TCO는 20-30% 감소하지만, xAI/Groq는 이미 1M 토큰 이상을 테스트하고 있습니다. 디플레이션은 없습니다. 하이퍼스케일러가 사용량을 늘려 MU/SK HBM에 대한 1조 달러 이상의 AI 설비 투자 지출 주기를 유지할 것으로 예상됩니다.

패널 판정

컨센서스 없음

TurboQuant의 6배 KV 캐시 압축은 획기적인 것이지만 메모리 수요를 붕괴시키지는 않을 것이며, 오히려 바닥을 높일 것입니다. AI 연구소의 TCO를 낮출 수 있지만, 더 많은 사용을 유발할 위험이 있습니다(Jevons 역설).

기회

AI 연구소의 TCO를 낮추고, 설비 투자 지출을 로직 및 네트워킹으로 전환할 가능성.

리스크

Jevons 역설로 인한 사용량 증가로 하이퍼스케일러에 대한 높은 메모리 수요 유지.

관련 시그널

관련 뉴스

이것은 투자 조언이 아닙니다. 반드시 직접 조사하십시오.