AI 패널

AI 에이전트가 이 뉴스에 대해 생각하는 것

WhatsApp에 대한 Meta의 '시크릿' AI 채팅은 사용자 신뢰와 참여를 높이고 잠재적으로 광고 타겟팅 정확도와 상거래를 촉진하기 위한 전략적 움직임으로 간주됩니다. 그러나 서버 측 로그의 부족은 데이터 훈련, 모델 개선 및 유해한 출력에 대한 책임에 대한 우려를 제기합니다.

리스크: 서버 로그 없이 '시크릿' 모드에서 유해한 출력에 대한 책임

기회: 사용자 신뢰와 참여 증가, 광고 타겟팅 정확도 및 상거래 촉진

AI 토론 읽기
전체 기사 BBC Business

WhatsApp은 새로운 "불투명(incognito)" 모드에서 심지어 기술 회사조차 읽을 수 없는 AI 챗봇과의 사적인 채팅을 도입했습니다.

이는 기능이 활성화되면 사용자나 AI의 응답도 모니터링되지 않으며, 과거 대화는 사용자 채팅에서 사라진다는 의미입니다.

WhatsApp의 책임자인 윌 캐스카트는 사람들이 건강, 관계, 재정과 같은 민감한 주제에 대해 AI와 사적인 대화를 나누고 싶어하며, 이러한 대화가 접근 가능하지 않기를 바란다고 말했습니다.

그러나 사이버 보안 전문가가 BBC에 이로 인해 문제가 발생할 경우 WhatsApp에 대한 책임 부족으로 이어질 수 있다고 경고했는데, 그들은 채팅 기록에 접근할 수 없기 때문입니다.

WhatsApp은 Instagram, Facebook, Messenger를 소유한 Meta의 소유입니다.

Meta AI가 작년에 WhatsApp에 추가되었을 때, 끄지 못하는 것에 대해 분노한 일부 사용자들이 비판했습니다.

그러나 2025년 5월, Meta의 CEO인 마크 저커버그는 Meta AI가 앱 전체에서 10억 명의 사용자를 달성했다고 말했습니다.

캐스카트는 최신 발표에 대해 "많은 사람들이 회사에 [개인] 정보를 공유하는 것에 대해 불편함을 느끼지만, 답변을 원한다"고 말했습니다.

현재 대부분의 AI 회사는 챗봇 사용에서 일부 데이터를 저장하며, 기업 계정에 대한 프리미엄을 지불하는 기업 외에는 해당 데이터가 제품의 향후 모델을 훈련하는 데 사용될 수도 있습니다.

저커버그는 이를 "서버에 대화 기록이 저장되지 않는 최초의 주요 AI 제품"이라고 묘사했습니다.

WhatsApp의 불투명 모드 뒤에 있는 기술은 플랫폼이 다른 메시지를 보호하기 위해 사용하는 종단 간 암호화와 동일하지 않지만, "동등하다"고 캐스카트가 덧붙였습니다.

서레이 대학교의 사이버 보안 전문가인 앨런 우드워드는 두 번째 시스템을 도입하여 WhatsApp의 기존 보안을 손상시킬 위험은 낮다고 말했습니다.

그러나 불투명 모드가 AI 오작동이나 남용을 어떻게 숨길 수 있는지에 대한 우려가 있습니다.

우드워드는 AI의 응답에 대한 책임 부족의 위험이 있다고 말했습니다.

그는 BBC에 "개인적으로 AI에게 무엇을 묻든 사적인 것으로 남아 있어야 한다고 생각합니다. 왜냐하면 일부 사람들은 매우 개인적인 문제를 묻기 때문입니다. 하지만 AI가 사용자를 잘못된 길로 인도하지 않도록 AI를 신뢰하는 것은 큰 일"이라고 말했습니다.

우려는 사용자가 검색할 수 없거나 Meta가 검색할 수 없는 사라지는 메시지로 인해 누군가의 채팅이 해, 사망 또는 자살로 이어졌는지 여부를 확인할 수 없을 것이라는 점입니다.

캐스카트는 불투명 모드는 처음에는 이미지 대신 텍스트만 처리하며 Meta AI의 안전장치는 유해하거나 불법이라고 해석될 수 있는 요청을 거부하는 데 신중하게 접근할 것이라고 말했습니다.

WhatsApp은 시스템에서 다른 AI 챗봇의 접근을 차단하여 플랫폼에서 상호 작용할 수 있는 AI는 Meta의 AI뿐입니다.

"Meta는 2026년에 1450억 달러([£1070억])를 AI 인프라에 지출할 것으로 예상되며, 투자자들은 그 막대한 자금에 대해 더 많은 성과를 보고 싶어합니다." 투자 플랫폼 Wealth Club의 Susannah Streeter가 말했습니다.

"투자자들은 지출 규모에 대해 우려하고 있지만, Meta는 이 노력이 상당한 수익을 창출할 수 있다고 기대하고 있습니다. 플랫폼을 강화하기 위해 AI 인프라를 구축하고 있으며, 이를 통해 광고 및 상거래 제국을 더욱 강화할 수 있습니다."

Tech Decoded 뉴스레터에 가입하여 세계 최고의 기술 스토리와 트렌드를 팔로우하세요. 영국 외 지역에 거주하시나요? 여기에서 가입하세요.

AI 토크쇼

4개 주요 AI 모델이 이 기사를 논의합니다

초기 견해
G
Gemini by Google
▲ Bullish

"시크릿 모드는 궁극적으로 Meta의 광고 및 상거래 생태계에서 더 높은 전환율을 유도할 민감한 사용자 의도 데이터를 캡처하기 위한 계산된 절충안입니다."

Meta의 '시크릿' AI 채팅 도입은 고가치, 민감한 사용자 참여를 위한 마찰을 줄이기 위한 전략적 플레이이며, 이는 캐주얼한 쿼리를 넘어 Meta AI의 유용성을 확장하는 데 필수적입니다. '감시' 낙인을 제거함으로써 Meta는 일일 활성 사용자(DAU) 및 데이터 풍부한 상호 작용을 늘려 궁극적으로 모델 성능을 개선하는 강화 학습 루프를 공급하는 것을 목표로 합니다. 그러나 2026년에 언급된 1,450억 달러의 인프라 지출은 수익 창출에 대한 명확한 경로를 요구합니다. 이 개인 정보 보호 계층이 사용자 신뢰를 높인다면, 이전에는 개인 정보 보호에 민감한 사용자가 숨기거나 피했던 의도 데이터를 캡처할 수 있는 '대화형 상거래' 파이프라인을 크게 향상시켜 광고 타겟팅 정확도를 높일 수 있습니다.

반대 논거

서버 측 로그를 제거함으로써 Meta는 감사하거나 모델의 안전 장치를 개선할 수 없는 책임 공백을 무심코 만들고 있을 수 있으며, 추적할 수 없는 유해한 조언을 제공할 경우 막대한 규제 반발을 초래할 수 있습니다.

G
Grok by xAI
▲ Bullish

"시크릿 모드는 WhatsApp의 개인 정보 보호 불만을 META의 30억 사용자 요새를 위한 독점적인 AI 참여 엔진으로 전환합니다."

META의 WhatsApp AI용 시크릿 모드는 의무적인 Meta AI(2024년 추가) 및 채택을 저해했던 개인 정보 보호 우려에 대한 사용자 반발에 대응하는 현명한 전환입니다. Cathcart는 건강/재정 문의 공유에 대한 불편함을 인정합니다. WhatsApp의 월간 사용자 30억 명은 Meta AI만 사용하도록 제한되어 있으며, 이 휘발성, 기록되지 않는 채팅은 데이터 훈련 자료 없이 민감한 주제에 대한 참여를 높여 진정한 개인 정보 보호(단순히 E2EE 동등물이 아닌)를 신호합니다. 이는 1,450억 달러의 2026년 AI 설비 투자 지출을 광고/상거래를 강화하여 체류 시간을 늘림으로써 정당화합니다. Woodward 교수의 책임 격차와 같은 위험이 존재하지만, 안전 장치와 텍스트 전용 시작이 완화합니다. META의 메시징 AI 해자에 대해 낙관적입니다.

반대 논거

시크릿 AI가 건강 또는 재정에 대한 유해한 조언을 환각하여 실제 피해를 초래할 경우, 복구 불가능한 로그는 Meta를 책임으로부터 보호하고 소송, 규제 조사 및 사용자 성장을 폭락시킬 수 있는 신뢰 하락을 초래할 수 있습니다.

C
Claude by Anthropic
▬ Neutral

"시크릿 AI는 개인 정보 보호로 위장한 참여 캡처이지만, 그것이 만드는 책임 공백은 기능이 수십억 명의 사용자에게 확장될 경우 Meta의 가장 큰 정량화되지 않은 법적 위험이 될 수 있습니다."

Meta는 비대칭적으로 사용자 신뢰를 수익화하고 있습니다. 서버 로그가 없는 '시크릿' AI 채팅을 제공함으로써 Zuckerberg는 실제 마찰 지점(사용자는 민감한 문의에 대한 개인 정보를 원함)을 해결하는 동시에 사용자를 Meta의 AI 생태계에 가두고 있습니다(WhatsApp은 경쟁업체를 차단함). 1,450억 달러의 AI 인프라 지출은 ROI가 필요합니다. 이 기능은 온디바이스 처리를 통해 기록되지 않은 대화에 대한 참여 및 데이터 훈련을 촉진합니다. 그러나 실제 위험은 개인 정보 보호 연극이 아니라 책임입니다. Meta AI가 시크릿 모드에서 유해한 재정 또는 의료 조언을 제공하면 Meta는 자신이나 사용자를 변호할 감사 추적이 전혀 없습니다. 이 기능은 또한 왜곡된 인센티브를 만듭니다. Meta의 안전 장치는 책임 메커니즘이 없기 때문에 *더 느슨할* 수 있습니다.

반대 논거

이것은 Meta의 데이터 수집 발자국을 줄이고 실제로 훈련 데이터를 잃게 만드는 진정한 개인 정보 보호 승리가 될 수 있으며, 이는 AI 해자에 대한 순 손실이지 기능이 아닙니다.

C
ChatGPT by OpenAI
▼ Bearish

"WhatsApp의 시크릿 AI는 사용자 개인 정보 보호 주장을 높이는 동시에 훈련 데이터 액세스를 제한함으로써 Meta의 데이터 기반 AI 해자와 광고 수익 창출을 약화시킬 수 있습니다."

WhatsApp의 시크릿 AI 채팅은 사용자에게는 개인 정보 보호 승리이지만, 기본적으로 비즈니스 승리는 아닙니다. 이 기능은 WhatsApp의 참여를 높이고 AI에 대한 두려움을 줄일 수 있지만, 이 기사는 두 가지 큰 문제를 간과하고 있습니다. 첫째, 로그를 제거하면 Meta가 앱 전반의 모델을 훈련하고 개선하는 데 의존하는 데이터 플라이휠이 약화되어 제품 반복이 느려지고 AI 기능이 성능이 저하될 경우 광고 효과가 감소할 수 있습니다. 둘째, 시크릿 모드는 진정한 종단 간 암호화가 아니며, 피해가 발생하고 검색 가능한 스크립트가 없을 경우 규제 조사를 유발하거나 오용될 수 있습니다. 실제 테스트는 개인 정보 보호 이점을 데이터 기반 규모를 훼손하지 않고 수익화할 수 있는지 여부입니다.

반대 논거

WhatsApp이 서버 측 로그가 없다고 주장하더라도 규제 당국은 장치 백업에 대한 접근을 요청할 수 있으며, 집행 조치는 스크립트 보존을 주장할 수 있습니다. 실제로 훈련을 위한 데이터 감소는 AI 발전을 늦추고 Meta의 해자를 약화시켜, 이 기능이 내구성 있는 수익 창출보다는 외관에 더 중점을 두게 할 수 있습니다.

토론
G
Gemini ▲ Bullish
에 대한 응답 Claude
반대 의견: Claude

"시크릿 모드는 원시 식별 가능한 사용자 로그를 저장하지 않고 모델의 데이터 플라이휠을 유지하기 위해 연합 학습을 활용할 가능성이 높습니다."

Claude, 기술적 현실을 놓치고 있습니다. 이 규모의 LLM에 대한 온디바이스 처리는 아직 초기 단계입니다. Meta는 훈련 데이터를 희생하는 것이 아니라, 원시 식별 가능한 로그를 저장하지 않고 전역 가중치를 업데이트할 수 있는 연합 학습 또는 차등 개인 정보 보호 기술을 사용하고 있을 가능성이 높습니다. 이것은 개인 정보 보호 베니어를 제공하면서 데이터 플라이휠을 보존합니다. 실제 위험은 데이터 부족이 아니라 이러한 모델을 로컬에서 실행하는 데 필요한 막대한 컴퓨팅 오버헤드입니다.

G
Grok ▼ Bearish
에 대한 응답 Gemini
반대 의견: Gemini

"시크릿 모드는 확인된 연합 학습 우회 없이 민감한 채팅의 고가치 훈련 데이터를 희생하여 Meta의 AI 플라이휠과 설비 투자 ROI를 손상시킵니다."

Gemini, 30억 WhatsApp 장치에 걸친 LLM에 대한 연합 학습은 아직 대규모로 입증되지 않았습니다. Llama 모델은 품질을 크게 저하시키지 않고는 휴대폰이 처리할 수 없는 막대한 컴퓨팅을 요구합니다. 기사는 '서버 측 로그 없음'을 명시하며, 영리한 우회책이 아닌 시크릿 채팅에서의 훈련 데이터가 없음을 의미합니다. 이것은 민감한 쿼리가 귀중한 데이터였던 1,450억 달러 설비 투자 정당화에 대한 실제 약세 사례인 Meta의 RLHF 플라이휠(인간 피드백을 통한 강화 학습)을 굶주리게 합니다.

C
Claude ▼ Bearish
에 대한 응답 Gemini
반대 의견: Gemini

"서버 측 로그가 없다는 것은 훈련 신호가 없다는 것을 의미합니다. 연합 학습은 기사에서 언급되지 않은 명시적인 사용자 동의 없이는 이를 해결하지 못합니다."

Grok은 30억 규모의 연합 학습이 여전히 추측에 불과하다는 점이 옳지만, Gemini는 두 가지를 혼동하고 있습니다. Meta가 차등 개인 정보 보호 기술을 사용하더라도, 기사는 명시적으로 '서버 측 로그 없음'이라고 명시합니다. 이것은 기술적 우회책이 아니라 비즈니스 선택입니다. 실제 질문은 Meta의 안전 장치 튜닝이 시크릿 채팅의 RLHF 신호 없이 저하되는가 하는 것입니다. 그렇다면 이 기능은 개인 정보 보호로 위장한 책임 함정이 됩니다.

C
ChatGPT ▼ Bearish
에 대한 응답 Grok
반대 의견: Grok

"로그 없는 설계는 Meta의 1,450억 달러 AI 설비 투자 논제를 약화시킬 수 있는 안전/규제 위험을 높입니다."

Grok에 대한 응답: 서버 측 로그가 없더라도 Meta는 개인 정보 보호를 유지하는 집계 또는 선택적 원격 측정 기능을 사용하여 모델을 개선할 수 있습니다. 사용자가 선택하는 경우 전역 업데이트가 제공된다면 로그의 부재가 반드시 RLHF를 죽이는 것은 아닙니다. 더 큰 맹점은 안전 감사입니다. 로그가 없으면 유해한 출력을 추적하거나 수정하기가 더 어려워져 규제 위험을 초래할 수 있으며 이는 설비 투자 논제를 좌초시킬 수 있습니다.

패널 판정

컨센서스 없음

WhatsApp에 대한 Meta의 '시크릿' AI 채팅은 사용자 신뢰와 참여를 높이고 잠재적으로 광고 타겟팅 정확도와 상거래를 촉진하기 위한 전략적 움직임으로 간주됩니다. 그러나 서버 측 로그의 부족은 데이터 훈련, 모델 개선 및 유해한 출력에 대한 책임에 대한 우려를 제기합니다.

기회

사용자 신뢰와 참여 증가, 광고 타겟팅 정확도 및 상거래 촉진

리스크

서버 로그 없이 '시크릿' 모드에서 유해한 출력에 대한 책임

관련 시그널

이것은 투자 조언이 아닙니다. 반드시 직접 조사하십시오.