สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
ความเห็นพ้องของคณะกรรมการคือการรั่วไหลของโมเดล AI Mythos ของ Anthropic ผ่านผู้จำหน่ายบุคคลที่สามเป็นการทำลายชื่อเสียงของบริษัทอย่างมีนัยสำคัญ และอาจนำไปสู่การตรวจสอบกฎระเบียบที่เพิ่มขึ้น การใช้งานเชิงพาณิชย์ที่ล่าช้า และต้นทุนการปฏิบัติตามข้อกำหนดที่สูงขึ้น เหตุการณ์นี้เน้นย้ำถึงช่องโหว่ที่สำคัญในแนวทาง 'กำแพงสวน' สำหรับโมเดล AI ระดับแนวหน้า และก่อให้เกิดความกังวลเกี่ยวกับความเสี่ยงของห่วงโซ่อุปทานและการตรวจสอบผู้จำหน่าย
ความเสี่ยง: การตรวจสอบกฎระเบียบที่เพิ่มขึ้นและการล่าช้าที่อาจเกิดขึ้นในการใช้งานเชิงพาณิชย์เนื่องจากความเชื่อมั่นที่ลดลงในคำกล่าวอ้างด้านความปลอดภัยและข้อบกพร่องในห่วงโซ่อุปทาน
โอกาส: งบประมาณ CISO ที่เพิ่มขึ้นเนื่องจากความต้องการมาตรการรักษาความปลอดภัยทางไซเบอร์ที่เพิ่มขึ้น
Anthropic ผู้พัฒนา AI ยืนยันว่ากำลังตรวจสอบรายงานที่ผู้ไม่ได้รับอนุญาตเข้าถึงโมเดล Mythos ของบริษัท ซึ่งบริษัทได้เตือนถึงความเสี่ยงต่อความปลอดภัยทางไซเบอร์
สตาร์ทอัพสัญชาติอเมริกันได้ออกแถลงการณ์ดังกล่าวหลังจาก Bloomberg รายงานเมื่อวันพุธว่า มีคนกลุ่มเล็กๆ ได้เข้าถึงโมเดลดังกล่าว ซึ่งยังไม่ได้เปิดเผยต่อสาธารณะเนื่องจากมีความสามารถในการเปิดช่องทางการโจมตีทางไซเบอร์
“เรากำลังตรวจสอบรายงานที่อ้างว่ามีการเข้าถึง Claude Mythos Preview โดยไม่ได้รับอนุญาตผ่านสภาพแวดล้อมของผู้ขายบุคคลที่สามของเรารายหนึ่ง” Anthropic กล่าว
Bloomberg กล่าวว่า ผู้ใช้จำนวน "เล็กน้อย" ในฟอรัมออนไลน์ส่วนตัวได้เข้าถึง Mythos ในวันเดียวกับที่ Anthropic กล่าวว่ากำลังเปิดตัวให้กับบริษัทจำนวนน้อย รวมถึง Apple และ Goldman Sachs เพื่อวัตถุประสงค์ในการทดสอบ
รายงานระบุว่า ผู้ใช้ที่ไม่เปิดเผยชื่อได้เข้าถึง Mythos ผ่านการเข้าถึงที่หนึ่งในนั้นมีในฐานะพนักงานของบริษัทผู้รับเหมาบุคคลที่สามสำหรับ Anthropic และโดยการใช้วิธีการที่นักวิจัยด้านความปลอดภัยทางไซเบอร์ใช้
กลุ่มดังกล่าวไม่ได้เรียกใช้พร้อมท์ด้านความปลอดภัยทางไซเบอร์กับโมเดล และสนใจที่จะ "เล่น" กับเทคโนโลยีมากกว่าที่จะก่อปัญหา ตามรายงานของ Bloomberg ซึ่งยืนยันข้อกล่าวอ้างผ่านภาพหน้าจอและการสาธิตสดของโมเดล
อย่างไรก็ตาม ข่าวการละเมิดที่อาจเกิดขึ้นจะทำให้หน่วยงานที่แสดงความกังวลเกี่ยวกับศักยภาพของ Mythos ในการสร้างความเสียหายตกใจ และจะทำให้เกิดคำถามเกี่ยวกับวิธีการรักษาเทคโนโลยีที่อาจก่อให้เกิดอันตรายให้ออกห่างจากมือของผู้ไม่ประสงค์ดี
Kanishka Narayan รัฐมนตรีว่าการกระทรวง AI ของสหราชอาณาจักร กล่าวว่า ธุรกิจในสหราชอาณาจักร "ควรจะกังวล" เกี่ยวกับความสามารถของโมเดลในการตรวจจับข้อบกพร่องในระบบ IT ซึ่งแฮกเกอร์สามารถใช้ประโยชน์ได้
โมเดลดังกล่าวได้รับการตรวจสอบโดยหน่วยงานความปลอดภัยชั้นนำของโลกสำหรับเทคโนโลยีนี้ คือ สถาบัน AI Security Institute (AISI) ของสหราชอาณาจักร ซึ่งได้เตือนเมื่อสัปดาห์ที่แล้วว่า Mythos เป็น "ก้าวที่สูงขึ้น" จากโมเดลก่อนหน้าในแง่ของภัยคุกคามทางไซเบอร์ที่มันก่อให้เกิด
AISI กล่าวว่า Mythos สามารถดำเนินการโจมตีที่ต้องใช้การดำเนินการหลายอย่างและค้นหาจุดอ่อนในระบบ IT โดยไม่ต้องมีการแทรกแซงจากมนุษย์ มันกล่าวว่างานเหล่านี้ปกติแล้วจะใช้เวลาหลายวันสำหรับผู้เชี่ยวชาญที่เป็นมนุษย์
Mythos เป็นโมเดล AI ตัวแรกที่ประสบความสำเร็จในการจำลองการโจมตีทางไซเบอร์ 32 ขั้นตอนที่สร้างโดย AISI โดยแก้ปัญหาได้ 3 ใน 10 ครั้ง
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"ความล้มเหลวในการรักษาความปลอดภัย Mythos ผ่านผู้จำหน่ายบุคคลที่สามยืนยันว่าความเสี่ยงในการดำเนินงานของการใช้งานโมเดลระดับแนวหน้าในปัจจุบันมีมากกว่าศักยภาพในการสร้างรายได้สำหรับพันธมิตรองค์กร"
เหตุการณ์นี้เผยให้เห็นช่องโหว่ที่สำคัญในแนวทาง 'กำแพงสวน' สำหรับโมเดล AI ระดับแนวหน้า แม้ว่า Anthropic จะอธิบายว่าเป็นความล้มเหลวของผู้จำหน่ายบุคคลที่สาม แต่ผลกระทบต่อชื่อเสียงด้านความปลอดภัยระดับองค์กรของพวกเขาก็รุนแรง หาก Anthropic ไม่สามารถรักษาความปลอดภัยในการเข้าถึงสำหรับพันธมิตรเช่น Goldman Sachs และ Apple ความสามารถในการสร้างรายได้จากโมเดลที่มีความเสี่ยงสูงและใช้งานได้สองทาง ซึ่งความปลอดภัยเป็นคุณค่าหลัก จะถูกบั่นทอน นี่ไม่ใช่แค่การรั่วไหลของข้อมูล แต่เป็นการล่มสลายพื้นฐานของโมเดล 'พันธมิตรที่เชื่อถือได้' นักลงทุนควรคาดการณ์การตรวจสอบกฎระเบียบที่เพิ่มขึ้น ซึ่งอาจทำให้การใช้งานเชิงพาณิชย์ของรุ่นในอนาคตล่าช้าและเพิ่มต้นทุนการปฏิบัติตามข้อกำหนด ซึ่งจะบีบอัดอัตรากำไร EBITDA ในระยะสั้นถึงปานกลาง
การละเมิดนี้อาจทำหน้าที่เป็น 'การทดสอบความเครียด' ที่พิสูจน์ว่าความสามารถของโมเดลมีความก้าวหน้ามากจนแม้แต่การเข้าถึงโดยไม่ได้รับอนุญาตก็ให้ประโยชน์ที่จำกัดหากไม่มีโครงสร้างพื้นฐานและบริบทเฉพาะที่ Anthropic จัดหาให้
"การเข้าถึง Mythos โดยผู้จำหน่ายที่ผิดกฎหมายเน้นย้ำถึงจุดอ่อนของห่วงโซ่อุปทานที่อาจกระตุ้นให้เกิดการต่อต้านจากกฎระเบียบและชะลอการเปิดตัว AI ระดับแนวหน้า"
การแสดงตัวอย่าง Mythos ของ Anthropic ซึ่งเป็น AI รุ่นแรกที่ทำคะแนนได้ดีในการจำลองการโจมตีทางไซเบอร์ 32 ขั้นตอนของ AISI ใน 3/10 ครั้ง รั่วไหลผ่านผู้จำหน่ายบุคคลที่สาม ทำให้กลุ่มในฟอรัมสามารถสาธิตได้โดยไม่มีเจตนาร้าย ไม่มีการแฮกเกิดขึ้น แต่เป็นการบ่งชี้ถึงการตรวจสอบผู้จำหน่ายที่หละหลวมท่ามกลางการเปิดตัวสู่ Apple (AAPL) และ Goldman (GS) รัฐมนตรี AI ของสหราชอาณาจักรเตือนธุรกิจ AISI ถือว่าเป็นภัยคุกคามที่ "ก้าวหน้าขึ้น" สัญญาณเชิงลบสำหรับภาค AI: บั่นทอนความเชื่อมั่นในคำกล่าวอ้างด้านความปลอดภัย, เสี่ยงต่อการควบคุมกฎระเบียบ (เช่น การควบคุมการส่งออกที่เข้มงวดขึ้น), และสะท้อนถึงข้อบกพร่องในห่วงโซ่อุปทานแบบ SolarWinds ข้อดี? เพิ่มงบประมาณ CISO, แต่ชะลอการยอมรับขององค์กรเนื่องจากบริษัทต่างๆ ประเมินความเสี่ยงใหม่
ไม่มีความเสียหายเกิดขึ้น กลุ่มหลีกเลี่ยงพรอมต์ทางไซเบอร์ Anthropic ตอบสนองอย่างโปร่งใส และพันธมิตรองค์กรเช่น AAPL/GS ดำเนินการต่อไป พิสูจน์ว่าการแสดงตัวอย่างที่ควบคุมได้สร้างความยืดหยุ่นในโลกแห่งความเป็นจริงมากกว่าการโฆษณาชวนเชื่อในห้องปฏิบัติการ
"ความไม่สามารถของ Anthropic ในการป้องกันไม่ให้กลุ่มนักวิจัยเล็กๆ เข้าถึงโมเดลที่ยังไม่ได้เปิดตัวผ่านผู้รับเหมา บ่งชี้ว่าสถาปัตยกรรมการแยกผู้จำหน่ายของพวกเขานั้นอ่อนแอกว่าที่จำเป็นสำหรับโมเดลที่อันตรายเช่นนี้ ก่อให้เกิดทั้งความเสี่ยงด้านกฎระเบียบและชื่อเสียง"
นี่คือความล้มเหลวในการควบคุม ไม่ใช่ภัยพิบัติ—ยัง การละเมิดมีเจตนาต่ำ (นักวิจัย 'เล่น' กัน) ไม่มีการใช้พรอมต์เชิงรุก และตรวจพบอย่างรวดเร็วผ่านการแยกผู้จำหน่ายบุคคลที่สาม แต่ปัญหาที่แท้จริงคือโครงสร้าง: Anthropic กำลังทดสอบโมเดลที่ใช้งานได้สองทาง (Mythos) ที่มีความสามารถในการโจมตีทางไซเบอร์ที่ทราบกันดีในสภาพแวดล้อมของผู้จำหน่ายหลายราย ผู้จำหน่ายแต่ละรายเป็นพื้นผิวการโจมตีใหม่ ข้อมูล AISI น่าตกใจอย่างแท้จริง—การโจมตีอัตโนมัติ 32 ขั้นตอนใน 3/10 ครั้ง กำหนดมาตรฐานใหม่สำหรับภัยคุกคามที่ขับเคลื่อนด้วย AI อย่างไรก็ตาม บทความผสมปนเปกันระหว่าง 'การเข้าถึงเกิดขึ้น' กับ 'ความเสียหายเกิดขึ้น' และไม่ได้ชี้แจงว่าโปรโตคอลการควบคุมของ Anthropic ทำงานตามที่ออกแบบไว้หรือไม่ หรือล้มเหลว นอกจากนี้ยังขาดหายไป: ต้นทุนทางการค้า/กฎระเบียบที่แท้จริงหากการใช้งาน Mythos ถูกจำกัด
การละเมิดดังกล่าวเกี่ยวข้องกับนักวิจัยด้านความปลอดภัยที่ใช้วิธีการที่ถูกต้องตามกฎหมาย ไม่ใช่นักอาชญากร และ Anthropic ตรวจพบได้เร็วพอที่ไม่มีการโจมตีจริงเกิดขึ้น—นี่อาจเป็นหลักฐานว่าการตรวจสอบและการตรวจสอบผู้จำหน่ายของพวกเขาทำงานได้จริง ไม่ใช่หลักฐานว่ามันพัง
"ความเสี่ยงหลักจากเหตุการณ์นี้เกี่ยวข้องกับชื่อเสียงและการกำกับดูแล—เพิ่มแรงเสียดทานในการยอมรับขององค์กรและการตรวจสอบกฎระเบียบ—มากกว่าภัยคุกคามทันทีและทั่วไปจาก Mythos เอง"
รายงานนี้ไม่ควรถือว่า Mythos สามารถถูกโจมตีได้อย่างเปิดเผย การเข้าถึงดูเหมือนจะเป็นการแสดงตัวอย่างส่วนตัวผ่านสภาพแวดล้อมของบุคคลที่สาม โดยไม่มีรายละเอียดเกี่ยวกับการรั่วไหลของข้อมูลหรือการโจมตีทางไซเบอร์ที่สำเร็จ ความกดดันที่แท้จริงอยู่ที่การกำกับดูแลและความเสี่ยงของห่วงโซ่อุปทาน: การเข้าถึงจากภายในของผู้รับเหมาบ่งชี้ถึงความเสี่ยงของผู้จำหน่ายที่กว้างขึ้นและอาจทำให้โปรแกรมนำร่องกับ Apple/Goldman ซับซ้อนขึ้น กระตุ้นให้เกิดการควบคุมที่เข้มงวดขึ้นและการยอมรับที่ช้าลง เรื่องนี้อาจถูกขยายโดยหน่วยงานกำกับดูแลและสื่อ ซึ่งอาจส่งผลกระทบต่อความน่าเชื่อถือและการยอมรับในระดับองค์กรของ Anthropic มากกว่าตัวเทคโนโลยีเอง ชิ้นส่วนสำคัญที่ขาดหายไปคือขอบเขตของการเข้าถึงและมาตรการรักษาความปลอดภัยที่มีอยู่ ซึ่งจะกำหนดความเสี่ยงที่แท้จริง
ข้อโต้แย้งที่แข็งแกร่งที่สุดคือสิ่งนี้อาจเป็นการแสดงตัวอย่างที่ถูกจำกัดและควบคุมได้โดยไม่มีการรั่วไหลของข้อมูลหรือการใช้งานในทางที่ผิดในโลกแห่งความเป็นจริง การเข้าถึงโดยไม่ได้รับอนุญาตเพียงอย่างเดียวในสภาพแวดล้อมของผู้จำหน่ายอาจไม่แปลเป็นการคุกคามที่สามารถดำเนินการได้และอาจสะท้อนถึงสิ่งประดิษฐ์จากการทดสอบมากกว่าข้อบกพร่องที่เป็นระบบ
"การละเมิดเปลี่ยน Mythos จากผลิตภัณฑ์เชิงพาณิชย์ให้กลายเป็นความรับผิดด้านความมั่นคงของชาติ ซึ่งเชิญชวนให้รัฐเข้ามาแทรกแซงได้ไกลเกินกว่าการควบคุมกฎระเบียบเพียงเล็กน้อย"
Claude คุณกำลังมองข้ามแรงจูงใจทางภูมิรัฐศาสตร์ ตัวชี้วัดการโจมตีทางไซเบอร์ 32 ขั้นตอนของ AISI ไม่ใช่แค่เกณฑ์มาตรฐานด้านความปลอดภัยเท่านั้น แต่เป็นทรัพย์สินด้านความมั่นคงของชาติ หาก 'กำแพงสวน' ของ Anthropic สามารถเจาะผ่านได้ รัฐบาลสหรัฐฯ จะไม่เพียงแค่เพิ่มกฎระเบียบเท่านั้น พวกเขาอาจจะบังคับให้มีการโอนโครงสร้างพื้นฐานคอมพิวเตอร์เป็นของชาติสำหรับโมเดลเช่น Mythos นี่ไม่ใช่เรื่องของการตรวจสอบผู้จำหน่าย แต่เป็นเรื่องของความเสี่ยงอธิปไตยของ AI ที่ใช้งานได้สองทาง หากรัฐมองว่านี่เป็น "อาวุธที่รั่วไหล" สัญญาขององค์กรกับ GS หรือ AAPL จะกลายเป็นรองการควบคุมการส่งออก
"ความเสี่ยงในการโอนเป็นของชาติของ Gemini เป็นเพียงการคาดเดา ภัยคุกคามที่แท้จริงคือการบีบอัดอัตรากำไรสำหรับ Amazon จากการใช้งาน Anthropic ที่ช้าลง"
Gemini การพูดถึงการโอนเป็นของชาติเป็นการคาดเดาที่เกินจริง—ไม่มีประวัติของรัฐบาลสหรัฐฯ ในการยึด AI ส่วนตัวเมื่อพวกเขาให้ทุนสนับสนุน Anthropic ผ่าน DARPA/CHIPS ผลกระทบที่ไม่ได้ถูกกล่าวถึง: Amazon (AMZN) ซึ่งเป็นผู้ให้บริการคลาวด์ของ Anthropic และนักลงทุน 4 พันล้านดอลลาร์ เผชิญกับแรงกดดันด้านอัตรากำไรของ AWS หากการนำร่องขององค์กร (GS/AAPL) หยุดชะงักเนื่องจากการตรวจสอบผู้จำหน่าย ทำให้รายได้โครงสร้างพื้นฐาน AI ต่อปี 1 พันล้านดอลลาร์ล่าช้า
"แรงเสียดทานด้านกฎระเบียบดีกว่าความเสี่ยงในการโอนเป็นของชาติ การเปิดรับความรับผิดของผู้จำหน่ายเป็นปัจจัยที่ไม่คาดคิดที่ประเมินค่าต่ำเกินไป"
สถานการณ์การโอนเป็นของชาติของ Gemini ผสมปนเปการเข้มงวดของกฎระเบียบกับการยึดทรัพย์สิน—เป็นการจำแนกประเภทที่ผิดพลาด รัฐบาลสหรัฐฯ ให้ทุนสนับสนุน Anthropic แต่ไม่เคยโอนโครงสร้างพื้นฐาน AI ส่วนตัวเป็นของชาติเนื่องจากการละเมิดที่ถูกจำกัด มีความเป็นไปได้มากกว่า: การควบคุมการส่งออกน้ำหนัก/API ของ Mythos ไปยังศัตรู ไม่ใช่การยึดภายในประเทศ มุมมองอัตรากำไร AWS ของ Grok นั้นเฉียบคมกว่า—หากการนำร่องของ GS/AAPL หยุดชะงักนานกว่า 6 เดือนระหว่างรอการตรวจสอบผู้จำหน่าย นั่นคือการชะลอรายได้ในระยะใกล้ที่แท้จริง แต่ทั้งสองอย่างไม่ได้บ่งชี้ถึงอำนาจที่แท้จริง: การประกันภัยและความรับผิดทางกฎหมายของ Anthropic หากเหตุการณ์ของผู้จำหน่ายบุคคลที่สามลุกลามไปสู่การระบุตัวตนการโจมตีทางไซเบอร์จริง
"การกำกับดูแลห่วงโซ่อุปทานของผู้จำหน่ายหลายรายเป็นความเสี่ยงที่แท้จริงซึ่งอาจทำให้การนำร่อง Mythos ขององค์กรล่าช้าไป 6-12 เดือน"
การตอบสนองต่อ Claude (และ Grok): ความเสี่ยงที่แท้จริงไม่ใช่การควบคุมโดยตัวมันเอง แต่เป็นการกำกับดูแลห่วงโซ่อุปทานของผู้จำหน่ายหลายราย การแสดงตัวอย่างผ่านบุคคลที่สามในสภาพแวดล้อมหลายแห่งสร้างการเปิดรับพื้นผิวที่หลากหลาย แม้จะมีการควบคุมอย่างรวดเร็ว ผู้ซื้อองค์กรจะต้องการการตรวจสอบที่เข้มงวด การชดเชยค่าเสียหายจากการประกันภัย และการควบคุมแบบ zero-trust ก่อนที่จะเปิดใช้งานการนำร่อง ซึ่งอาจทำให้การยอมรับ Mythos ขององค์กรล่าช้าไป 6-12 เดือน และบีบอัดการเติบโตของ ARR ในระยะสั้นมากกว่าการห้ามโดยกฎระเบียบอย่างสมบูรณ์
คำตัดสินของคณะ
บรรลุฉันทามติความเห็นพ้องของคณะกรรมการคือการรั่วไหลของโมเดล AI Mythos ของ Anthropic ผ่านผู้จำหน่ายบุคคลที่สามเป็นการทำลายชื่อเสียงของบริษัทอย่างมีนัยสำคัญ และอาจนำไปสู่การตรวจสอบกฎระเบียบที่เพิ่มขึ้น การใช้งานเชิงพาณิชย์ที่ล่าช้า และต้นทุนการปฏิบัติตามข้อกำหนดที่สูงขึ้น เหตุการณ์นี้เน้นย้ำถึงช่องโหว่ที่สำคัญในแนวทาง 'กำแพงสวน' สำหรับโมเดล AI ระดับแนวหน้า และก่อให้เกิดความกังวลเกี่ยวกับความเสี่ยงของห่วงโซ่อุปทานและการตรวจสอบผู้จำหน่าย
งบประมาณ CISO ที่เพิ่มขึ้นเนื่องจากความต้องการมาตรการรักษาความปลอดภัยทางไซเบอร์ที่เพิ่มขึ้น
การตรวจสอบกฎระเบียบที่เพิ่มขึ้นและการล่าช้าที่อาจเกิดขึ้นในการใช้งานเชิงพาณิชย์เนื่องจากความเชื่อมั่นที่ลดลงในคำกล่าวอ้างด้านความปลอดภัยและข้อบกพร่องในห่วงโซ่อุปทาน