สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
ผู้เข้าร่วมกลุ่มอภิปรายผลกระทบของแบบจำลอง Mythos ของ Anthropic ต่อหุ้นด้านความปลอดภัยทางไซเบอร์ แม้ว่าผู้เข้าร่วมกลุ่มบางคนจะโต้แย้งว่าสิ่งนี้จะขับเคลื่อนวงจรการอัปเกรดแบบบังคับและเพิ่มตลาดรวมที่สามารถเข้าถึงได้ แต่คนอื่นๆ ก็เตือนถึงความเสี่ยงที่อาจเกิดขึ้นจากการทำให้เครื่องมือโจมตีกลายเป็นสินค้าโภคภัณฑ์ ภาวะวิกฤตด้านความรับผิดชอบ และการแข่งขันด้านอาวุธด้าน R&D ที่ไม่สิ้นสุดซึ่งอาจจำกัดอัตรากำไรขั้นต้น
ความเสี่ยง: การทำให้เครื่องมือโจมตีกลายเป็นสินค้าโภคภัณฑ์เร็วกว่าที่ผู้ขายสามารถผสานรวมการป้องกันได้ ซึ่งนำไปสู่การสูญเสียอำนาจในการกำหนดราคา
โอกาส: ความต้องการสแต็กการป้องกันที่ผสานรวม AI ที่เพิ่มขึ้นเนื่องจาก AI เชิงรุกที่มีประสิทธิภาพมากขึ้น
หุ้นกลุ่มความปลอดภัยทางไซเบอร์ร่วงลงในวันศุกร์ ตามรายงานว่า Anthropic กำลังทดสอบโมเดลปัญญาประดิษฐ์ (artificial intelligence) ใหม่ที่ทรงพลัง ซึ่งมีความสามารถด้านความปลอดภัยทางไซเบอร์ที่ก้าวหน้ายิ่งขึ้น และยังก่อให้เกิดความเสี่ยงด้านความปลอดภัยที่อาจเกิดขึ้นได้อีกด้วย
Fortune รายงานข่าวนี้เป็นครั้งแรกเมื่อวันพฤหัสบดี โดยอ้างอิงข้อมูลจากฉบับร่างบล็อกโพสต์ที่เข้าถึงได้โดยทั่วไป ตามรายงาน โมเดล Mythos ใหม่ได้รับการกล่าวขานว่าเป็นโมเดลที่ทรงพลังที่สุดของ Anthropic อย่างไรก็ตาม บริษัทวางแผนที่จะเปิดตัวอย่างช้าๆ เนื่องจากผลกระทบด้านความปลอดภัยทางไซเบอร์ที่อาจเกิดขึ้น
Anthropic ยังไม่ตอบสนองต่อคำร้องขอความคิดเห็นจาก CNBC ทันที
หุ้นกลุ่มความปลอดภัยทางไซเบอร์ร่วงลงตามข่าว โดย iShares Cybersecurity ETF ลดลง 3% ในขณะที่ผู้นำตลาดอย่าง CrowdStrike และ Palo Alto Networks ลดลง 7% Zscaler และ SentinelOne ร่วงลงมากกว่า 8% Tenable ร่วงลงเกือบ 11% ในขณะที่ Okta และ Netskope ลดลงมากกว่า 6% แต่ละราย
นี่ไม่ใช่ปรากฏการณ์ใหม่สำหรับภาคส่วนที่ตกเป็นเหยื่อจากความกลัวการหยุดชะงักจาก AI
เดือนที่แล้ว หุ้นกลุ่มไซเบอร์ร่วงลงหลังจาก Anthropic ประกาศเครื่องมือสแกนโค้ดเพื่อความปลอดภัยใหม่สำหรับ Claude พื้นที่ซอฟต์แวร์ที่กว้างขึ้นยังรู้สึกถึงแรงกดดันจากการพัฒนาเทคโนโลยี
การเพิ่มขึ้นของ AI และตัวแทนอิสระกำลังเปลี่ยนแปลงภูมิทัศน์ของภัยคุกคาม โดยสร้างแรงกดดันต่อบริษัทความปลอดภัยทางไซเบอร์เพื่อให้ทันกับการโจมตีและเครื่องมือที่ทำให้การแฮ็กง่ายขึ้นที่มีความซับซ้อนมากขึ้น
Anthropic กล่าวในเดือนพฤศจิกายนว่ากลุ่มที่ได้รับการสนับสนุนจากรัฐบาลในประเทศจีนใช้ Claude เพื่อทำให้การโจมตีทางไซเบอร์เป็นไปโดยอัตโนมัติ
อ่านบทความฉบับเต็มของ Fortune ได้ที่นี่
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"การขาย 3-11% เชื่อมโยง 'AI เปิดใช้งานการโจมตีที่ดีขึ้น' (จริง; ราคาค่อยๆ) กับ 'ความปลอดภัยทางไซเบอร์กลายเป็นสิ่งล้าสมัย' (เท็จ และขัดแย้งกับแนวโน้มการแนะนำของผู้ขาย)"
บทความนี้เชื่อมโยงความเสี่ยงสองประการที่แตกต่างกัน: (1) แบบจำลอง AI ที่เปิดใช้งานการโจมตีที่ดีขึ้น และ (2) ผู้ขายด้านความปลอดภัยทางไซเบอร์กลายเป็นสิ่งล้าสมัย ประการแรกเป็นเรื่องจริง ประการที่สองเป็นการคาดการณ์ การทดสอบแบบจำลองของ Anthropic ที่มีความสามารถด้านไซเบอร์ที่ "ก้าวหน้า" ไม่ได้หมายถึงการแฮ็กแบบอัตโนมัติ—น่าจะหมายถึงการตรวจจับช่องโหว่ที่ดีขึ้นหรือการทดสอบแบบ red-teaming การขาย 3-11% สมมติว่าความต้องการด้านความปลอดภัยทางไซเบอร์จะลดลง แต่ประวัติศาสตร์บ่งชี้ว่าความซับซ้อนของภัยคุกคามจะขับเคลื่อนการใช้จ่าย UP ไม่ใช่ลง CrowdStrike และ Palo Alto ได้ปรับเพิ่มแนวทางการคาดการณ์ซ้ำๆ แม้จะมีความกลัว "การหยุดชะงักของ AI" ความเสี่ยงที่แท้จริง: หากการโจมตีที่ขับเคลื่อนด้วย AI เร็วขึ้นกว่าที่การป้องกันสามารถปรับตัวได้ ผู้ขายจะต้องเผชิญกับแรงกดดันด้านอัตรากำไรขั้นต้นจากการใช้จ่ายด้าน R&D ไม่ใช่ความล้าสมัย แต่เป็นเรื่องราว 2-3 ปี ไม่ใช่ความตื่นตระหนกในวันศุกร์
หาก Claude หรือแบบจำลองที่คล้ายกันสามารถทำให้ห่วงโซ่การโจมตีเป็นไปโดยอัตโนมัติในระดับที่แท้จริง พื้นที่การโจมตีจะขยายตัวเร็วกว่าที่ผู้ขายรายใดสามารถแก้ไขได้—สร้างช่องว่างด้านความสามารถที่ร้ายแรงแต่ชั่วคราว ซึ่งอาจทำให้งบประมาณด้านความปลอดภัยขององค์กรลดลง เนื่องจากบริษัทตระหนักว่าเครื่องมือของตนไม่เพียงพอ
"ความสามารถของ AI เชิงรุกที่เพิ่มขึ้นทำหน้าที่เป็นกระแสรองที่สนับสนุนการใช้จ่ายด้านความปลอดภัยทางไซเบอร์โดยทำให้การป้องกันด้วยตนเองล้าสมัยและบังคับให้มีการอัปเกรดด้านความปลอดภัยแบบองค์กร"
การขาย 3-11% ใน CRWD, PANW และ TEN เป็นปฏิกิริยาแบบกังวลใจคลาสสิกต่อ 'การหยุดชะงักของ AI' ที่ละเลยลักษณะพื้นฐานของการแข่งขันด้านอาวุธทางไซเบอร์ แม้ว่าแบบจำลอง 'Mythos' ของ Anthropic อาจลดอุปสรรคสำหรับการโจมตีที่ซับซ้อน แต่ก็เพิ่มตลาดรวมที่สามารถเข้าถึงได้ (TAM) สำหรับการป้องกันพร้อมกัน ความปลอดภัยทางไซเบอร์ไม่ใช่ผลิตภัณฑ์ที่หยุดนิ่ง แต่เป็นข้อตกลงระดับการบริการต่อภัยคุกคามที่พัฒนาไปอย่างต่อเนื่อง AI เชิงรุกที่มีประสิทธิภาพมากขึ้นจำเป็นต้องมีสแต็กการป้องกันที่ผสานรวม AI ที่มีราคาแพงกว่า ตลาดกำลังกำหนดราคาให้ล้าสมัยเมื่อควรจะกำหนดราคาให้มีการอัปเกรดแบบบังคับ บริษัทเหล่านี้กำลังผสานรวม LLM เพื่อการแก้ไขปัญหาโดยอัตโนมัติ ซึ่งจะชดเชยข้อได้เปรียบด้านต้นทุนแรงงานของผู้โจมตี
หาก Mythos เปิดใช้งานการค้นพบช่องโหว่ zero-day แบบเต็มรูปแบบในระดับที่กว้างขวาง โซลูชันขอบเขตและตัวตนแบบ "ดั้งเดิม" เช่น Okta หรือ Zscaler อาจเสียเปรียบเชิงโครงสร้างอย่างแท้จริงก่อนที่พวกเขาจะสามารถเปลี่ยนทิศทางได้ การเปลี่ยนจากการ 'ตรวจจับและตอบสนอง' ไปสู่ 'การป้องกันที่ขับเคลื่อนด้วย AI' อาจทำให้ผู้นำตลาดในปัจจุบันกลายเป็นสินค้าโภคภัณฑ์หากพวกเขาขาดข้อมูลการฝึกอบรมที่เป็นกรรมสิทธิ์
"N/A"
[ไม่พร้อมใช้งาน]
"การรั่วไหลของ Mythos ของ Anthropic เน้นย้ำถึงการแข่งขันด้านอาวุธ AI-cyber ที่เร่งความต้องการแพลตฟอร์มการป้องกันขั้นสูงจากผู้นำอย่าง CrowdStrike และ Palo Alto Networks"
หุ้นด้านความปลอดภัยทางไซเบอร์ร่วงลง—CRWD และ PANW ลดลง 7%, ZS และ S ลดลงมากกว่า 8%, TENB ลดลงเกือบ 11%—จากการรั่วไหลของร่างบล็อกโพสต์เกี่ยวกับแบบจำลอง Mythos ของ Anthropic ที่มีเครื่องมือและความเสี่ยงด้านไซเบอร์ขั้นสูง ซึ่งกระตุ้นให้มีการเปิดตัวอย่างช้าๆ สิ่งนี้สะท้อนถึงการลดลงของ Claude code-scanner เมื่อเดือนที่แล้ว แต่มองข้ามการป้องกัน AI ของยักษ์ใหญ่ด้านไซเบอร์: Charlotte AI ของ CrowdStrike ตรวจจับภัยคุกคามที่สร้างโดย AI และ Cortex XSIAM ของ Palo Alto ทำการตอบสนองโดยอัตโนมัติ บทความประเมินผลกระทบของการแข่งขันด้านอาวุธต่ำ—Mythos ช่วยเสริมสร้างผู้โจมตี (ดังที่การใช้ประโยชน์จาก Claude ของจีนแสดงให้เห็น) ทำให้ความซับซ้อนของการละเมิดเพิ่มขึ้นและการใช้จ่ายด้านความปลอดภัยแบบ AI ที่เป็นชั้น ๆ ทั่วโลก (ตลาดไซเบอร์ทั่วโลก ~$200B, เติบโต 12% CAGR) เป็นปฏิกิริยาเกินจริงในระยะสั้น แนวโน้มในระยะกลางสำหรับผู้มีกำแพง
หาก Mythos หรือแบบจำลองที่คล้ายกันได้รับการนำไปใช้อย่างกว้างขวางและทำให้เครื่องมือโจมตีกลายเป็นสินค้าโภคภัณฑ์ อาจทำให้ระบบนิเวศเต็มไปด้วยการโจมตีราคาถูกที่หลีกเลี่ยงการป้องกันของผู้ขายระดับพรีเมียม ทำให้ผู้ขายสูญเสียอำนาจในการกำหนดราคาและส่วนแบ่งการตลาดสำหรับ CRWD/PANW และอื่น ๆ
"วงจรการอัปเกรดแบบบังคับใช้ได้ก็ต่อเมื่อองค์กรเชื่อว่าเครื่องมือใหม่ทำงานได้จริง—ความเสี่ยงของการบีบอัดอัตรากำไรขั้นต้นเป็นเรื่องจริงหากผู้ขายไม่สามารถพิสูจน์การได้รับ/การป้องกันที่เพิ่มขึ้นก่อนการแก้ไขแนวทางการคาดการณ์ผลกำไรในไตรมาสที่ 2"
Grok ชี้ให้เห็นถึงการแข่งขันด้านอาวุธได้อย่างถูกต้อง แต่ $200B TAM และ 12% CAGR สมมติว่าผู้มีอำนาจยังคงรักษาอำนาจในการกำหนดราคา—พวกเขาไม่ได้หาก Mythos ทำให้เครื่องมือโจมตีกลายเป็นสินค้าโภคภัณฑ์ได้เร็วกว่าที่ผู้ขายสามารถผสานรวมการป้องกันได้ Claude และ Gemini ต่างก็สมมติว่า 'วงจรการอัปเกรดแบบบังคับ' แต่สิ่งนั้นสมมติว่าองค์กรมีพื้นที่งบประมาณและไว้วางใจโซลูชันใหม่ หากต้นทุนการละเมิดสูงขึ้นเร็วกว่าที่ผู้ขายสามารถพิสูจน์ ROI บนสแต็กที่ผสานรวม AI ได้ เราจะเห็นการจัดสรรงบประมาณไปยังการตอบสนองต่อเหตุการณ์และการประกันภัย ไม่ใช่การรวมตัวของผู้ขาย การทดสอบที่แท้จริง: การแก้ไขแนวทางการคาดการณ์ผลกำไรในไตรมาสที่ 2
"AI เชิงรุกที่เป็นอิสระอาจเปลี่ยนการใช้จ่ายขององค์กรจากผู้ขายซอฟต์แวร์ไปสู่การประกันภัยทางไซเบอร์และการตอบสนองต่อเหตุการณ์ เนื่องจากเครื่องมือดั้งเดิมไม่สามารถรักษาประสิทธิภาพได้"
Claude และ Gemini มองโลกในแง่ดีเกินไปเกี่ยวกับ 'วงจรการอัปเกรดแบบบังคับ' หากแบบจำลอง Mythos ของ Anthropic เปิดใช้งานการค้นพบช่องโหว่ zero-day แบบอัตโนมัติ แบบจำลอง 'ตรวจจับและตอบสนอง' ของ CrowdStrike และ Palo Alto จะกลายเป็นปฏิกิริยาและล้าสมัยอย่างแท้จริง เราไม่ได้มองหาแนวโน้มด้านราคา—เรากำลังมองหาภาวะวิกฤตด้านความรับผิดชอบ หาก AI เชิงรับสามารถบรรลุประสิทธิภาพ 100% ต่อความเร็วแบบอัตโนมัติ อุตสาหกรรมประกันภัย—ไม่ใช่ผู้ขายซอฟต์แวร์—จะกำหนดงบประมาณด้านความปลอดภัยขององค์กร ทำให้ผู้มีอำนาจที่คาดว่าจะเจริญรุ่งเรืองอดอยาก
"การตอบสนองด้านกฎระเบียบและความรับผิดชอบต่อ AI เชิงรุกอาจปรับเปลี่ยนการใช้จ่ายและความสัมพันธ์ทางการแข่งขันด้านความปลอดภัยทางไซเบอร์อย่างมีนัยสำคัญ และความเสี่ยงนี้ถูกพูดถึงน้อย"
ความเสี่ยงด้านกฎระเบียบและกฎหมายถูกมองข้าม: หากแบบจำลองระดับ Mythos ลดต้นทุนของการดำเนินงานทางไซเบอร์เชิงรุกอย่างมีนัยสำคัญ ให้คาดหวังการควบคุมการส่งออก กฎระเบียบการเปิดเผยช่องโหว่ภาคบังคับ ความรับผิดชอบสำหรับผู้สร้างและผู้ใช้งานแบบจำลอง และข้อจำกัดในการใช้งานแบบจำลองเชิงรับ (กฎการทำเครื่องหมายน้ำ/กฎการระบุแหล่งที่มา) ซึ่งจะเพิ่มต้นทุนการปฏิบัติตามข้อกำหนด ชะลอการเปิดตัวผลิตภัณฑ์ และเปลี่ยนการใช้จ่ายขององค์กรไปสู่กฎหมายและการกำกับดูแลมากกว่าการอัปเกรดผลิตภัณฑ์—เป็นประโยชน์ต่อผู้มีอำนาจขนาดใหญ่ที่มีขนาดการปฏิบัติตามข้อกำหนด แต่ส่งผลเสียต่อผู้บุกเบิกขนาดเล็ก
"การโจมตี AI ที่เป็นปฏิปักษ์ต่อแบบจำลองเชิงรับบังคับให้มีการเพิ่มระดับ R&D อย่างต่อเนื่อง ลดอำนาจในการกำหนดราคาและอัตรากำไรขั้นต้นของผู้ขายด้านความปลอดภัยทางไซเบอร์"
มุมมองที่เป็นมิตรทั้งหมดพลาดความเสี่ยงแบบ recursive: แบบจำลองที่คล้ายกับ Mythos สามารถสร้างตัวอย่างที่เป็นปฏิปักษ์ที่กำหนดเป้าหมายแบบจำลอง AI ของผู้ขาย (เช่น หลอก Charlotte AI ของ CRWD หรือ Cortex ของ PANW ผ่านอินพุตที่เป็นพิษ) ซึ่งจะเร่งการหลีกเลี่ยงในต้นทุนที่น้อยที่สุด นี่ไม่ใช่แนวโน้มการอัปเกรด—มันเป็นการแข่งขันด้านอาวุธด้าน R&D ที่ไม่สิ้นสุดซึ่งจำกัดอัตรากำไรขั้นต้น FCF (ในอดีต 25%+) ในขณะที่ capex พุ่งสูงขึ้น จับตาแนวทางการคาดการณ์ผลกำไรในไตรมาสที่ 3
คำตัดสินของคณะ
ไม่มีฉันทามติผู้เข้าร่วมกลุ่มอภิปรายผลกระทบของแบบจำลอง Mythos ของ Anthropic ต่อหุ้นด้านความปลอดภัยทางไซเบอร์ แม้ว่าผู้เข้าร่วมกลุ่มบางคนจะโต้แย้งว่าสิ่งนี้จะขับเคลื่อนวงจรการอัปเกรดแบบบังคับและเพิ่มตลาดรวมที่สามารถเข้าถึงได้ แต่คนอื่นๆ ก็เตือนถึงความเสี่ยงที่อาจเกิดขึ้นจากการทำให้เครื่องมือโจมตีกลายเป็นสินค้าโภคภัณฑ์ ภาวะวิกฤตด้านความรับผิดชอบ และการแข่งขันด้านอาวุธด้าน R&D ที่ไม่สิ้นสุดซึ่งอาจจำกัดอัตรากำไรขั้นต้น
ความต้องการสแต็กการป้องกันที่ผสานรวม AI ที่เพิ่มขึ้นเนื่องจาก AI เชิงรุกที่มีประสิทธิภาพมากขึ้น
การทำให้เครื่องมือโจมตีกลายเป็นสินค้าโภคภัณฑ์เร็วกว่าที่ผู้ขายสามารถผสานรวมการป้องกันได้ ซึ่งนำไปสู่การสูญเสียอำนาจในการกำหนดราคา