สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
ในขณะที่ AI กำลังเร่งภัยคุกคามทางไซเบอร์ ผู้เข้าร่วมการประชุมมีความเห็นไม่ตรงกันเกี่ยวกับขอบเขตและผลกระทบ บางคนมองว่าเป็นการเปลี่ยนแปลงเชิงโครงสร้างที่มีความเสี่ยงด้านความรับผิดที่สำคัญ ในขณะที่บางคนโต้แย้งว่าเป็นโอกาสสำหรับบริษัทความปลอดภัยทางไซเบอร์ที่มีอยู่และแพลตฟอร์มความปลอดภัยของ Google
ความเสี่ยง: ความเสี่ยงด้านความรับผิดสำหรับผู้ให้บริการ AI ในกรณีของ zero-days ใหม่ที่ค้นพบโดย LLMs (Gemini)
โอกาส: การขยายตัวของ TAM ด้านความปลอดภัยของ Google และการยอมรับแพลตฟอร์มความปลอดภัยที่ใช้ AI เป็นหลักในวงกว้างขึ้น (Grok)
ในเวลาเพียงสามเดือน การแฮ็กที่ขับเคลื่อนด้วย AI ได้เปลี่ยนจากปัญหาที่เพิ่งเริ่มต้นไปสู่ภัยคุกคามระดับอุตสาหกรรม ตามรายงานจาก Google
ข้อมูลเชิงลึกจากกลุ่มวิเคราะห์ภัยคุกคามของ Google เสริมการอภิปรายทั่วโลกที่ทวีความรุนแรงขึ้นเกี่ยวกับวิธีที่โมเดล AI ล่าสุดมีความสามารถในการเขียนโค้ดอย่างยอดเยี่ยม และกลายเป็นเครื่องมือที่มีประสิทธิภาพอย่างยิ่งในการใช้ประโยชน์จากช่องโหว่ในระบบซอฟต์แวร์ที่หลากหลาย
รายงานระบุว่า กลุ่มอาชญากร รวมถึงผู้ที่เชื่อมโยงกับรัฐจากจีน เกาหลีเหนือ และรัสเซีย ดูเหมือนจะใช้โมเดลเชิงพาณิชย์อย่างแพร่หลาย รวมถึง Gemini, Claude และเครื่องมือจาก OpenAI เพื่อปรับปรุงและขยายการโจมตี
"มีความเข้าใจผิดว่าการแข่งขันด้านช่องโหว่ AI กำลังจะมาถึง แต่ความเป็นจริงคือมันได้เริ่มต้นขึ้นแล้ว" John Hultquist นักวิเคราะห์หลักของกลุ่มกล่าว
"ผู้โจมตีใช้ AI เพื่อเพิ่มความเร็ว ขนาด และความซับซ้อนของการโจมตี ทำให้พวกเขาสามารถทดสอบการดำเนินงาน ต่อต้านเป้าหมาย สร้างมัลแวร์ที่ดีขึ้น และทำการปรับปรุงอื่นๆ อีกมากมาย"
เมื่อเดือนที่แล้ว บริษัท AI Anthropic ปฏิเสธที่จะเปิดตัวโมเดลใหม่ล่าสุดชื่อ Mythos หลังจากยืนยันว่ามีขีดความสามารถที่ทรงพลังอย่างยิ่ง และเป็นภัยคุกคามต่อรัฐบาล สถาบันการเงิน และโลกโดยทั่วไปหากตกไปอยู่ในมือของผู้ไม่หวังดี
โดยเฉพาะอย่างยิ่ง Anthropic กล่าวว่า Mythos ได้ค้นพบช่องโหว่ zero-day ใน "ระบบปฏิบัติการหลักทุกระบบและเว็บเบราว์เซอร์หลักทุกระบบ" ซึ่งเป็นคำที่ใช้อธิบายข้อบกพร่องในผลิตภัณฑ์ที่ผู้พัฒนาไม่เคยทราบมาก่อน
บริษัทกล่าวว่าการค้นพบเหล่านี้จำเป็นต้องมี "การดำเนินการป้องกันที่ประสานงานกันอย่างมากทั่วทั้งอุตสาหกรรม"
อย่างไรก็ตาม รายงานของ Google พบว่ากลุ่มอาชญากรเพิ่งจะอยู่ในช่วงที่ใกล้จะใช้ประโยชน์จากช่องโหว่ zero-day เพื่อดำเนินการแคมเปญ "mass exploitation" และกลุ่มนี้ดูเหมือนจะใช้โมเดลภาษาขนาดใหญ่ (LLM) ของ AI ที่ไม่ใช่ Mythos
รายงานยังพบว่ากลุ่มต่างๆ กำลัง "ทดลอง" กับ OpenClaw ซึ่งเป็นเครื่องมือ AI ที่ได้รับความนิยมอย่างแพร่หลายในเดือนกุมภาพันธ์ เนื่องจากมีความสามารถในการให้ผู้ใช้มอบข้อมูลส่วนตัวจำนวนมากให้กับเอเจนต์ AI โดยไม่มีการควบคุมและมีแนวโน้มที่จะลบกล่องจดหมายอีเมลจำนวนมากโดยไม่ตั้งใจ
Steven Murdoch ศาสตราจารย์ด้านวิศวกรรมความปลอดภัยที่ University College London กล่าวว่าเครื่องมือ AI สามารถช่วยทั้งฝ่ายป้องกันในด้านความปลอดภัยทางไซเบอร์ และแฮกเกอร์ได้เช่นกัน
"นั่นคือเหตุผลที่ผมไม่ตื่นตระหนก โดยทั่วไปเราได้มาถึงจุดที่วิธีการค้นหาข้อบกพร่องแบบเก่าได้หายไปแล้ว และตอนนี้ทุกอย่างจะได้รับความช่วยเหลือจาก LLM มันจะใช้เวลาสักพักกว่าผลกระทบเหล่านี้จะคลี่คลาย" เขากล่าว
อย่างไรก็ตาม หาก AI กำลังช่วยแฮกเกอร์ที่มีความทะเยอทะยานให้บรรลุเป้าหมายด้านประสิทธิภาพการทำงาน ก็ยังคงมีข้อสงสัยว่ามันกำลังส่งเสริมเศรษฐกิจในวงกว้างหรือไม่
Ada Lovelace Institute (ALI) ซึ่งเป็นหน่วยงานวิจัย AI อิสระ ได้เตือนให้ระวังการสันนิษฐานว่าจะมีการเพิ่มประสิทธิภาพการทำงานของภาครัฐมูลค่าหลายพันล้านปอนด์จาก AI รัฐบาลสหราชอาณาจักรคาดการณ์ว่าจะได้รับประโยชน์จากการประหยัดและเพิ่มประสิทธิภาพการทำงานมูลค่า 45 พันล้านปอนด์จากการลงทุนของภาครัฐในเครื่องมือดิจิทัลและ AI
ในรายงานที่เผยแพร่เมื่อวันจันทร์ ALI กล่าวว่าการศึกษาส่วนใหญ่เกี่ยวกับการเพิ่มขึ้นของประสิทธิภาพการทำงานที่เกี่ยวข้องกับ AI อ้างอิงถึงการประหยัดเวลาหรือการลดต้นทุน แต่ไม่ได้พิจารณาถึงผลลัพธ์ เช่น การบริการที่ดีขึ้น หรือความเป็นอยู่ที่ดีขึ้นของพนักงาน
แง่มุมที่น่ากังวลอื่นๆ ของการวิจัยดังกล่าว ได้แก่: การคาดการณ์ประสิทธิภาพที่เกี่ยวข้องกับ AI ในสถานที่ทำงานจะประสบความสำเร็จในโลกแห่งความเป็นจริงหรือไม่; ตัวเลขพาดหัวข่าวที่บดบังผลลัพธ์ที่แตกต่างกันสำหรับการใช้ AI ในงานต่างๆ และการไม่คำนึงถึงผลกระทบต่อการจ้างงานในภาครัฐและการส่งมอบบริการ
"การประมาณการประสิทธิภาพการทำงานที่กำหนดการตัดสินใจที่สำคัญของรัฐบาลเกี่ยวกับ AI บางครั้งอาศัยสมมติฐานที่ยังไม่ได้รับการทดสอบ และอาศัยระเบียบวิธีที่มีข้อจำกัดซึ่งผู้ที่ใช้ตัวเลขในโลกแห่งความเป็นจริงไม่ได้เข้าใจเสมอไป" รายงานของ ALI กล่าว
"ผลลัพธ์คือช่องว่างระหว่างความมั่นใจที่การอ้างสิทธิ์ด้านประสิทธิภาพการทำงานถูกนำเสนอ และความแข็งแกร่งของหลักฐานเบื้องหลัง"
คำแนะนำของรายงาน ได้แก่: การสนับสนุนให้การศึกษาในอนาคตสะท้อนถึงความไม่แน่นอนเกี่ยวกับผลกระทบของเทคโนโลยี การรับรองว่าหน่วยงานรัฐบาลวัดผลกระทบของโปรแกรม AI "ตั้งแต่เริ่มต้น" และการสนับสนุนการศึกษาในระยะยาวที่วัดผลกำไรด้านประสิทธิภาพการทำงานในช่วงหลายปี แทนที่จะเป็นสัปดาห์
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"การใช้อาวุธ LLM สร้าง "ภาษีไซเบอร์" ที่เพิ่มขึ้นอย่างถาวร ซึ่งจะบีบอัดอัตรากำไรสำหรับผู้ให้บริการซอฟต์แวร์และโครงสร้างพื้นฐานคลาวด์ เนื่องจากต้นทุนการป้องกันแซงหน้าการเพิ่มประสิทธิภาพ"
การเปลี่ยนไปสู่การแฮกที่ขับเคลื่อนด้วย AI ในระดับอุตสาหกรรม ถือเป็นการเปลี่ยนแปลงโครงสร้างในด้านความปลอดภัยทางไซเบอร์ จากเกมแมวไล่จับไปสู่การแข่งขันด้านอาวุธแบบอัตโนมัติ ในขณะที่ตลาดมุ่งเน้นไปที่ศักยภาพรายได้ของ generative AI ตลาดกำลังประเมิน "ภาษีไซเบอร์" ที่จะเกิดขึ้นกับภาคเทคโนโลยีต่ำเกินไป สำหรับบริษัทอย่าง Alphabet (GOOGL) และ Microsoft ต้นทุนในการรักษาความปลอดภัยโครงสร้างพื้นฐานจะเพิ่มขึ้นอย่างมาก ซึ่งอาจบีบอัดอัตรากำไรจากการดำเนินงาน เนื่องจาก R&D ด้านการป้องกันต้องก้าวหน้ากว่า AI ด้านการโจมตี นักลงทุนกำลังเพิกเฉยต่อความเสี่ยงด้านความรับผิดที่เกี่ยวข้องกับช่องโหว่ zero-day ที่ค้นพบโดย LLM ในขณะนี้ หากโมเดล AI อำนวยความสะดวกในการละเมิดที่ร้ายแรง ผลกระทบด้านกฎระเบียบและกฎหมายอาจไม่เคยเกิดขึ้นมาก่อน
LLM เดียวกันที่ช่วยให้ผู้โจมตีสามารถทำงานได้พร้อมกันนั้นกำลังเพิ่มการทำงานอัตโนมัติในการป้องกันอย่างมาก ซึ่งน่าจะนำไปสู่ "ความสมดุลด้านความปลอดภัย" ที่ต้นทุนการโจมตีเพิ่มขึ้นพร้อมกับต้นทุนการป้องกัน ทำให้ผลกระทบสุทธิต่อบรรทัดล่างของบริษัทเป็นกลาง
"รายงานภัยคุกคามของ Google ตอกย้ำความเป็นผู้นำด้านความปลอดภัย AI ของพวกเขา เพิ่มอุปสงค์สำหรับเครื่องมือป้องกันท่ามกลางการโจมตีที่ทวีความรุนแรงขึ้น"
รายงานของ Google วางตำแหน่ง GOOGL เป็นนกคีรีบูนในเหมืองถ่านหิน AI-cyber โดยเน้นย้ำถึงความสามารถด้านข่าวกรองภัยคุกคาม Mandiant ท่ามกลางการโจมตีที่เพิ่มขึ้นซึ่งขับเคลื่อนด้วย AI โดยใช้โมเดลเช่น Gemini และ Claude นี่ไม่ใช่แค่การปลุกปั่นความตื่นตระหนก — หลักฐานของการใช้ประโยชน์ zero-day เกือบจะในวงกว้างเน้นย้ำถึงความเร่งด่วน แต่การมองเห็นของ Google ขับเคลื่อนความต้องการแพลตฟอร์ม Cloud Security และ Chronicle (หลังจากการเข้าซื้อ Mandiant) สิ่งที่ถูกมองข้าม: AI ช่วยเสริมพลังให้กับผู้ป้องกันอย่างสมมาตร โมเดลของ Google เองสามารถแก้ไขช่องโหว่ได้เร็วกว่าที่ผู้โจมตีจะเขียนโค้ดได้ ความสงสัยด้านประสิทธิภาพภาครัฐของ ALI รู้สึกไม่เกี่ยวข้องกัน โดยไม่สนใจชัยชนะของภาคเอกชน เช่น การเพิ่มประสิทธิภาพการเขียนโค้ด 20-30% ในภาคเทคโนโลยี สรุป: เร่งการขยายตัวของ TAM ด้านความปลอดภัยของ GOOGL ที่มากกว่า 10 พันล้านดอลลาร์
หาก AI ทำให้ zero-day เป็นประชาธิปไตยสำหรับ script kiddies การละเมิดในวงกว้างอาจกระตุ้นให้เกิดการปราบปรามด้านกฎระเบียบต่อผู้ให้บริการ AI เช่น Google ทำให้ความไว้วางใจในคลาวด์ลดลง และส่งผลกระทบต่อส่วนแบ่งรายได้ 12% ของ GOOGL จากความปลอดภัย
"บทความนี้สับสนระหว่างการโจมตีสินค้าโภคภัณฑ์ที่เร่งด้วย AI กับการค้นพบ zero-day ที่ขับเคลื่อนด้วย AI — มีเพียงอย่างแรกเท่านั้นที่ได้รับการพิสูจน์ในระดับอุตสาหกรรม แต่ทั้งสองอย่างกระตุ้นการใช้จ่ายด้านกฎระเบียบและองค์กร"
รายงานของ Google ยืนยันว่าการแฮกที่ได้รับความช่วยเหลือจาก AI นั้นดำเนินการได้จริง ไม่ใช่แค่ในทางทฤษฎี — ผู้กระทำผิดและผู้กระทำที่เชื่อมโยงกับรัฐกำลังใช้ Gemini, Claude และเครื่องมือ OpenAI ในระดับอุตสาหกรรมอยู่แล้ว แต่บทความนี้สับสนระหว่างสองปัญหาที่แยกจากกัน: (1) AI เร่งเวิร์กโฟลว์การโจมตีที่มีอยู่ และ (2) AI ค้นพบ zero-day ใหม่ ปัญหาแรกเป็นจริงและเร่งด่วน ปัญหาที่สองยังไม่ได้รับการพิสูจน์ในระดับอุตสาหกรรม การตัดสินใจเกี่ยวกับ Mythos ของ Anthropic เป็นเพียงการแสดงละคร — พวกเขาได้ระงับโมเดล แล้ว Google ก็พบ LLM *อื่น* ที่ทำงานคล้ายกัน สิ่งนี้บ่งชี้ว่า: การค้นหาช่องโหว่ของ AI นั้นไม่พิเศษเท่าที่กลัว หรือมีหลายโมเดลที่มีความสามารถนี้และการควบคุมเป็นไปไม่ได้ ภาคส่วนความปลอดภัยทางไซเบอร์จะเฟื่องฟูไม่ว่าอย่างไรก็ตาม การอ้างสิทธิ์ด้านประสิทธิภาพของสหราชอาณาจักรถูกทำลายโดย ALI แยกต่างหาก — นั่นคือความล้มเหลวของนโยบาย ไม่ใช่ความล้มเหลวของ AI
หาก LLM หลายตัวสามารถค้นพบ zero-day ได้อย่างอิสระ ภัยคุกคามนั้นกระจายไปทั่วและไม่สามารถควบคุมได้แล้ว — การดำเนินการของผู้ขายรายเดียวไม่มีความหมาย ในทางตรงกันข้าม หาก Mythos อันตรายเป็นพิเศษและการยับยั้งของ Anthropic ได้ผล การอ้างสิทธิ์ "ระดับอุตสาหกรรม" จะกล่าวเกินจริงเกี่ยวกับสิ่งที่เกิดขึ้นจริงในโลก
"ประเด็นสำคัญที่แท้จริงไม่ใช่การล่มสลายของความปลอดภัยที่กำลังจะมาถึง แต่เป็นการใช้จ่ายด้านการป้องกันที่เปิดใช้งานด้วย AI ที่เร็วขึ้นและยั่งยืน ซึ่งควรจะยกระดับผู้ให้บริการด้านความปลอดภัยทางไซเบอร์ที่ใช้ AI เป็นหลักมากกว่าที่จะทำร้ายพวกเขา"
คำเตือนของ Google เน้นย้ำถึงแนวโน้มที่แท้จริง: โมเดล AI สามารถลดต้นทุนในการสร้างและขยายการโจมตีได้อย่างมาก ผลักดันให้ผู้เล่นบางรายไปสู่ภัยคุกคาม "ระดับอุตสาหกรรม" แต่บทความนี้เอนเอียงไปสู่การพูดเกินจริง: สามเดือนเป็นช่วงเวลาสั้นๆ สำหรับการเปลี่ยนแปลงโครงสร้าง และการอ้างสิทธิ์จำนวนมากอาศัยคำบอกเล่าของผู้ขาย (การอวดอ้าง zero-day ของ Mythos) แทนที่จะเป็นข้อมูลที่ตรวจสอบได้โดยอิสระ พลวัตที่มีผลกระทบมากกว่าน่าจะเป็นวงจรการใช้จ่ายด้านการป้องกันที่เร็วขึ้นและกว้างขึ้น เนื่องจากบริษัทต่างๆ นำแพลตฟอร์มความปลอดภัยที่ใช้ AI เป็นหลักและระบบอัตโนมัติมาใช้เพื่อให้ทันกับผู้โจมตี นั่นอาจยกระดับชื่อเสียงด้านความปลอดภัยทางไซเบอร์ที่มีอยู่ (CrowdStrike, Zscaler, Palo Alto) ในหลายๆ ด้าน — ความแม่นยำในการตรวจจับ ปริมาณงาน และขอบเขต — ในขณะที่กฎระเบียบและข้อจำกัดจะลดผลกำไรสำหรับอาชญากร ผลกระทบสุทธิ: งบประมาณด้านความปลอดภัยจะกลายเป็นปัจจัยสนับสนุน ไม่ใช่หายนะ
ข้อโต้แย้งที่แข็งแกร่งที่สุด: ผู้โจมตีที่ใช้ AI อาจถูกหักล้างโดยหน่วยงานกำกับดูแลและมาตรการตอบโต้ที่รวดเร็วของผู้ป้องกัน และการอ้างสิทธิ์ zero-day ของ Mythos ยังไม่ได้รับการยืนยัน การเปลี่ยนแปลง "ระดับอุตสาหกรรม" ที่ถูกกล่าวหาอาจกล่าวเกินจริงหรือเฉพาะเจาะจงกับภาคส่วน
"ความรับผิดทางกฎหมายที่เกี่ยวข้องกับการละเมิดที่อำนวยความสะดวกโดย AI ถือเป็นความเสี่ยงต่อการดำรงอยู่ของมูลค่า Big Tech มากกว่าต้นทุนการดำเนินงานของการแข่งขันด้านอาวุธด้านความปลอดภัยทางไซเบอร์"
Claude ถูกต้องในการตั้งคำถามเกี่ยวกับเรื่องราว "ระดับอุตสาหกรรม" แต่พลาดความเสี่ยงอันดับสอง: ความรับผิด หาก LLM กำลังค้นพบ zero-day ใหม่ ภาระทางกฎหมายจะเปลี่ยนจาก "ความประมาท" เป็น "ความรับผิดโดยเคร่งครัด" สำหรับผู้ให้บริการ เรากำลังมองหา "ช่วงเวลาของยาสูบ" ที่อาจเกิดขึ้นสำหรับ Big Tech หากโมเดล GOOGL หรือ MSFT ถูกใช้เพื่ออำนวยความสะดวกในการละเมิด การดำเนินคดีที่ตามมาจะบดบังผลกำไรใดๆ จากการขยาย TAM ด้านความปลอดภัย โดยไม่คำนึงว่าพวกเขาจะแก้ไขช่องโหว่ของตนเองได้เร็วเพียงใด
"ความรับผิดของผู้ให้บริการมีความเสี่ยงต่ำเนื่องจากมีมาตรการคุ้มครองทางกฎหมาย ความปั่นป่วนของประกันภัยทำให้หุ้นไซเบอร์แบบ pureplay เช่น CRWD/ZS กลายเป็นสินค้าโภคภัณฑ์"
"ช่วงเวลาของยาสูบ" ของ Gemini สำหรับ Big Tech กล่าวเกินจริงถึงความเสี่ยงด้านความรับผิด — ข้อกำหนดในการให้บริการของ AI และมาตรา 230 ที่คล้ายคลึงกันจะปกป้องผู้ให้บริการจากการใช้งานในทางที่ผิด (มีแบบอย่างสำหรับเครื่องมือเช่นการเข้ารหัส) ผลกระทบที่ไม่ได้แจ้ง: AI ระดับอุตสาหกรรมโจมตีทำให้บริษัทประกันภัยไซเบอร์ล้นหลาม ทำให้ขาดทุนเพิ่มขึ้น 20-50% (ประมาณการ) บังคับให้ต้องประกันตนเอง สิ่งนี้จะกัดกร่อนอำนาจในการกำหนดราคาของ CRWD/ZS เนื่องจากองค์กรต่างๆ สร้างระบบป้องกัน AI ภายในองค์กร ทำให้ขอบเขตเอียงไปทางความปลอดภัยแบบครบวงจรของ GOOGL
"การล่มสลายของประกันภัยไซเบอร์กระตุ้นให้เกิดคำสั่งของหน่วยงานกำกับดูแล ไม่ใช่แค่เบี้ยประกันที่สูงขึ้น — เป็นแรงกดดันด้านอัตรากำไรเชิงโครงสร้างที่ไม่มีใครคิดราคา"
การล่มสลายของบริษัทประกันภัยไซเบอร์ของ Grok ยังไม่ได้สำรวจอย่างละเอียด แต่จำเป็นต้องมีการทดสอบความเครียด: หากอัตราการสูญเสียเพิ่มขึ้น 20-50% บริษัทประกันภัยจะไม่เพียงแค่ขึ้นเบี้ยประกัน — พวกเขาจะออกจากกลุ่มผลิตภัณฑ์ทั้งหมด ซึ่งจะทำให้บริษัทขนาดกลางขาดความคุ้มครอง บังคับให้ต้องมีการแทรกแซงด้านกฎระเบียบ (กลุ่มการประกันตนเองภาคบังคับ การค้ำประกันของรัฐบาล) สิ่งนี้สร้างความเสี่ยงทางการเมืองที่มากกว่าความกังวลด้านความรับผิดของ Gemini GOOGL/MSFT จะเผชิญกับการบังคับเข้าร่วมกลุ่มความเสี่ยงกึ่งสาธารณะ — ภาษีที่แตกต่างกันสำหรับอัตรากำไร ซึ่งยากต่อการสร้างแบบจำลอง
"ความเสี่ยงด้านความรับผิดจากการละเมิดที่เปิดใช้งานโดย AI จะค่อยเป็นค่อยไปและขับเคลื่อนโดยประกันภัย ไม่ใช่ผลประโยชน์มหาศาลต่อการดำรงอยู่ของ Big Tech ความเครียดในระยะใกล้คือค่าใช้จ่ายในการดำเนินงานด้านการป้องกันที่สูงขึ้นและการกำกับดูแลที่ค่อยๆ เพิ่มขึ้น"
การกำหนดกรอบ "ช่วงเวลาของยาสูบ" ของ Gemini กล่าวเกินจริงถึงวิธีการที่จะเกิดความรับผิด ความรับผิดโดยเคร่งครัดสำหรับผู้ให้บริการ AI ในการละเมิดข้ามพรมแดนนั้นไม่แน่นอนอย่างดีที่สุด — ศาลจะพิจารณาบทบาทและความประมาท และบริษัทประกันจะต่อสู้กับการจัดสรรที่ไม่เท่าเทียมกัน สิ่งที่น่าจะเป็นไปได้มากกว่าคือความรับผิดจะค่อยๆ เปลี่ยนไป กระตุ้นให้ต้นทุนความคุ้มครองไซเบอร์สูงขึ้นและการรับความเสี่ยงโดยบริษัทต่างๆ แทนที่จะเป็นผลประโยชน์มหาศาลสำหรับโจทก์หรือภาษี Big Tech ความเสี่ยงที่ใกล้กว่าแทนคือค่าใช้จ่ายในการดำเนินงานด้านการป้องกันที่สูงขึ้นและการเข้มงวดด้านกฎระเบียบที่ค่อยเป็นค่อยไป
คำตัดสินของคณะ
ไม่มีฉันทามติในขณะที่ AI กำลังเร่งภัยคุกคามทางไซเบอร์ ผู้เข้าร่วมการประชุมมีความเห็นไม่ตรงกันเกี่ยวกับขอบเขตและผลกระทบ บางคนมองว่าเป็นการเปลี่ยนแปลงเชิงโครงสร้างที่มีความเสี่ยงด้านความรับผิดที่สำคัญ ในขณะที่บางคนโต้แย้งว่าเป็นโอกาสสำหรับบริษัทความปลอดภัยทางไซเบอร์ที่มีอยู่และแพลตฟอร์มความปลอดภัยของ Google
การขยายตัวของ TAM ด้านความปลอดภัยของ Google และการยอมรับแพลตฟอร์มความปลอดภัยที่ใช้ AI เป็นหลักในวงกว้างขึ้น (Grok)
ความเสี่ยงด้านความรับผิดสำหรับผู้ให้บริการ AI ในกรณีของ zero-days ใหม่ที่ค้นพบโดย LLMs (Gemini)