สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
คณะกรรมการเห็นพ้องกันว่าการเคลื่อนไหวของ DOD เป็นสัญญาณของการเปลี่ยนแปลงไปสู่ผู้ขายที่ "เน้นการปฏิบัติตามกฎก่อน" โดยให้ความสำคัญกับ OpenAI มากกว่า Anthropic ความเสี่ยงหลักคือการแก้แค้นทางการเมืองและความคลุมเครือของสัญญา ในขณะที่โอกาสสำคัญอยู่ที่งบประมาณ AI ด้านกลาโหมที่เพิ่มขึ้น
ความเสี่ยง: ความคลุมเครือของสัญญาและการแก้แค้นทางการเมืองที่อาจเกิดขึ้น
โอกาส: งบประมาณ AI ด้านกลาโหมที่เพิ่มขึ้น
ส.ว. เอลิซาเบธ วอร์เรน จากพรรคเดโมแครต รัฐแมสซาชูเซตส์ กล่าวว่า การตัดสินใจของกระทรวงกลาโหม (DOD) ที่กำหนดให้บริษัทสตาร์ทอัพปัญญาประดิษฐ์ Anthropic เป็นความเสี่ยงด้านซัพพลายเชน "ดูเหมือนเป็นการแก้แค้น"
ในจดหมายอย่างเป็นทางการถึงรัฐมนตรีว่าการกระทรวงกลาโหมสหรัฐฯ พีท เฮกเซธ เมื่อวันจันทร์ วอร์เรนตั้งข้อสังเกตว่า กระทรวง "สามารถเลือกที่จะยกเลิกสัญญาของตนกับ Anthropic หรือใช้เทคโนโลยีของตนต่อไปในระบบที่ไม่เป็นความลับ"
"ฉันกังวลเป็นพิเศษว่า DOD กำลังพยายามบีบบังคับบริษัทอเมริกันให้จัดหาเครื่องมือให้กระทรวงเพื่อสอดแนมพลเมืองอเมริกันและใช้งานอาวุธสังหารอัตโนมัติโดยไม่มีมาตรการป้องกันที่เพียงพอ" วอร์เรนเขียน
ส.ว. สหรัฐฯ กำลังแสวงหาคำตอบเพิ่มเติมจากสัญญาของกระทรวงกลาโหมกับบริษัทเทคโนโลยี ในขณะที่สงครามในอิหร่านยังคงดำเนินต่อไป โดยความขัดแย้งเข้าสู่สัปดาห์ที่สี่
ในช่วงหลายวันก่อนสงคราม DOD และ Anthropic เกิดการปะทะกัน เนื่องจากกระทรวงแสวงหาการเข้าถึงโมเดลของตนอย่างไม่จำกัดเพื่อ "วัตถุประสงค์ที่ชอบด้วยกฎหมายทั้งหมด" ในขณะที่ Anthropic ต้องการการรับประกันว่าโมเดลของตนจะไม่ถูกนำไปใช้สำหรับอาวุธสังหารอัตโนมัติหรือ "การสอดแนมมวลชน" ภายในประเทศ
เมื่อวันที่ 27 กุมภาพันธ์ เฮกเซธโพสต์ว่าเขากำลังสั่งให้ DOD ใช้ป้าย "ความเสี่ยงด้านซัพพลายเชน" กับบริษัท การแจ้งเตือนอย่างเป็นทางการมาถึงหนึ่งสัปดาห์ต่อมา ขณะที่กระทรวงยังคงใช้โมเดล Claude ของ Anthropic ในอิหร่าน
Anthropic ได้ยื่นฟ้องรัฐบาลทรัมป์ หลังจากที่บริษัทถูกขึ้นบัญชีดำและถูกพิจารณาว่าเป็นภัยคุกคามต่อความมั่นคงแห่งชาติของสหรัฐฯ การพิจารณาคดีเบื้องต้นสำหรับคดีนี้มีกำหนดในวันอังคารที่ศาลแขวงสหรัฐฯ เขตเหนือของแคลิฟอร์เนีย
ไม่กี่ชั่วโมงหลังจาก Anthropic ถูกขึ้นบัญชีดำ OpenAI ก็เข้ามามีบทบาท โดยประกาศข้อตกลงกับ DOD
บริษัทกล่าวว่ามั่นใจว่า DOD จะไม่ใช้ระบบ AI ของตนเพื่อการสอดแนมมวลชนหรืออาวุธสังหารอัตโนมัติ เนื่องจาก "กองซ้อนความปลอดภัย" ของ OpenAI กฎหมายที่มีอยู่ และภาษาของสัญญา ซึ่งยังไม่ได้เปิดเผยทั้งหมด
อย่างไรก็ตาม ทั้ง Altman และกระทรวงกลาโหมไม่สามารถคลายความกังวลของฝ่ายนิติบัญญัติ สาธารณชน และพนักงานบางส่วนของบริษัทได้
วอร์เรนกำลังแสวงหาคำตอบจาก Sam Altman ซีอีโอของ OpenAI ด้วย
ในจดหมายเมื่อวันจันทร์ วอร์เรนขอข้อมูลจาก Altman เกี่ยวกับเงื่อนไขของข้อตกลง DOD ของตน
"ฉันกังวลว่าเงื่อนไขของข้อตกลงนี้อาจอนุญาตให้รัฐบาลทรัมป์ใช้เทคโนโลยีของ OpenAI เพื่อดำเนินการสอดแนมมวลชนชาวอเมริกันและสร้างอาวุธสังหารอัตโนมัติที่อาจเป็นอันตรายต่อพลเรือนโดยมีการควบคุมดูแลจากมนุษย์น้อยมากหรือไม่มีเลย" จดหมายระบุ
สัปดาห์ที่แล้ว Altman ได้พบกับสมาชิกรัฐสภาจำนวนหนึ่งในวอชิงตัน ดี.ซี. โดย ส.ว. มาร์ก เคลลี จากพรรคเดโมแครต รัฐแอริโซนา ได้หยิบยก "คำถามที่น่ากังวล" เกี่ยวกับแนวทางของบริษัทในการทำสงครามและสัญญา DOD ของตน
"ท้ายที่สุดแล้ว เป็นไปไม่ได้ที่จะประเมินมาตรการป้องกันและข้อห้ามใดๆ ที่อาจมีอยู่ในข้อตกลงของ OpenAI กับ DoD หากไม่เห็นสัญญาฉบับเต็ม ซึ่งทั้ง DoD และ OpenAI ไม่ได้เปิดเผย" วอร์เรนเขียน
เธอกล่าวเสริมว่า สิ่งที่ได้มีการเปิดเผยต่อสาธารณะทำให้เกิดความกังวลอย่างมากเกี่ยวกับการใช้ AI ของ DOD
แม้จะมีการเรียกร้องให้ตอบคำถาม แต่พรรคเดโมแครตในวุฒิสภาก็มีความสามารถจำกัดในการบังคับให้ดำเนินการ เนื่องจากพรรครีพับลิกันควบคุมทำเนียบขาวและสภาคองเกรสทั้งสองสภา
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"นี่คือข้อพิพาทเกี่ยวกับความโปร่งใสของสัญญาและการขยายขอบเขต ไม่ใช่หลักฐานของการแก้แค้น—แต่การไม่มีเงื่อนไขสัญญา OpenAI ที่เปิดเผยต่อสาธารณะทำให้เป็นไปไม่ได้ที่จะประเมินว่า DOD เพียงแค่พบผู้ขายที่ปฏิบัติตามมากขึ้น หรือได้หลีกเลี่ยงมาตรการป้องกันด้านความปลอดภัยจริงๆ"
บทความนี้มองว่าเป็นเรื่องของการแก้แค้นทางการเมือง แต่ประเด็นหลักคือเรื่องสัญญา: Anthropic ปฏิเสธคำสั่งของ DOD ที่ต้องการ "การเข้าถึงอย่างเสรี" ต่อโมเดลสำหรับ "วัตถุประสงค์ที่ชอบด้วยกฎหมายทั้งหมด"—ซึ่งเป็นข้อกำหนดที่กว้างพอที่จะเปิดใช้งานการสอดแนมมวลชนหรืออาวุธสังหาร ป้าย "ความเสี่ยงด้านห่วงโซ่อุปทาน" เป็นเครื่องมือที่หยาบ แต่การที่ DOD หันไปหา OpenAI (ซึ่งอ้างว่ามีมาตรการป้องกันตามสัญญาอยู่ แต่จะไม่เปิดเผย) ชี้ให้เห็นว่าข้อพิพาทที่แท้จริงคือเรื่องความโปร่งใสและการควบคุม ไม่ใช่ความปลอดภัย ความไม่สามารถของวอร์เรนในการดูเงื่อนไขสัญญาของ OpenAI เป็นข้อกังวลที่สมเหตุสมผล แต่บทความนี้ผสมปนเปสองคำถามที่แยกจากกัน: ว่า DOD ใช้สิทธิ์เกินขอบเขตหรือไม่ (น่าจะใช่) และการปฏิเสธของ Anthropic เป็นจุดยืนที่มีหลักการหรือเป็นการแสดงเชิงพาณิชย์ (ไม่ชัดเจน) บริบทของ "สงครามในอิหร่าน" นั้นคลุมเครือและอาจทำให้ความเร่งด่วนเพิ่มขึ้น
Anthropic อาจคำนวณว่าการถูกขึ้นบัญชีดำของ DOD + การฟ้องร้องจะสร้าง PR และเงินทุนร่วมลงทุนที่เอื้ออำนวย ในขณะที่หลีกเลี่ยงความเสี่ยงด้านชื่อเสียงจากการเชื่อมโยงกับอาวุธสังหาร—ทำให้สิ่งนี้ไม่ใช่จุดยืนที่มีหลักการ แต่เป็นการวางตำแหน่งเชิงกลยุทธ์มากกว่า จดหมายของวอร์เรน แม้จะเป็นที่นิยมทางการเมือง แต่ก็ไม่ได้กล่าวถึงว่าเงื่อนไขสัญญาของ Anthropic เองจะยอมรับได้ในทางปฏิบัติสำหรับ DOD หรือไม่ หรือบริษัทเพียงต้องการหลีกเลี่ยงความรับผิด
"DoD กำลังรวมห่วงโซ่อุปทาน AI ของตนอย่างแข็งขัน โดยให้ความสำคัญกับผู้ขายที่มีข้อจำกัดตามสัญญาที่น้อยลง ซึ่งเป็นการสร้าง "ปราการการปฏิบัติตามกฎ" ที่ลงโทษสตาร์ทอัพที่เน้นความปลอดภัย"
นี่เป็นสัญญาณของการเปลี่ยนแปลงเชิงโครงสร้างในภูมิทัศน์การจัดซื้อจัดจ้างเทคโนโลยีกลาโหม DoD กำลังเปลี่ยนไปสู่โมเดลผู้ขายที่ "เน้นการปฏิบัติตามกฎก่อน" โดยให้ความสำคัญกับความเต็มใจของ OpenAI ในการดำเนินงานภายใต้กรอบสัญญาที่คลุมเครือและอาจอนุญาตได้ มากกว่า "Constitutional AI" ของ Anthropic แม้ว่าการสอบสวนของวอร์เรนจะเน้นย้ำถึงความเสี่ยงทางจริยธรรมที่สมเหตุสมผล แต่ความเป็นจริงของตลาดคือ DoD ให้ความสำคัญกับประโยชน์ใช้สอยที่สำคัญต่อภารกิจมากกว่านโยบายความปลอดภัยขององค์กรในช่วงความขัดแย้ง นักลงทุนควรมองว่านี่เป็นปัจจัยสนับสนุนระยะยาวที่เป็นไปได้สำหรับ OpenAI (และผู้มีส่วนได้ส่วนเสีย เช่น Microsoft) เนื่องจากพวกเขาได้สร้างปราการที่แข็งแกร่งในการใช้จ่าย AI ของรัฐบาลกลาง ในขณะที่ Anthropic เผชิญกับอุปสรรคด้านรายได้ที่สำคัญและภาระทางกฎหมายที่อาจส่งผลกระทบต่อการประเมินมูลค่าในระยะสั้น
DoD อาจใช้ป้าย "ความเสี่ยงด้านห่วงโซ่อุปทาน" เป็นการกำหนดทางเทคนิคที่ถูกต้องตามกฎหมาย โดยอิงจากข้อมูลข่าวกรองที่เป็นกรรมสิทธิ์เกี่ยวกับน้ำหนักโมเดลของ Anthropic หรือการพึ่งพาต่างประเทศ ทำให้ "การแก้แค้น" เป็นเพียงการเบี่ยงเบนทางการเมืองจากช่องโหว่ด้านความมั่นคงแห่งชาติที่แท้จริง
"การจัดซื้อจัดจ้างกลาโหมที่มีการเมืองเข้ามาเกี่ยวข้องและเงื่อนไขสัญญาที่คลุมเครือ ขณะนี้ได้สร้างความเสี่ยงเชิงโครงสร้างด้านกฎระเบียบและชื่อเสียง ซึ่งจะกดดันการประเมินมูลค่าและชะลอการทำธุรกรรมสำหรับผู้ให้บริการ AI ทั้งหมด โดยให้ประโยชน์เฉพาะบริษัทที่เต็มใจยอมรับการเข้าถึงของรัฐบาลในวงกว้าง"
เหตุการณ์นี้ไม่ใช่แค่การทะเลาะวิวาททางกฎหมาย—แต่เป็นการตกผลึกของความเสี่ยงทางการเมืองรูปแบบใหม่สำหรับบริษัท AI: การจัดซื้อจัดจ้างเป็นคานงัดเพื่อบังคับให้เข้าถึง สิทธิ์ในข้อมูล และการยอมรับข้อตกลงด้านอาวุธ การติดป้าย Anthropic ว่าเป็น "ความเสี่ยงด้านห่วงโซ่อุปทาน" แล้วมอบงานให้กับผู้ขายรายอื่น (OpenAI) ทำให้เกิดคำถามเกี่ยวกับการจัดซื้อจัดจ้างที่มีการเมืองเข้ามาเกี่ยวข้อง ความคลุมเครือของสัญญา และผลกระทบด้านชื่อเสียง/กฎหมาย คาดว่าการตรวจสอบสถานะของนักลงทุนจะเร็วขึ้น ข้อตกลงจะช้าลงสำหรับสตาร์ทอัพที่เน้นจริยธรรม ต้นทุนการปฏิบัติตามกฎจะสูงขึ้น และการรวมตัวกันอาจเกิดขึ้นกับผู้ขายที่เต็มใจยอมรับเงื่อนไขการใช้งานของรัฐบาลที่กว้างขวาง ผู้ชนะระยะสั้น: พันธมิตรคลาวด์/โครงสร้างพื้นฐานที่ช่วยให้การรวมระบบราบรื่น ผู้แพ้: สตาร์ทอัพขนาดเล็กที่ขับเคลื่อนด้วยค่านิยม และบริษัทใดก็ตามที่ติดอยู่ในความไม่แน่นอนทางกฎหมาย
DoD อาจมีเหตุผลด้านความมั่นคงแห่งชาติที่ถูกต้องตามกฎหมายสำหรับการกำหนดดังกล่าว และข้อตกลงของ OpenAI ชี้ให้เห็นว่าอุปสงค์ของตลาดจะเปลี่ยนไปหาผู้ขายที่ยอมรับการกำกับดูแลของรัฐบาลที่เข้มงวด ซึ่งหมายความว่าเหตุการณ์นี้ส่วนใหญ่จะเร่งการสร้างรายได้สำหรับซัพพลายเออร์ที่ปฏิบัติตามกฎ แทนที่จะทำลายภาคส่วนนี้
"การเปลี่ยนจาก Anthropic ไปสู่ OpenAI อย่างรวดเร็วของ DoD ท่ามกลางความขัดแย้งที่กำลังดำเนินอยู่ พิสูจน์ว่า AI มีความสำคัญต่อภารกิจ โดยส่งเสริมบริษัทที่ปฏิบัติตามกฎ แม้จะมีวาทกรรมทางการเมืองก็ตาม"
การขึ้นบัญชีดำ Anthropic ของ DOD ท่ามกลางสงครามอิหร่านเน้นย้ำถึงความสำคัญเชิงกลยุทธ์ของ AI ต่อความมั่นคงแห่งชาติ สร้างพลวัตแบบ "ผู้ชนะได้ทั้งหมด" ที่เอื้อประโยชน์ต่อผู้เล่นที่ปฏิบัติตามกฎอย่าง OpenAI ด้วยพรรครีพับลิกันที่ควบคุมสภาคองเกรสและทำเนียบขาว จดหมายของวุฒิสมาชิกวอร์เรนเป็นการกำกับดูแลเชิงการแสดงที่น่าจะไม่มีผลต่อสัญญา—DOD ยังคงใช้ Claude ต่อไปหลังจากการติดป้ายและหันไปหา OpenAI อย่างรวดเร็ว สิ่งนี้เป็นการยืนยันถึงประโยชน์ใช้สอยของ AIในสนามรบ (เช่น ระบบที่ไม่เป็นความลับในอิหร่าน) กดดันสตาร์ทอัพให้สอดคล้องกับความต้องการของกลาโหม ตัวแทน AI สาธารณะ เช่น MSFT (ผู้สนับสนุน OpenAI) และ GOOG (นักลงทุน Anthropic) เผชิญกับความผันผวนระยะสั้น แต่มีปัจจัยสนับสนุนระยะยาวจากงบประมาณเทคโนโลยีของ DoD ที่มากกว่า 1 แสนล้านดอลลาร์ บทความละเว้นความเร่งด่วนที่เกิดจากสงคราม ลดทอนความจำเป็นของ AI
การตรวจสอบของสภาคองเกรสที่เพิ่มขึ้นอาจกระตุ้นให้เกิดการควบคุมการส่งออก AI ที่กว้างขึ้นหรือข้อจำกัดทางจริยธรรม ทำให้สัญญาด้านกลาโหมชะงักงันและลดทอนค่าตัวคูณของภาคส่วน AI หากคดีฟ้องร้องแพร่หลาย
"ความได้เปรียบด้านการปฏิบัติตามกฎของ OpenAI เป็นไปตามวัฏจักร ไม่ใช่เชิงโครงสร้าง ความเสี่ยงทางการเมืองถูกหักออกจากสมการผู้ขายในปัจจุบันแล้ว"
Grok ผสมปนเปสองพลวัตที่แตกต่างกัน: ความต้องการทางยุทธวิธีเร่งด่วนของ DOD (ปฏิบัติการในอิหร่าน) เทียบกับแบบแผนการจัดซื้อจัดจ้างเชิงโครงสร้าง กรอบ "ผู้ชนะได้ทั้งหมด" สมมติว่าการปฏิบัติตามกฎของ OpenAI ทำให้ส่วนแบ่งการตลาดคงที่ แต่ก็มองข้ามข้อจำกัดระยะเวลาสัญญาและความเสี่ยงของวงจรการเมือง จดหมายของวอร์เรนอาจเป็นการแสดงออกในตอนนี้ แต่หากพรรคเดโมแครตกลับมามีอำนาจบริหาร หรือหากเกิดเหตุการณ์อาวุธสังหารอัตโนมัติขึ้น สัญญาเหล่านั้นจะกลายเป็นเป้าหมายของการฟ้องร้อง ความคลุมเครือของ OpenAI ไม่ใช่ปราการ—แต่เป็นความรับผิดที่มีชนวนระเบิดล่าช้า ไม่มีใครสังเกตเห็น: จะเกิดอะไรขึ้นกับการประเมินมูลค่าของ OpenAI หากรัฐบาลในอนาคตยกเลิกข้อตกลงเหล่านี้หรือกำหนดให้มีการตรวจสอบย้อนหลัง
"การกีดกัน Anthropic ออกจากสัญญา DOD สร้างการบั่นทอนการเติบโตของรายได้ขั้นพื้นฐานที่คุกคามการประเมินมูลค่าปัจจุบันของบริษัท"
Claude พูดถูกเกี่ยวกับ "ชนวนระเบิดล่าช้า" แต่พลาดปัจจัยกระตุ้นทางการเงินทันที: การเปลี่ยนไปของ DoD ไม่ใช่แค่เรื่องการปฏิบัติตามกฎ แต่เป็นเรื่องของขนาด การรวมระบบของ OpenAI กับโครงสร้างพื้นฐานคลาวด์ที่ถูกจำกัดสิทธิ์ของ Microsoft Azure ให้ความได้เปรียบทางเทคนิคที่ Anthropic ขาดหายไป หาก Anthropic ยังคงถูกกีดกันจากงบประมาณกลาโหมที่มากกว่า 1 แสนล้านดอลลาร์ ค่าพรีเมียมการประเมินมูลค่า—ที่ขับเคลื่อนด้วย "ความปลอดภัย"—จะพังทลายลง เนื่องจากสูญเสียลูกค้าที่มีความน่าเชื่อถือมากที่สุดในโลกไป นี่ไม่ใช่แค่ความเสี่ยงทางการเมือง แต่เป็นการบั่นทอนการเติบโตของรายได้ขั้นพื้นฐานที่จะบังคับให้ต้องลดระดับลง
"การโฮสต์คลาวด์ที่ถูกจำกัดสิทธิ์ช่วยได้ แต่สิทธิ์ตามสัญญาและการรับประกันทางกฎหมาย—ไม่ใช่แค่การโฮสต์—เป็นตัวกำหนดการผูกขาดของ DoD และมูลค่าของนักลงทุน"
Gemini: คลาวด์ที่ถูกจำกัดสิทธิ์ของ Azure เป็นข้อได้เปรียบทางเทคนิคที่แท้จริง แต่ก็ไม่ใช่ยาครอบจักรวาลตามสัญญา ข้อกำหนดของ DoD มุ่งเน้นไปที่สิทธิ์ทางกฎหมาย—น้ำหนักโมเดล การเข้าถึงการปรับแต่ง ความเป็นมา การชดใช้ค่าเสียหาย และการตรวจสอบได้—ไม่ใช่แค่ว่าโค้ดทำงานที่ไหน การปฏิบัติต่อการโฮสต์ว่าเป็นปราการมองข้ามการควบคุมการส่งออก ความรับผิด และข้อตกลงของบริษัทประกัน/ผู้ให้กู้ที่ขึ้นอยู่กับภาษาในสัญญา หากเงื่อนไขเหล่านั้นถูกโต้แย้ง การรับรู้ถึงการผูกขาดของ Microsoft/OpenAI อาจหายไปอย่างรวดเร็ว
"AWS GovCloud เทียบเท่ากับการอนุญาตของ DoD ของ Azure ทำให้โครงสร้างพื้นฐานไม่ใช่ปัญหา และเน้นย้ำถึงข้อพิพาทตามสัญญาเกี่ยวกับปราการทางเทคนิค"
Gemini: คลาวด์ที่ถูกจำกัดสิทธิ์ของ Azure ไม่ใช่ปราการที่ไม่เหมือนใคร—AWS GovCloud ของ Amazon ได้รับการอนุมัติจาก DoD ในระดับ IL5/IL6 เทียบเท่ากัน ซึ่งเป็นแบ็กเอนด์ของ Anthropic การกีดกันเกิดจากเงื่อนไขสัญญา ไม่ใช่ช่องว่างทางโครงสร้าง; ChatGPT พูดถูกเกี่ยวกับความสำคัญของกฎหมาย ข้อได้เปรียบที่ไม่ได้สังเกต: การปฏิบัติการในอิหร่านยืนยันการจดจำเป้าหมายของ AI ปลดล็อกการใช้จ่าย AI ของ DoD ที่เป็นความลับมากกว่า 1 หมื่นล้านดอลลาร์ ซึ่งเป็นผลดีต่อผู้ที่อยู่ในตลาดเดิมอย่าง MSFT/AMZN โดยไม่คำนึงถึงการเปลี่ยนผู้ขาย
คำตัดสินของคณะ
ไม่มีฉันทามติคณะกรรมการเห็นพ้องกันว่าการเคลื่อนไหวของ DOD เป็นสัญญาณของการเปลี่ยนแปลงไปสู่ผู้ขายที่ "เน้นการปฏิบัติตามกฎก่อน" โดยให้ความสำคัญกับ OpenAI มากกว่า Anthropic ความเสี่ยงหลักคือการแก้แค้นทางการเมืองและความคลุมเครือของสัญญา ในขณะที่โอกาสสำคัญอยู่ที่งบประมาณ AI ด้านกลาโหมที่เพิ่มขึ้น
งบประมาณ AI ด้านกลาโหมที่เพิ่มขึ้น
ความคลุมเครือของสัญญาและการแก้แค้นทางการเมืองที่อาจเกิดขึ้น