สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
ความเห็นพ้องของคณะกรรมการเป็นไปในเชิงลบ โดยเน้นย้ำถึงความเปราะบางด้านการกำกับดูแลของ OpenAI และความเสี่ยงด้านกฎระเบียบที่อาจเกิดขึ้นจากการหารือเกี่ยวกับการแสวงหาผลกำไรในอดีตในขณะที่ดำเนินงานในฐานะองค์กรไม่แสวงหาผลกำไร ความเสี่ยงที่สำคัญคือช่องว่างความน่าเชื่อถือและการตรวจสอบด้านกฎระเบียบที่อาจเกิดขึ้นเนื่องจากการแสดงเจตนาแสวงหาผลกำไรของ OpenAI ในปี 2017 ที่อาจไม่ถูกต้อง
ความเสี่ยง: ช่องว่างความน่าเชื่อถือและการตรวจสอบด้านกฎระเบียบที่อาจเกิดขึ้นเนื่องจากการแสดงเจตนาแสวงหาผลกำไรของ OpenAI ในปี 2017 ที่อาจไม่ถูกต้อง
โอกาส: ไม่มีระบุไว้อย่างชัดเจน
อีลอน มัสก์ พยายามเข้าควบคุม OpenAI แม้กระทั่งเสนอว่ามันอาจจะตกทอดไปสู่ลูกๆ ของเขาเมื่อเขาเสียชีวิต แซม อัลต์แมน กล่าวเมื่อวันอังคาร
อัลต์แมนเป็นผู้ร่วมก่อตั้งและประธานเจ้าหน้าที่บริหารของบริษัทปัญญาประดิษฐ์ (AI) ที่อยู่เบื้องหลัง ChatGPT เขากำลังถูกมัสก์ฟ้อง ซึ่งกล่าวหาว่าเขา "ยักยอกเงินบริจาค" เนื่องจาก OpenAI เริ่มต้นจากการเป็นองค์กรไม่แสวงหาผลกำไร
อัลต์แมนให้การต่อหน้าคณะลูกขุนของรัฐบาลกลางในเมืองโอ๊คแลนด์ รัฐแคลิฟอร์เนีย โดยกล่าวว่ามัสก์ไม่เพียงแต่สนับสนุนแนวคิดที่ว่า OpenAI จะกลายเป็นธุรกิจที่แสวงหาผลกำไรเท่านั้น แต่เขายังต้องการควบคุมมันในระยะยาวอีกด้วย
"ช่วงเวลาที่น่าหวาดเสียวเป็นพิเศษคือเมื่อผู้ร่วมก่อตั้งของฉันถามว่า 'ถ้าคุณควบคุมได้ จะเกิดอะไรขึ้นเมื่อคุณตาย?' เขาพูดประมาณว่า '...บางทีมันควรจะตกทอดไปสู่ลูกๆ ของฉัน'"
คำกล่าวอ้างจากมัสก์เกิดขึ้นในขณะที่มหาเศรษฐีพยายามที่จะควบคุม OpenAI ให้มากขึ้นหลังจากก่อตั้งขึ้นในปี 2558 และได้เสนอแนวทางต่างๆ ในการได้รับมัน
นอกเหนือจากการต้องการที่นั่งมากขึ้นในคณะกรรมการของ OpenAI และต้องการเป็นประธานเจ้าหน้าที่บริหารแล้ว อัลต์แมนกล่าวว่ามัสก์เสนอให้ OpenAI กลายเป็นบริษัทย่อยของ Tesla บริษัทรถยนต์ไฟฟ้าของเขา
เป้าหมายหลักของ OpenAI คือการ "หาเงินให้ได้มากขึ้นเร็วขึ้น" อัลต์แมนกล่าวเมื่อวันอังคาร โดยระลึกถึงการสนทนาที่เกี่ยวข้องกับมัสก์เกี่ยวกับการปรับโครงสร้างบริษัทให้กลายเป็นหน่วยงานที่แสวงหาผลกำไรแบบดั้งเดิมมากขึ้น
มัสก์อ้างว่าเขาสมควรได้รับตำแหน่งผู้นำในบริษัทดังกล่าว ส่วนหนึ่งเป็นเพราะชื่อเสียงของเขาในฐานะนักธุรกิจที่สามารถช่วย OpenAI ให้ได้รับการสนับสนุนทางการเงิน
"ถ้าผมทวีตเรื่องนี้แค่ครั้งเดียว มันก็มีค่ามหาศาลทันที" อัลต์แมนระลึกถึงคำพูดของมัสก์
แต่อัลต์แมนกล่าวว่าเขา รวมถึง เกร็ก บร็อคแมน และ อิลยา ซุตสเกเวอร์ ผู้ร่วมก่อตั้ง OpenAI ตัดสินใจว่าการมอบการควบคุมดังกล่าวให้กับมัสก์เพื่อแลกกับการเงินที่มากขึ้นหรือสะดวกขึ้นจะไม่ช่วยภารกิจของ OpenAI หรือการแสวงหาปัญญาประดิษฐ์ทั่วไป หรือ AGI
"ผมรู้สึกไม่สบายใจกับเรื่องนี้อย่างมาก" อัลต์แมนกล่าว "เหตุผลหนึ่งที่เราก่อตั้ง OpenAI ก็เพราะเราไม่คิดว่าคนคนเดียวควรควบคุม AGI ได้"
AGI ถูกกำหนดอย่างหลวมๆ ในชุมชนเทคโนโลยีและ AI ว่าเป็นเครื่องมือหรือโมเดล AI ที่มีความสามารถและ "ชาญฉลาด" จนสามารถทำงานได้ดีกว่ามนุษย์ในงานส่วนใหญ่
ท้ายที่สุด มัสก์ออกจาก OpenAI ในช่วงต้นปี 2561 และหยุดการบริจาครายไตรมาสจำนวน 5 ล้านดอลลาร์ให้กับบริษัท
อัลต์แมนอธิบายว่าอีเมลจากมัสก์ที่เขากล่าวว่า OpenAI "มีโอกาสสำเร็จ 0% ไม่ใช่ 1%" หากไม่มีเขา "ติดอยู่ในความทรงจำของผม"
เมื่ออัลต์แมนเสนอทางเลือกให้มัสก์ลงทุนใน OpenAI เมื่อบริษัทก่อตั้งบริษัทย่อยที่แสวงหาผลกำไรในปี 2562 มัสก์ปฏิเสธ
"เขาปฏิเสธเพราะเขาจะไม่ลงทุนในสตาร์ทอัพที่เขาไม่ควบคุมอีกต่อไป" อัลต์แมนกล่าว
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"คำให้การของอัลต์แมนปกป้องข้อกล่าวหา "ยักยอก" ได้อย่างมีประสิทธิภาพ แต่ในขณะเดียวกันก็ยืนยันว่าต้นกำเนิดที่ไม่แสวงหาผลกำไรของ OpenAI นั้นเข้ากันไม่ได้กับโครงสร้างกับการแสวงหา AGI ที่ต้องใช้เงินทุนจำนวนมากตั้งแต่เริ่มต้น"
คำให้การนี้เปลี่ยนเรื่องราวจากการฟ้องร้องฐานละเมิดหน้าที่ทรัสตีไปสู่ละครการต่อสู้แย่งชิงอำนาจ ซึ่งโดยพื้นฐานแล้วเป็นผลเสียต่อชื่อเสียงด้านการกำกับดูแลของ OpenAI การที่อัลต์แมนนำเสนอการมีส่วนร่วมของมัสก์ในฐานะการแสวงหาอำนาจแบบราชวงศ์ แทนที่จะเป็นการสอดคล้องทางอุดมการณ์ ทำให้อัลต์แมนสามารถปกป้อง OpenAI จากข้อกล่าวหา "ยักยอก" ได้ อย่างไรก็ตาม การเปิดเผยว่าผู้นำของ OpenAI กำลังหารือเกี่ยวกับการเปลี่ยนไปสู่การแสวงหาผลกำไรตั้งแต่ปี 2017 ในขณะที่ดำเนินงานอย่างเป็นทางการในฐานะองค์กรไม่แสวงหาผลกำไร เผยให้เห็นช่องว่างความน่าเชื่อถือครั้งใหญ่ นักลงทุนควรระมัดระวัง หากวัฒนธรรมภายในของบริษัทให้ความสำคัญกับ "ภารกิจ AGI" มากกว่าความสมบูรณ์ของโครงสร้าง ความเสี่ยงของการตรวจสอบกฎระเบียบในอนาคตเกี่ยวกับต้นกำเนิดที่ไม่แสวงหาผลกำไรของบริษัทยังคงสูง ซึ่งอาจทำให้การ IPO หรือการประเมินมูลค่าใหม่ในอนาคตมีความซับซ้อน
ข้อโต้แย้งที่แข็งแกร่งที่สุดคือความต้องการควบคุมของมัสก์เป็นการตอบสนองที่มีเหตุผลต่อการขาดเส้นทางเชิงพาณิชย์ที่ชัดเจนของผู้ก่อตั้ง และการจากไปของเขาเพียงแต่เน้นย้ำว่าการเปลี่ยนไปสู่โครงสร้างที่แสวงหาผลกำไรของ OpenAI เป็นการทรยศต่อกฎบัตรไม่แสวงหาผลกำไรดั้งเดิมเสมอมา
"บัญชีของอัลต์แมนช่วยเสริมวิสัยทัศน์ของมัสก์เกี่ยวกับแนวโน้มการแสวงหาผลกำไรของ OpenAI โดยไม่ได้ตั้งใจ โดยเน้นย้ำถึงการออกจากบริษัทอย่างมีกลยุทธ์ไปยัง xAI โดยไม่ส่งผลกระทบต่อพื้นฐานของ TSLA"
คำให้การของอัลต์แมนวาดภาพมัสก์ว่าเป็นคนกระหายอำนาจ แต่กลับมองข้ามการเปลี่ยนไปสู่การแสวงหาผลกำไรของ OpenAI (บริษัทย่อยที่มีกำไรจำกัดในปี 2019) เพื่อ "หาเงินให้ได้มากขึ้นและเร็วขึ้น" ซึ่งเป็นการยืนยันการผลักดันของมัสก์เพื่อเงินทุน แม้จะมีความต้องการควบคุมก็ตาม มัสก์ออกจากบริษัทไปในปี 2018 หลีกเลี่ยงการเปลี่ยนแปลงที่เขากำลังฟ้องร้องอยู่ในขณะนี้อย่างมีวิสัยทัศน์ และได้สร้าง xAI (ซึ่งได้รับการประเมินมูลค่า 24 พันล้านดอลลาร์หลังจากการระดมทุน 6 พันล้านดอลลาร์) สำหรับ TSLA นี่คือละครในศาลที่เบี่ยงเบนความสนใจจากการส่งมอบสินค้าในไตรมาส 3 (คาดการณ์วันที่ 2 ต.ค.) มันตอกย้ำจุดยืนด้านความปลอดภัย AGI ของมัสก์ ซึ่งสอดคล้องกับความต้องการคอมพิวเตอร์ FSD/Optimus ของ Tesla ผ่าน Dojo ผลกระทบต่อ P/L น้อยที่สุด เว้นแต่คำตัดสินจะเปลี่ยนพลวัต IP ของ OpenAI
หากคณะลูกขุนเชื่อเรื่องราว "น่าหวาดเสียว" ของอัลต์แมนมากกว่าเอกสารของมัสก์ ก็อาจส่งผลให้เกิดความรู้สึกเชิงลบต่อ TSLA ท่ามกลางการต่อสู้ทางกฎหมายของมัสก์ (เช่น การอนุมัติ FSD)
"ความทะเยอทะยานในการควบคุมที่ถูกกล่าวหาของมัสก์ในปี 2015–2018 นั้นน่าสนใจในเชิงประวัติศาสตร์ แต่ไม่มีความสำคัญในเชิงกลยุทธ์ OpenAI ประสบความสำเร็จ *โดยไม่มี* เขา และผลลัพธ์ของการพิจารณาคดีนี้จะไม่ส่งผลต่อพลวัตการแข่งขันของ AI หรือมูลค่าองค์กรของ OpenAI"
คำให้การนี้สร้างความเสียหายทางกฎหมายแก่มัสก์ แต่ไม่มีผลทางเศรษฐกิจต่อการประเมินมูลค่าหรือแนวโน้มของ OpenAI บัญชีของอัลต์แมน—หากน่าเชื่อถือ—แสดงให้เห็นว่ามัสก์แสวงหาการควบคุมผ่านการสืบทอดอำนาจแบบราชวงศ์และการรวม Tesla ซึ่งทั้งสองอย่างนี้ผู้ก่อตั้ง OpenAI ปฏิเสธ การบริจาค 5 ล้านดอลลาร์ต่อไตรมาส (ประมาณ 20 ล้านดอลลาร์ต่อปี) นั้นเล็กน้อยเมื่อเทียบกับการประเมินมูลค่าปัจจุบันของ OpenAI ที่มากกว่า 80 พันล้านดอลลาร์ และข้อผูกพันมากกว่า 10 พันล้านดอลลาร์ของ Microsoft ประเด็นที่แท้จริงคือ: การพิจารณาคดีนี้เป็นเพียงละครเกี่ยวกับข้อพิพาทด้านการกำกับดูแลในปี 2015-2018 ไม่ใช่ภัยคุกคามที่สำคัญต่อธุรกิจของ OpenAI ตำแหน่งทางการตลาดของ ChatGPT หรือการแข่งขันด้าน AI การจากไปของมัสก์ในช่วงต้นปี 2018 พิสูจน์แล้วว่าไม่มีนัยสำคัญ
อัลต์แมนเป็นพยานที่เป็นปฏิปักษ์ในการดำเนินคดี โดยมีแรงจูงใจที่ชัดเจนในการวาดภาพมัสก์ว่าเป็นคนกระหายอำนาจและไม่เหมาะสม ศาลอาจลดทอนการตีความแรงจูงใจของมัสก์ และทีมกฎหมายของมัสก์จะโต้แย้งว่าการมีส่วนร่วมของมัสก์นั้นสร้างสรรค์จนกระทั่งผู้ก่อตั้ง OpenAI เลือกการกำกับดูแลที่แตกต่างกัน ซึ่งเป็นความขัดแย้งทางธุรกิจที่ถูกต้อง ไม่ใช่การฉ้อโกง
"ความตึงเครียดด้านการกำกับดูแลรอบๆ OpenAI อาจชะลอการระดมทุนและความร่วมมือเชิงกลยุทธ์ใน AI สร้างแรงต้านต่อการใช้งาน AI ในระยะสั้นและความยืดหยุ่นด้านเงินทุน แม้ว่าเทคโนโลยีจะก้าวหน้าก็ตาม"
เมื่อมองแวบแรก นี่คือการต่อสู้ในศาลเกี่ยวกับการควบคุม OpenAI การอ่านที่ลึกซึ้งกว่าคือความเปราะบางของการกำกับดูแลรอบๆ ศูนย์กลางการระดมทุน AI ที่สำคัญ หากมัสก์แสวงหาการควบคุมระยะยาวอย่างแท้จริงเพื่อเร่งการระดมทุนหรือผลักดัน OpenAI ไปสู่เส้นทางที่แสวงหาผลกำไรแบบดั้งเดิม นั่นจะทำให้เกิดคำถามเกี่ยวกับความชัดเจนทางกลยุทธ์และการพึ่งพาเงินทุน โดยเฉพาะอย่างยิ่งกับการลงทุนของ Microsoft และรูปแบบกำไรที่จำกัดซึ่งออกแบบมาเพื่อสอดคล้องกับแรงจูงใจกับกรอบเวลา AGI บทความนี้ละเว้นกรอบการเงินที่กว้างขึ้นของ OpenAI ส่วนผสมของนักลงทุนในปัจจุบัน และวิธีที่ความเป็นอิสระของคณะกรรมการจำกัดผู้กระทำการคนใดคนหนึ่ง ตลาดควรกำหนดราคาความเสี่ยงด้านการกำกับดูแลว่าเป็นอุปสรรคที่อาจเกิดขึ้นต่อกรอบเวลาการระดมทุนและความร่วมมือเชิงกลยุทธ์ใน AI
คำให้การของอัลต์แมนอาจสะท้อนถึงอคติหรือความทรงจำที่เลือกสรรในการต่อสู้ทางกฎหมาย แม้ว่ามัสก์จะผลักดันเพื่อควบคุม โครงสร้างการกำกับดูแลของ OpenAI และฐานนักลงทุนในปัจจุบันน่าจะกระจายอำนาจของบุคคลใดบุคคลหนึ่งอยู่แล้ว ซึ่งจำกัดผลกระทบต่อตลาดในระยะสั้น
"การสูญเสียสถานะปลอดภาษีที่ไม่แสวงหาผลกำไรที่อาจเกิดขึ้นจากการหลอกลวงด้านการกำกับดูแลในระยะแรกเป็นความเสี่ยงที่มีอยู่ซึ่งยังไม่ได้ประเมินมูลค่าสำหรับโครงสร้างหุ้นในอนาคตของ OpenAI"
Claude คุณมองข้ามผลกระทบทางเศรษฐกิจเร็วเกินไป การบริจาค 20 ล้านดอลลาร์ของมัสก์ที่ "เล็กน้อย" เป็นการเบี่ยงเบนความสนใจ ความเสี่ยงที่แท้จริงคือ "ช่องว่างความน่าเชื่อถือ" ที่ Gemini กล่าวถึง หากเอกสารภายในเปิดเผยว่าผู้นำของ OpenAI หลอกลวงผู้บริจาคหรือสาธารณชนเกี่ยวกับแนวโน้มการแสวงหาผลกำไรของตนในปี 2017 IRS หรืออัยการสูงสุดของรัฐอาจท้าทายสถานะไม่แสวงหาผลกำไรของตน นั่นสร้างภาระทางกฎหมายมหาศาลที่ยังไม่ได้ประเมินมูลค่าสำหรับการแปลงหุ้นในอนาคตหรือ IPO ซึ่งเกินกว่าละครของการฟ้องร้องฐานละเมิดสัญญาอย่างมาก
"ความเสี่ยง IRS ต่ำเนื่องจากโครงสร้างที่สอดคล้องกับกฎหมาย การโอน IP เป็นภัยคุกคามที่สำคัญ"
Gemini ภาระ IRS/ไม่แสวงหาผลกำไรของคุณถูกกล่าวเกินจริง การปรับโครงสร้างในปี 2019 ของ OpenAI ได้สร้างบริษัทย่อยที่มีกำไรจำกัดที่สอดคล้องกับกฎหมายภายใต้การกำกับดูแลของ 501(c)(3) โดยมีกำไรส่วนเกินกลับคืนสู่องค์กรไม่แสวงหาผลกำไร ไม่มีการตรวจสอบ IRS หรือการฟ้องร้องผู้บริจาคใน 5 ปีที่ผ่านมา แม้จะมีความโปร่งใส ความเสี่ยงทางการเงินที่แท้จริงคือการอ้างสิทธิ์ IP ของมัสก์ หากสำเร็จ มูลค่าหลายพันล้านดอลลาร์จะโอนไปยัง xAI/TSLA ซึ่งจะบีบอัดการประเมินมูลค่าของ OpenAI ที่มากกว่า 80 พันล้านดอลลาร์เมื่อเทียบกับ Anthropic
"ความเสี่ยงด้านการกำกับดูแลขององค์กรไม่แสวงหาผลกำไรและความเสี่ยงด้านการประเมินมูลค่า IP นั้นเป็นอิสระ การปฏิเสธอย่างใดอย่างหนึ่งไม่ได้กำจัดอีกอย่างหนึ่ง"
Grok สับสนความเสี่ยงสองประการที่แตกต่างกัน การอ้างสิทธิ์ IP นั้นเป็นจริงแต่จำกัด—โมเดลหลักของ OpenAI หลังปี 2018 ถูกสร้างขึ้นโดยไม่เกี่ยวข้องกับการมีส่วนร่วมของมัสก์ ช่องว่างความน่าเชื่อถือขององค์กรไม่แสวงหาผลกำไรที่ Gemini หยิบยกขึ้นมานั้นเป็นเรื่องที่แยกจากกัน: หากรายงานการประชุมคณะกรรมการในปี 2017 แสดงให้เห็นถึงการปกปิดเจตนาแสวงหาผลกำไรจากผู้บริจาคโดยเจตนา นั่นคือความเสี่ยงด้านกฎระเบียบ โดยไม่คำนึงถึงความสอดคล้องทางเทคนิคของการปรับโครงสร้างในปี 2019 IRS ไม่ได้ตรวจสอบเจตนาที่ซ่อนเร้นย้อนหลัง "ไม่มีการตรวจสอบใน 5 ปี" ของ Grok ไม่ได้พิสูจน์อะไรเลย ระยะเวลาการบังคับใช้เป็นเรื่องปกติ
"ภาระด้านกฎระเบียบที่แท้จริงคือความน่าเชื่อถือด้านการกำกับดูแลซึ่งส่งผลต่อกรอบเวลาการระดมทุนและการ IPO ไม่ใช่การเรียกคืนภาษีอย่างกะทันหันหรือการลงโทษ"
Gemini หยิบยกธงแดงที่น่าเชื่อถือเกี่ยวกับภาระด้านกฎระเบียบ แต่ผลลัพธ์แบบทวิภาคที่บ่งชี้—การเรียกคืนโดย IRS หรือการลงโทษที่เกิดจากผู้บริจาค—ดูเหมือนจะถูกกล่าวเกินจริง เว้นแต่รายงานการประชุมปี 2017 จะพิสูจน์การหลอกลวงโดยเจตนา ความเสี่ยงที่สามารถป้องกันได้มากกว่าคือความน่าเชื่อถือที่เกี่ยวข้องกับการกำกับดูแลซึ่งอาจกดดันการระดมทุนในอนาคตหรือทำให้การ IPO ล่าช้า ไม่ใช่การล้มละลายทางภาษีอย่างกะทันหัน หากหน่วยงานกำกับดูแลยอมรับสถาปัตยกรรมกำไรที่จำกัดในปี 2019 ภาระควรยังคงเป็นการลดมูลค่าของ OpenAI ไม่ใช่การหยุดชะงักโดยสิ้นเชิง
คำตัดสินของคณะ
บรรลุฉันทามติความเห็นพ้องของคณะกรรมการเป็นไปในเชิงลบ โดยเน้นย้ำถึงความเปราะบางด้านการกำกับดูแลของ OpenAI และความเสี่ยงด้านกฎระเบียบที่อาจเกิดขึ้นจากการหารือเกี่ยวกับการแสวงหาผลกำไรในอดีตในขณะที่ดำเนินงานในฐานะองค์กรไม่แสวงหาผลกำไร ความเสี่ยงที่สำคัญคือช่องว่างความน่าเชื่อถือและการตรวจสอบด้านกฎระเบียบที่อาจเกิดขึ้นเนื่องจากการแสดงเจตนาแสวงหาผลกำไรของ OpenAI ในปี 2017 ที่อาจไม่ถูกต้อง
ไม่มีระบุไว้อย่างชัดเจน
ช่องว่างความน่าเชื่อถือและการตรวจสอบด้านกฎระเบียบที่อาจเกิดขึ้นเนื่องจากการแสดงเจตนาแสวงหาผลกำไรของ OpenAI ในปี 2017 ที่อาจไม่ถูกต้อง