สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
คณะกรรมการโดยทั่วไปเห็นด้วยว่าการประท้วงไม่น่าจะหยุดการพัฒนา AI ได้ แต่เน้นย้ำถึงความกังวลที่เพิ่มขึ้นเกี่ยวกับความปลอดภัยของ AI และความเข้มข้นของการประมวลผล พวกเขาไม่เห็นด้วยกับผลกระทบที่อาจเกิดขึ้นต่อบริษัทฮาร์ดแวร์และซอฟต์แวร์ AI โดยบางส่วนมองเห็นผลกระทบเชิงลบเนื่องจากกฎระเบียบที่อาจเกิดขึ้น และบางส่วนเชื่อว่าตลาดจะปรับตัวและสร้างสรรค์นวัตกรรม
ความเสี่ยง: กฎระเบียบที่อาจเกิดขึ้นซึ่งจำกัดการใช้ฮาร์ดแวร์สำหรับการฝึกอบรม (ข้อจำกัดการประมวลผล) อาจส่งผลกระทบต่อบริษัทฮาร์ดแวร์ AI เช่น NVIDIA และผู้ให้บริการคลาวด์ เช่น Microsoft และ Google
โอกาส: ความชัดเจนด้านกฎระเบียบที่เพิ่มขึ้นเกี่ยวกับความปลอดภัยของ AI และการใช้การประมวลผลอาจเอื้อประโยชน์ต่อผู้ที่มีอำนาจซึ่งสามารถรับภาระค่าใช้จ่ายในการปฏิบัติตามข้อกำหนดและรักษาลูกค้าไว้
ผู้ประท้วงรวมตัวนอกสำนักงาน OpenAI, Anthropic และ xAI ท่ามกลางความกังวลในอุตสาหกรรม
เขียนโดย Jason Nelson ผ่านทาง decrypt.co,
โดยสรุป
ผู้ประท้วง 200 คนเดินขบวนจาก Anthropic ไปยังสำนักงาน OpenAI และ xAI ในซานฟรานซิสโก
นักเคลื่อนไหวเรียกร้องให้บริษัท AI หยุดการพัฒนาโมเดล AI แนวหน้าใหม่
Michael Trazzi ผู้จัดงานเคยอดอาหารประท้วงนอก Google DeepMind เป็นเวลาหลายสัปดาห์
ผู้ประท้วงออกมาชุมนุมบนท้องถนนในซานฟรานซิสโกเมื่อวันเสาร์ โดยหยุดที่หน้าสำนักงานของ Anthropic, OpenAI และ xAI เพื่อเรียกร้องให้มีการระงับการพัฒนาปัญญาประดิษฐ์ที่ทรงพลังมากขึ้นอย่างมีเงื่อนไข
Michael Trazzi ผู้ก่อตั้ง Stop the AI Race และนักทำสารคดี กล่าวว่ามีผู้ประท้วงประมาณ 200 คนเข้าร่วมการเดินขบวน
ผู้เข้าร่วมประกอบด้วยนักวิจัย นักวิชาการ และสมาชิกของกลุ่มรณรงค์ เช่น Machine Intelligence Research Institute, PauseAI, QuitGPT, StopAI และ Evitable
“มีคนจำนวนมากที่กังวลเกี่ยวกับความเสี่ยงจากระบบ AI ขั้นสูงเหล่านี้” Trazzi กล่าวกับ Decrypt “การที่ทุกคนเดินขบวนไปด้วยกันแสดงให้เห็นว่าผู้คนไม่ได้คิดเรื่องนี้อยู่เพียงลำพัง มีคนจำนวนมากที่ใส่ใจเรื่องนี้”
การเดินขบวนเริ่มขึ้นเมื่อเวลาเที่ยงวันนอกสำนักงานของ Anthropic จากนั้นจึงไปยัง OpenAI และ xAI ที่แต่ละจุด นักเคลื่อนไหวและวิทยากรจากองค์กรที่เข้าร่วมได้กล่าวปราศรัยต่อผู้ประท้วง
ตามคำกล่าวของ Trazzi การประท้วงมีเป้าหมายเพื่อผลักดันให้บริษัท AI ตกลงที่จะระงับการสร้างโมเดล AI ที่ทรงพลังยิ่งขึ้นอย่างประสานงานกัน และทำสนธิสัญญากับนักพัฒนา AI ในประเทศอื่น ๆ เพื่อดำเนินการเช่นเดียวกัน
“หากจีนและสหรัฐอเมริกาตกลงที่จะหยุดสร้างโมเดลที่อันตรายยิ่งขึ้น พวกเขาก็สามารถมุ่งเน้นไปที่การทำให้ระบบดีขึ้นสำหรับเรา เช่น AI ทางการแพทย์” เขากล่าว “ทุกคนจะได้รับประโยชน์”
ข้อเสนอของ Stop the AI Race เรียกร้องให้บริษัทต่าง ๆ หยุดสร้างโมเดลแนวหน้าใหม่และเปลี่ยนไปทำงานด้านความปลอดภัย หากห้องปฏิบัติการหลักอื่น ๆ "ทำเช่นเดียวกันอย่างน่าเชื่อถือ" ซึ่ง Trazzi กล่าวว่าทำให้การประท้วงหน้าสำนักงานห้องปฏิบัติการ AI มีความสำคัญมากขึ้น
การต่อต้านอย่างต่อเนื่อง
การประท้วงนี้เป็นความพยายามล่าสุดในชุดความพยายามที่จะขัดขวางการพัฒนา AI
ในเดือนมีนาคม 2023 สถาบัน Future of Life ได้เผยแพร่จดหมายเปิดผนึกเรียกร้องให้มีการระงับการปรับปรุงเครื่องมือ AI ชั้นนำเพิ่มเติม หลังจากการเปิดตัว ChatGPT ต่อสาธารณะในปีก่อนหน้า
ผู้ลงนาม ได้แก่ Elon Musk ผู้ก่อตั้ง xAI, Steve Wozniak ผู้ร่วมก่อตั้ง Apple และ Chris Larsen ผู้ร่วมก่อตั้ง Ripple นับตั้งแต่นั้นมา จดหมายเปิดผนึก “Pause Giant AI Experiments” ได้รับลายเซ็นมากกว่า 33,000 รายการ
ในเดือนกันยายน Trazzi ได้อดอาหารประท้วงเป็นเวลาหนึ่งสัปดาห์นอกสำนักงาน Google DeepMind ในลอนดอน ขณะที่ Guido Reichstadter อดอาหารประท้วงคู่ขนานนอกสำนักงาน Anthropic ในซานฟรานซิสโก
เจ้าหน้าที่รัฐบาลและผู้สนับสนุนการพัฒนา AI อย่างต่อเนื่อง โต้แย้งว่าการชะลอการวิจัยในสหรัฐอเมริกาอาจทำให้คู่แข่งในต่างประเทศได้เปรียบ
เมื่อสัปดาห์ที่แล้ว ฝ่ายบริหารของทรัมป์ได้เผยแพร่กรอบการทำงาน AI ของตนเพื่อกำหนดมาตรฐานระดับชาติสำหรับกฎหมายที่ควบคุมการพัฒนา AI ทำเนียบขาวได้นำเสนอว่าเป็นความมุ่งมั่นในการ "ชนะการแข่งขัน AI"
“แม้ว่าคุณจะอยู่ในประเทศจีนหรือประเทศใดในโลกก็ตาม ไม่มีใครต้องการระบบที่พวกเขาควบคุมไม่ได้” Trazzi กล่าว “เนื่องจากเรากำลังแข่งขันกันระหว่างบริษัทและประเทศต่าง ๆ เพื่อสร้างระบบให้เร็วที่สุดเท่าที่จะทำได้ เราจึงกำลังลัดขั้นตอนและลดหย่อนด้านความปลอดภัย มีการแข่งขันที่ไม่มีผู้ชนะ สิ่งที่เรามีคือระบบที่เราควบคุมไม่ได้ และนั่นคือเหตุผลที่เรียกว่าการแข่งขันเพื่อการฆ่าตัวตาย”
แต่แม้ว่านักพัฒนา AI จะตกลงที่จะระงับการพัฒนา การตรวจสอบก็อาจจะง่ายกว่าที่คิด Trazzi เสนอวิธีหนึ่งในการตรวจสอบการระงับคือการจำกัดพลังการประมวลผลที่ใช้ในการฝึกโมเดลใหม่
“หากคุณจำกัดว่าบริษัทจะใช้พลังการประมวลผลเท่าใดในการสร้างระบบเหล่านี้ คุณก็แทบจะจำกัดการพัฒนารูปแบบใหม่ได้แล้ว” เขากล่าว
หลังจากการประท้วงในซานฟรานซิสโก Trazzi กล่าวว่าอาจมีการประท้วงเพิ่มเติมในสถานที่อื่น ๆ ที่บริษัท AI รายใหญ่ดำเนินงานอยู่
“เราต้องการไปปรากฏตัวที่ที่พนักงานอยู่” เขากล่าว “เราต้องการพูดคุยกับพวกเขา และเราต้องการให้พวกเขาพูดคุยกับผู้นำของพวกเขา และให้สิ่งต่าง ๆ เคลื่อนไหวจากภายใน” โดยเสริมว่าผู้แจ้งเบาะแสจะมีอำนาจในระดับหนึ่งเพราะ “พวกเขาคือผู้ที่สร้างมันขึ้นมา”
OpenAI, Anthropic และ xAI ไม่ได้ตอบสนองต่อคำร้องขอความคิดเห็นของ Decrypt ในทันที
* * *ดำเนินการด่วน!
Tyler Durden
อังคาร, 03/24/2026 - 13:05
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"การหยุดชั่วคราวสำหรับ AI ที่ล้ำสมัยต้องการการบังคับใช้ระหว่างประเทศที่มีผลผูกพันซึ่งไม่มีอยู่จริงและขัดแย้งกับนโยบายของสหรัฐฯ ที่ระบุไว้ — ทำให้การประท้วงนี้เป็นสัญญาณของความกังวลของนักเคลื่อนไหว ไม่ใช่ความเสี่ยงทางธุรกิจที่เป็นรูปธรรม"
การประท้วงนี้มีขนาดใหญ่ในเชิงละคร (200 คน) แต่ไร้พิษสงในเชิงโครงสร้าง ข้อเรียกร้อง 'หยุด' ต้องการการปฏิบัติตามข้อกำหนดทั่วโลกที่ประสานงานกันโดยไม่มีกลไกการบังคับใช้ใดๆ — ข้อเสนอการจำกัดการประมวลผลของ Trazzi เป็นการฆ่าตัวตายฝ่ายเดียวสำหรับบริษัทใดก็ตามที่ยอมรับในขณะที่คู่แข่งไม่ยอมรับ บทความนี้มองว่าเป็นการต่อต้านที่มั่นคง แต่ลายเซ็น 33,000 รายการในจดหมายปี 2023 และการอดอาหารประท้วงเป็นครั้งคราวไม่ได้ส่งผลต่อความเร็วในการพัฒนาโมเดล สิ่งที่เกี่ยวข้องมากกว่า: ฝ่ายบริหารของทรัมป์เพิ่งเผยแพร่กรอบการทำงาน AI ที่กำหนดไว้อย่างชัดเจนเกี่ยวกับ 'การชนะการแข่งขัน' ซึ่งส่งสัญญาณการปฏิเสธของนโยบายสหรัฐฯ ต่อตรรกะการหยุดชั่วคราว สำหรับตลาดตราสารทุน นี่เป็นเพียงเสียงรบกวน — การประท้วงไม่ได้ส่งผลต่อการตัดสินใจ capex ที่ NVDA, MSFT หรือผู้สนับสนุนของ Anthropic
หากการลาออกของผู้แจ้งเบาะแสเร่งตัวขึ้นหรือเหตุการณ์ด้านความปลอดภัยเพิ่มขึ้น แรงกดดันภายในอาจบังคับให้เกิดการเปลี่ยนแปลงการกำกับดูแลที่แท้จริงซึ่งจะชะลอการเปิดตัวโมเดลที่ล้ำสมัย — และนั่น *จะ* ส่งผลกระทบต่อ capex AI ระยะสั้นและความเชื่อมั่นรอบๆ NVDA/MSFT
"การผลักดันให้มีการจำกัดการประมวลผลเป็นความเสี่ยงที่สำคัญซึ่งอาจจำกัด ROI ในการลงทุนโครงสร้างพื้นฐาน AI ขนาดใหญ่"
การประท้วงนี้เน้นย้ำถึงขบวนการ 'ความปลอดภัยต้องมาก่อน' ที่กำลังเติบโต ซึ่งคุกคามมูลค่าพรีเมียมของผู้นำ AI เช่น OpenAI และ Anthropic แม้ว่าผู้ประท้วง 200 คนจะไม่สามารถหยุดการแข่งขันมูลค่าหลายล้านล้านดอลลาร์ได้ แต่การมีส่วนร่วมของ Machine Intelligence Research Institute และผู้แจ้งเบาะแสบ่งชี้ถึงความเสี่ยงด้านกฎระเบียบที่เพิ่มขึ้น ภัยคุกคามที่แท้จริงไม่ใช่การเดินขบวน แต่เป็น 'ข้อจำกัดการประมวลผล' ที่เสนอ (การจำกัดการใช้ฮาร์ดแวร์สำหรับการฝึก) หากนักเคลื่อนไหวประสบความสำเร็จในการล็อบบี้การกำกับดูแลตามการประมวลผล การลงทุน CAPEX (ค่าใช้จ่ายฝ่ายทุน) จำนวนมหาศาลโดย Microsoft (MSFT) และ Nvidia (NVDA) อาจเผชิญกับผลตอบแทนที่ลดลง เรากำลังเห็นการกำเนิดของขบวนการ 'สไตล์ ESG' ที่มุ่งเป้าไปที่ความเข้มข้นของการประมวลผล AI และความเสี่ยงต่อการดำรงอยู่ ซึ่งอาจนำไปสู่กฎหมายที่จำกัดคล้ายกับ EU AI Act
การประท้วงเหล่านี้อาจทำหน้าที่เป็นสัญญาณ 'เชิงบวก' ของความก้าวหน้า เนื่องจากนักเคลื่อนไหวจะกำหนดเป้าหมายเฉพาะเทคโนโลยีที่พวกเขาเชื่อว่าใกล้จะมีความสามารถในการเปลี่ยนแปลงและ 'ล้ำสมัย' นอกจากนี้ กรอบการทำงาน 'การชนะการแข่งขัน AI' ของฝ่ายบริหารทรัมป์ยังบ่งชี้ว่าข้อกังวลด้านความปลอดภัยในระดับรากหญ้าจะมีความสำคัญรองจากความมั่นคงของชาติและการแข่งขันทางภูมิรัฐศาสตร์
"การเคลื่อนไหวที่มองเห็นได้ซึ่งนำไปสู่กฎระเบียบอย่างเป็นทางการจะเอื้อประโยชน์ต่อผู้จำหน่ายคลาวด์และ GPU รายใหญ่เป็นพิเศษ ในขณะเดียวกันก็เพิ่มแรงเสียดทานและข้อกำหนดด้านเงินทุนสำหรับสตาร์ทอัพ AI ขนาดเล็ก"
การเดินขบวน 200 คนมีความสำคัญเชิงสัญลักษณ์ แต่เล็กน้อยในทางปฏิบัติ — การประท้วงเพียงอย่างเดียวจะไม่หยุดการพัฒนาโมเดลที่ล้ำสมัย บทความนี้เน้นย้ำถึงเรื่องราวที่ยั่งยืน: นักเคลื่อนไหวต้องการการหยุดชั่วคราวที่ประสานงานกันและข้อจำกัดการประมวลผล และพวกเขากำลังกำหนดเป้าหมายวิทยาเขตของนักพัฒนา (Anthropic, OpenAI, xAI) นั่นอาจผลักดันผู้กำหนดนโยบายไปสู่กฎที่ชัดเจนยิ่งขึ้นเกี่ยวกับการประมวลผล การตรวจสอบความปลอดภัย และการควบคุมการส่งออก การตรวจสอบทำได้ยาก — การวัด 'การหยุดชั่วคราว' ผ่านข้อจำกัดการประมวลผลนั้นซับซ้อนทางเทคนิคและหลีกเลี่ยงได้ง่ายหากไม่มีการประสานงานทั่วโลก ผลกระทบต่อตลาดในระยะสั้นนั้นมีจำกัด แต่ความชัดเจนด้านกฎระเบียบในระยะกลางจะเอื้อประโยชน์ต่อผู้ที่ครอบครองอำนาจ (ผู้ให้บริการคลาวด์และซัพพลายเออร์ GPU) ที่สามารถรับภาระค่าใช้จ่ายในการปฏิบัติตามข้อกำหนดและรักษาลูกค้าไว้ ในขณะที่ห้องปฏิบัติการขนาดเล็กต้องเผชิญกับความเสี่ยงด้านเงินทุนและการเข้าถึง
หากรัฐบาลยอมรับข้อจำกัดการประมวลผลที่เข้มงวดหรือการควบคุมการส่งออก ผู้ที่มีอำนาจ เช่น NVIDIA และผู้ให้บริการคลาวด์รายใหญ่ อาจเผชิญกับแรงกดดันด้านรายได้ที่สำคัญ ในทางกลับกัน การประท้วงอาจส่งผลย้อนกลับโดยการเร่งนโยบาย "ชนะการแข่งขัน AI" ของชาตินิยมที่เพิ่มเงินทุนให้กับห้องปฏิบัติการในประเทศ
"ผู้ประท้วง 200 คนส่งสัญญาณว่าไม่มีภัยคุกคามต่อการสร้าง AI ที่ขับเคลื่อนด้วยภูมิรัฐศาสตร์และ capex มูลค่าหลายล้านล้านดอลลาร์"
การประท้วงของนักเคลื่อนไหวประมาณ 200 คนนอกห้องปฏิบัติการ AI เอกชน (OpenAI, Anthropic, xAI) นี้เป็นเพียงเสียงรบกวนเล็กน้อยท่ามกลางการลงทุน AI ประจำปีมากกว่า 200 พันล้านดอลลาร์จากผู้ให้บริการ hyperscalers เช่น MSFT, AMZN, GOOG ความพยายาม 'หยุด' ในอดีต (จดหมาย FLI ปี 2023 พร้อมลายเซ็น 33,000 รายการ) ล้มเหลวอย่างน่าอัศจรรย์เนื่องจากรายได้ศูนย์ข้อมูลของ NVDA เพิ่มขึ้น 409% YoY ใน Q4'24 ข้อเสนอข้อจำกัดการประมวลผลของ Trazzi ไม่สนใจนโยบายของสหรัฐฯ (กรอบการทำงาน AI ของทรัมป์) ที่ให้ความสำคัญกับการแข่งขันกับจีน ไม่เห็นผลกระทบต่อตลาด หุ้นกลุ่มเซมิคอนดักเตอร์/AI เพิ่มขึ้น 50%+ YTD ผลกระทบอันดับสอง: อาจเพิ่มการสรรหาบุคลากรของ xAI ผ่านเรื่องราวการต่อต้านของ Musk
หากการประท้วงขยายตัวและกดดันฝ่ายบริหารของ Biden/Trump ให้มีกฎระเบียบด้านการประมวลผล (เช่น EU AI Act) ก็จะจำกัด FLOPs ในการฝึก ลดความต้องการ GPU ของ NVDA/AMD ลง 20-30%
"ข้อจำกัดการประมวลผลคุกคามรูปแบบรายได้หลักของซัพพลายเออร์ GPU มากกว่าที่จะเสริมสร้างความแข็งแกร่งให้กับผู้ที่มีอำนาจในคลาวด์"
ChatGPT ชี้ให้เห็นถึงความชัดเจนด้านกฎระเบียบที่เอื้อประโยชน์ต่อผู้ที่มีอำนาจ แต่พลาดความไม่สมดุล: ข้อจำกัดการประมวลผลส่งผลกระทบต่อ TAM มูลค่า 200 พันล้านดอลลาร์ของ NVIDIA มากกว่าที่จะช่วยเพิ่มอัตรากำไรคลาวด์ของ MSFT หากหน่วยงานกำกับดูแลกำหนดขีดจำกัด FLOP ที่เข้มงวดสำหรับการฝึกอบรม ความต้องการ GPU จะลดลง 15-25% โดยไม่คำนึงว่าใครเป็นผู้จ่ายค่าใช้จ่ายในการปฏิบัติตามข้อกำหนด ตรรกะ "ผู้ที่มีเงินมากจะรับภาระค่าใช้จ่าย" สมมติว่าความต้องการคงที่ — แต่จริงๆ แล้วไม่ใช่ ห้องปฏิบัติการขนาดเล็กเผชิญกับความเสี่ยงในการเข้าถึง ใช่ แต่ผู้ให้บริการ hyperscalers เผชิญกับความเสี่ยงด้านรายได้ นั่นคือหางที่แท้จริง
"ข้อจำกัดการประมวลผลน่าจะเปลี่ยนการลงทุน AI จากการฝึกโมเดลใหม่ไปสู่การปรับการอนุมานให้เหมาะสม ซึ่งจะรักษาอัตรากำไรของผู้ให้บริการ hyperscalers ในขณะที่ทำให้ความต้องการเซมิคอนดักเตอร์มีเสถียรภาพ"
การมุ่งเน้นของ Claude ไปที่ความเสี่ยงด้านรายได้ของ NVIDIA มองข้าม 'พรีเมียมความขาดแคลน' หากข้อจำกัดการประมวลผลจำกัด FLOPs ในการฝึก โมเดลที่ล้ำสมัยระดับสูงที่มีอยู่จะกลายเป็นข้อได้เปรียบที่ทรงคุณค่ามากขึ้น เราไม่ได้มองหาการลดลงของความต้องการ 25% แต่เรากำลังมองหาการเปลี่ยนแปลงจากการฝึกอบรมไปสู่การอนุมานในวงกว้าง หากคุณไม่สามารถสร้างสมองที่ใหญ่ขึ้นได้ คุณจะใช้ CAPEX ของคุณไปกับการปรับให้เหมาะสมกับสมองที่คุณมี การเปลี่ยนผ่านนี้จะปกป้องอัตรากำไรของ MSFT และ GOOG ในขณะที่เปลี่ยนโปรไฟล์ของ NVDA จาก 'การเติบโต' ไปเป็น 'สาธารณูปโภค'
"ข้อจำกัดการประมวลผลจะกระตุ้นให้เกิดความก้าวหน้าด้านประสิทธิภาพของโมเดลอย่างรวดเร็วซึ่งจะลดความต้องการ GPU ทำให้ผู้จำหน่ายฮาร์ดแวร์เช่น NVIDIA ได้รับผลกระทบมากกว่าการสร้างผลกำไรที่ชัดเจนให้กับผู้ที่มีอำนาจในคลาวด์"
'พรีเมียมความขาดแคลน' ของ Gemini สมมติว่าประสิทธิภาพของโมเดลไม่เปลี่ยนแปลง มันมองข้ามแรงจูงใจของตลาดที่ทรงพลังในการสร้างสรรค์นวัตกรรมภายใต้ข้อจำกัด ข้อจำกัด FLOP ที่เข้มงวดจะเร่งการกลั่น การกระจายตัว การปรับแต่งอย่างมีประสิทธิภาพตามพารามิเตอร์ และการออกแบบร่วมคอมไพเลอร์/ฮาร์ดแวร์ และชัยชนะด้านประสิทธิภาพอื่นๆ ที่ลดชั่วโมง GPU ต่อความสามารถ สิ่งนี้จะลดความต้องการ GPU โดยรวมและส่งผลกระทบต่อผู้จำหน่ายที่เน้นฮาร์ดแวร์ เช่น NVIDIA มากกว่าที่จะสร้างผลกำไรที่ชัดเจนให้กับ MSFT/GOOG — ซึ่งยังคงต้องสร้างรายได้จากซอฟต์แวร์และบริการ
"ความก้าวหน้าด้านประสิทธิภาพในอดีตไม่สามารถยับยั้งความต้องการการประมวลผลในการฝึกอบรมที่เพิ่มขึ้นอย่างรวดเร็วซึ่งเกิดจากกฎการปรับขนาดได้"
ทฤษฎีเกี่ยวกับนวัตกรรมด้านประสิทธิภาพของ ChatGPT มองข้ามข้อมูล Epoch AI: การประมวลผลในการฝึกอบรมเพิ่มขึ้นจาก 4e25 เป็น 4e27 FLOPs จาก GPT-3 ถึง GPT-4 แม้จะมีการปรับปรุงการกลั่น/MoE — กฎการปรับขนาดมีผลเหนือกว่า ข้อจำกัดเพียงแค่เร่งการเล่นเกม (เช่น การประมวลผล ณ เวลาทดสอบ) หรือสงครามการอนุมาน ไม่ใช่การหดตัวของ GPU TAM มูลค่า 200 พันล้านดอลลาร์ของ NVDA ยังคงอยู่ เนื่องจาก MSFT/AMZN แข่งขันกับจีนไม่ว่าจะอย่างไรก็ตาม
คำตัดสินของคณะ
ไม่มีฉันทามติคณะกรรมการโดยทั่วไปเห็นด้วยว่าการประท้วงไม่น่าจะหยุดการพัฒนา AI ได้ แต่เน้นย้ำถึงความกังวลที่เพิ่มขึ้นเกี่ยวกับความปลอดภัยของ AI และความเข้มข้นของการประมวลผล พวกเขาไม่เห็นด้วยกับผลกระทบที่อาจเกิดขึ้นต่อบริษัทฮาร์ดแวร์และซอฟต์แวร์ AI โดยบางส่วนมองเห็นผลกระทบเชิงลบเนื่องจากกฎระเบียบที่อาจเกิดขึ้น และบางส่วนเชื่อว่าตลาดจะปรับตัวและสร้างสรรค์นวัตกรรม
ความชัดเจนด้านกฎระเบียบที่เพิ่มขึ้นเกี่ยวกับความปลอดภัยของ AI และการใช้การประมวลผลอาจเอื้อประโยชน์ต่อผู้ที่มีอำนาจซึ่งสามารถรับภาระค่าใช้จ่ายในการปฏิบัติตามข้อกำหนดและรักษาลูกค้าไว้
กฎระเบียบที่อาจเกิดขึ้นซึ่งจำกัดการใช้ฮาร์ดแวร์สำหรับการฝึกอบรม (ข้อจำกัดการประมวลผล) อาจส่งผลกระทบต่อบริษัทฮาร์ดแวร์ AI เช่น NVIDIA และผู้ให้บริการคลาวด์ เช่น Microsoft และ Google