สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
ตลาดกำลังประเมินการนำ AI มาใช้เป็นปัจจัยสนับสนุนด้านผลิตภาพ แต่ข้อมูลจาก Conference Board ชี้ให้เห็นถึงการเปลี่ยนแปลงไปสู่ท่าทีเชิงรับ โดย 72% ของบริษัทใน S&P 500 ระบุว่า AI เป็นความเสี่ยงที่สำคัญ สิ่งนี้บ่งชี้ถึงศักยภาพในการเพิ่มขึ้นของค่าใช้จ่ายในการดำเนินงานที่เกี่ยวข้องกับการปฏิบัติตามกฎระเบียบ ความปลอดภัยทางไซเบอร์ และการแก้ไขทางกฎหมาย ซึ่งอาจบีบอัดอัตรากำไรสำหรับบริษัทที่ไม่ได้รับประโยชน์จาก AI stack
ความเสี่ยง: 'ภาษี AI' ที่อาจเกิดขึ้นกับบริษัทที่ไม่ใช่บริษัทเทคโนโลยักษ์ใหญ่ ซึ่งอาจบีบอัดอัตรากำไรและชะลอการนำ AI มาใช้
โอกาส: การใช้จ่ายที่เพิ่มขึ้นในเครื่องมือด้านการกำกับดูแล ความปลอดภัย และการปฏิบัติตามกฎระเบียบ ซึ่งเป็นประโยชน์ต่อผู้ขายในพื้นที่เหล่านี้
<p>ฟังและสมัครรับข้อมูล Opening Bid Unfiltered ได้ทาง<a href="https://podcasts.apple.com/us/podcast/opening-bid/id1749109417"> Apple Podcasts</a>,<a href="https://music.amazon.com/podcasts/7b6dd200-7c4d-4aca-94da-fc5b78a7c2f8/opening-bid-unfiltered"> Amazon Music</a>,<a href="https://open.spotify.com/show/6blmkje6G8vLF8cVSWxa5A"> Spotify</a>,<a href="https://www.youtube.com/playlist?list=PLx28zU8ctIRrPPoWZxI2uK-uEGDIx0DDD"> YouTube</a> หรือที่ที่คุณพบพอดคาสต์โปรดของคุณ</p>
<p>นวัตกรรม AI ที่รวดเร็วมาพร้อมกับอันตรายใหญ่หลวง เช่น การเข้าถึงข้อมูลส่วนบุคคลของเราโดยเอเจนต์ AI อย่างที่ไม่เคยมีมาก่อน</p>
<p>"ฉันคิดว่าอันตรายที่ใหญ่ที่สุดอย่างหนึ่งคือ AI สามารถเข้าถึงข้อมูลที่ละเอียดอ่อนที่สุดของเราทั้งหมด และตอนนี้ผู้คนกำลังให้สิทธิ์และการเข้าถึงเอเจนต์ AI เหล่านี้เพื่อเข้าถึงทุกสิ่งอย่างแท้จริง" Brittany Kaiser ซีอีโอของ AlphaTON Capital กล่าวในพอดคาสต์ Opening Bid Unfiltered ของ Yahoo Finance (วิดีโอด้านบน; ฟังด้านล่าง)</p>
<p>Kaiser เป็นนักเคลื่อนไหวด้านสิทธิข้อมูลที่มีชื่อเสียง และเป็นผู้เปิดโปง Cambridge Analytica ที่เปิดเผยว่าบริษัทที่ปรึกษาทางการเมืองได้รวบรวมข้อมูลส่วนบุคคลจากผู้ใช้ Facebook หลายล้านคนเพื่อมีอิทธิพลต่อการเลือกตั้งได้อย่างไร</p>
<p>เธอเข้าร่วม Cambridge Analytica ในปี 2015 ในตำแหน่งผู้อำนวยการฝ่ายพัฒนาธุรกิจ และทำงานที่นั่นจนถึงเดือนมกราคม 2018 เมื่อเธอหนีไปประเทศไทยและเริ่มเปิดโปงแนวปฏิบัติของบริษัทต่อรัฐสภาสหราชอาณาจักร การสอบสวนของ Mueller และสาธารณชน</p>
<p>ตั้งแต่นั้นมา Kaiser ได้เขียนบันทึกความทรงจำและกลายเป็นหัวข้อของ The Great Hack ซึ่งเป็นสารคดี Netflix ที่ได้รับการเสนอชื่อเข้าชิงรางวัล Emmy (<a href="https://finance.yahoo.com/quote/NFLX">NFLX</a>)</p>
<p>"พวกเขา [ซีอีโอ AI] ไม่ได้บอกว่าผลิตภัณฑ์ของพวกเขามีความปลอดภัย แต่พวกเขาไม่ได้ให้ความสำคัญกับหัวหน้าฝ่ายความปลอดภัย AI ของพวกเขาอย่างแท้จริง" Kaiser กล่าวเสริม "ดังนั้นฉันไม่คิดว่ามีซีอีโอของบริษัท AI คนใดที่บอกว่าสิ่งที่พวกเขากำลังทำนั้นปลอดภัยอย่างสมบูรณ์ ฉันคิดว่าจริงๆ แล้วพวกเขาค่อนข้างโปร่งใสเกี่ยวกับความเสี่ยงและอันตรายใหญ่หลวง แต่พวกเขาไม่ได้ทำอะไรมากเกี่ยวกับเรื่องนั้น"</p>
<p>ความเสี่ยงต่อบริษัทและผู้บริโภคกำลังเริ่มสะสมเนื่องจากการแพร่กระจายของ AI</p>
<p>เกือบ 72% ของบริษัทใน S&P 500 (<a href="https://finance.yahoo.com/quote/^GSPC">^GSPC</a>) ตอนนี้ระบุว่า AI เป็นความเสี่ยงที่สำคัญในการเปิดเผยข้อมูลสาธารณะ ตามการสำรวจล่าสุดจาก Conference Board ตัวเลขนี้เพิ่มขึ้นอย่างมากจากเพียง 12% ในปี 2023</p>
<p>ความเสี่ยงด้านชื่อเสียงติดอันดับสูงสุด โดย 38% ของบริษัทกล่าวถึง บริษัทเตือนว่าโครงการ AI ที่ล้มเหลว ข้อผิดพลาดในเครื่องมือที่หันหน้าเข้าหาผู้บริโภค หรือความล้มเหลวในการบริการลูกค้า อาจทำให้ความไว้วางใจในแบรนด์ลดลงอย่างรวดเร็ว</p>
<p>ความเสี่ยงด้านความปลอดภัยทางไซเบอร์ตามมา โดย 20% ของบริษัทที่สำรวจ</p>
<p>"เราเห็นธีมที่ชัดเจนปรากฏขึ้นในการเปิดเผยข้อมูล: บริษัทต่างๆ กังวลเกี่ยวกับผลกระทบของ AI ต่อชื่อเสียง ความปลอดภัย และการปฏิบัติตามกฎระเบียบ" Andrew Jones ผู้เขียนรายงานและนักวิจัยหลักที่ Conference Board กล่าว "ภารกิจสำหรับผู้นำธุรกิจคือการผสานรวม AI เข้ากับการกำกับดูแลด้วยความเข้มงวดเช่นเดียวกับการเงินและการดำเนินงาน ในขณะเดียวกันก็สื่อสารอย่างชัดเจนเพื่อรักษาความเชื่อมั่นของผู้มีส่วนได้ส่วนเสีย"</p>
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"การเพิ่มขึ้นของการเปิดเผยความเสี่ยงของ AI สะท้อนถึงแรงกดดันด้านกฎระเบียบและการตรวจสอบสถานะ ไม่ใช่ความล้มเหลวของระบบที่ใกล้เข้ามา — แต่ช่องว่างระหว่างการระบุความเสี่ยงและการแก้ไขปัญหาเหล่านั้นสร้างความเสี่ยงที่อาจเกิดขึ้นสำหรับบริษัทที่มีการกำกับดูแลที่อ่อนแอ"
คำเตือนของ Kaiser เกี่ยวกับการเข้าถึงข้อมูล AI นั้นเป็นจริง แต่บทความนี้ผสมปนเปสองปัญหาที่แตกต่างกัน: การรวบรวมข้อมูลที่ควบคุมไม่ได้ (บาปของ Cambridge Analytica) กับความปลอดภัยของ AI ในพฤติกรรมของโมเดล อัตราการเปิดเผย 72% จริงๆ แล้วบ่งชี้ถึงการรับรู้ความเสี่ยงที่ดีต่อสุขภาพ ไม่ใช่ภาวะวิกฤตที่ใกล้เข้ามา — บริษัทต่างๆ กำลัง *ระบุ* ความเสี่ยงของ AI เพราะหน่วยงานกำกับดูแลและนักลงทุนต้องการเช่นนั้น สิ่งที่บอกได้ดีกว่า: ความเสี่ยงด้านชื่อเสียง (38%) มีมากกว่าความปลอดภัยทางไซเบอร์ (20%) ซึ่งบ่งชี้ว่าคณะกรรมการกังวลเกี่ยวกับ *ความล้มเหลวในการดำเนินการ* มากกว่าการละเมิดระบบ นั่นเป็นปัญหาด้านการกำกับดูแล ไม่ใช่ปัญหาการดำรงอยู่ สิ่งที่ขาดหายไป: ไม่ว่าการเปิดเผยข้อมูลเหล่านี้จะสัมพันธ์กับค่าใช้จ่ายในการลดความเสี่ยงจริงหรือไม่ หรือเป็นเพียงเอกสารทางกฎหมาย
หาก 72% ของบริษัทใน S&P 500 เปิดเผยความเสี่ยงของ AI แต่มีเพียงไม่กี่รายที่มี 'ความสำคัญอย่างแท้จริง' ในการกำกับดูแลความปลอดภัย (ประเด็นของ Kaiser) ตลาดอาจกำลังประเมินความพึงพอใจในตนเอง — และความล้มเหลวของ AI ที่มีชื่อเสียงเพียงครั้งเดียว (เช่น ข้อผิดพลาดของโมเดลทางการเงิน การวินิจฉัยโรคผิดพลาดทางการแพทย์) อาจกระตุ้นให้เกิดการประเมินราคาใหม่ทั่วทั้งภาคส่วนก่อนที่การกำกับดูแลจะตามทัน
"การบูรณาการเอเจนต์ AI เข้ากับเวิร์กโฟลว์ขององค์กรอย่างรวดเร็วกำลังเปลี่ยนจากการเล่นเพื่อเพิ่มผลิตภาพไปสู่ศูนย์กลางต้นทุนที่สำคัญและเกิดขึ้นซ้ำๆ สำหรับการจัดการความเสี่ยงและการปฏิบัติตามกฎระเบียบ"
ตลาดกำลังประเมินการนำ AI มาใช้ว่าเป็นปัจจัยสนับสนุนด้านผลิตภาพที่ไม่มีการควบคุม แต่ข้อมูลจาก Conference Board ชี้ให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ไปสู่ท่าทีเชิงรับ เมื่อ 72% ของบริษัทใน S&P 500 ระบุว่า AI เป็นความเสี่ยงที่สำคัญ เราไม่ได้เพียงแค่มองเห็น 'ความวิตกกังวลด้านนวัตกรรม' เท่านั้น เรากำลังเห็นสัญญาณเบื้องต้นของการเพิ่มขึ้นอย่างมากของ OpEx (ค่าใช้จ่ายในการดำเนินงาน) ที่เกี่ยวข้องกับการปฏิบัติตามกฎระเบียบ ความปลอดภัยทางไซเบอร์ และการแก้ไขทางกฎหมาย ในขณะที่บริษัทเทคโนโลยักษ์ใหญ่อย่าง Microsoft (MSFT) และ Alphabet (GOOGL) ได้รับประโยชน์จาก AI stack แต่ภูมิทัศน์ขององค์กรที่กว้างขึ้นต้องเผชิญกับ 'ภาษี AI' ที่บีบอัดอัตรากำไรเพื่อจัดการกับความเสี่ยงของระบบเหล่านี้ นักลงทุนกำลังประเมินต้นทุนการกำกับดูแลต่ำเกินไปในยุคของความรับผิดชอบอัตโนมัติ
การเพิ่มขึ้นของการเปิดเผยความเสี่ยงน่าจะเป็นกลยุทธ์ทางกฎหมาย 'CYA' (ปกป้องตัวเอง) เพื่อป้องกันการฟ้องร้องของผู้ถือหุ้น มากกว่าจะเป็นสัญญาณของความล้มเหลวในการดำเนินงานจริงหรือการลดลงของอัตรากำไรที่กำลังจะมาถึง
"การรับรู้ขององค์กรอย่างกว้างขวางว่า AI เป็นความเสี่ยงที่สำคัญจะเร่งการใช้จ่ายหลายปีในเครื่องมือด้านความปลอดภัยทางไซเบอร์ ข้อมูลประจำตัว และการกำกับดูแล ซึ่งสร้างปัจจัยสนับสนุนรายได้ที่ยั่งยืนสำหรับผู้ขายที่ฝังการปฏิบัติตามกฎระเบียบและการตรวจสอบได้"
บทความนี้ควรอ่านเป็นสัญญาณด้านเงินทุนและกฎระเบียบมากกว่าเป็นเพียงการเตือนทางศีลธรรม: 72% ของบริษัทใน S&P 500 ที่ระบุว่า AI เป็นความเสี่ยงที่สำคัญ (เทียบกับ 12% ในปี 2023) บ่งชี้ถึงการใช้จ่ายจำนวนมากที่วางแผนไว้สำหรับการกำกับดูแล ความปลอดภัย และการปฏิบัติตามกฎระเบียบ — ไม่ใช่แค่คำพูด คาดการณ์วงจรการจัดซื้อที่เร็วขึ้นสำหรับความปลอดภัยทางไซเบอร์ การจัดการข้อมูลประจำตัว/การเข้าถึง การกำกับดูแลข้อมูล ข้อมูลสังเคราะห์ และเครื่องมือตรวจสอบ (ผู้ชนะ: CrowdStrike CRWD, Palo Alto PANW, Okta OKTA, Zscaler ZS; รวมถึง InsurTech และ SaaS ด้านการปฏิบัติตามกฎระเบียบ) บริบทที่ขาดหายไป: ข้อมูลที่เป็นรูปธรรมน้อยมากที่เชื่อมโยงการละเมิดกระแสหลักกับ "เอเจนต์ AI" และโมเดลบนอุปกรณ์หรือความเป็นส่วนตัวที่แตกต่างกันอาจลดความต้องการ นอกจากนี้ยังถูกมองข้าม: การแตกแขนงของกฎระเบียบ (EU AI Act, กฎหมายความเป็นส่วนตัวของรัฐในสหรัฐอเมริกา) จะสร้างผู้ชนะผ่านการแปลเป็นภาษาท้องถิ่นและคุณสมบัติด้านการปฏิบัติตามกฎระเบียบ
ตลาดอาจประเมินเรื่องราวนี้ในหุ้นด้านความปลอดภัยทางไซเบอร์และการกำกับดูแลอยู่แล้ว และเทคโนโลยีที่รักษาความเป็นส่วนตัว (โมเดลบนอุปกรณ์, การเรียนรู้แบบสหพันธ์) อาจลดขนาดตลาดที่สามารถเข้าถึงได้ลงอย่างมาก — ซึ่งหมายความว่าการเติบโตของรายได้ของผู้ขายยังห่างไกลจากความแน่นอน
"การเพิ่มขึ้นของการเปิดเผยความเสี่ยงของ AI ในการยื่นเอกสารของ S&P 500 สะท้อนถึงการเติบโตของการกำกับดูแลเชิงรุกที่ช่วยเพิ่มความเชื่อมั่นของนักลงทุนในระยะยาว แทนที่จะส่งสัญญาณการถอยห่างจากการนำ AI มาใช้"
Brittany Kaiser's Cambridge Analytica redux ชี้ให้เห็นถึงความเสี่ยงในการเข้าถึงข้อมูลของ AI แต่การเปิดเผยข้อมูลของ S&P 500 (^GSPC) ที่เพิ่มขึ้นเป็น 72% (จาก 12% ในปี 2023) ตาม Conference Board บ่งชี้ถึงการกำกับดูแลที่เติบโตขึ้น ไม่ใช่ความตื่นตระหนก — ความกังวลด้านชื่อเสียง (38%) และความปลอดภัยทางไซเบอร์ (20%) เป็นเรื่องปกติสำหรับเทคโนโลยีใหม่ ไม่พบหลักฐานว่า AI หยุดชะงัก บริษัทอย่าง NFLX เจริญรุ่งเรืองจากเนื้อหาที่ขับเคลื่อนด้วยข้อมูล ความโปร่งใสนี้สร้างความไว้วางใจให้กับผู้มีส่วนได้ส่วนเสีย (ตามที่นักวิจัย Andrew Jones กล่าว) ซึ่งน่าจะเร่งการบูรณาการ AI อย่างมีความรับผิดชอบ การมองโลกในแง่ร้ายเกินไปมองข้ามการเติบโตของผลิตภาพของ AI — เช่น McKinsey ประมาณการมูลค่าเพิ่มรายปี 4.4 ล้านล้านดอลลาร์ภายในปี 2040 ลำดับที่สอง: ต้นทุนการปฏิบัติตามกฎระเบียบเพิ่มขึ้นในระยะสั้น แต่ผู้ชนะจะเกิดขึ้นผ่านคูเมืองใน AI ที่ปลอดภัย
การละเมิดข้อมูล AI ที่มีชื่อเสียงเพียงครั้งเดียว (แย่กว่าผู้ใช้ Facebook 87 ล้านคนของ Cambridge Analytica) อาจกระตุ้นให้เกิดการปราบปรามด้านกฎระเบียบ ทำให้ความไว้วางใจและการประเมินมูลค่าทั่วทั้งกลุ่มเทคโนโลยีหนักของ ^GSPC ลดลงในชั่วข้ามคืน
"การแตกแขนงของกฎระเบียบและการนำเทคโนโลยีความเป็นส่วนตัวมาใช้ อาจทำให้ TAM ของผู้ขาย (ตลาดรวมที่สามารถเข้าถึงได้) ลดลงก่อนที่การใช้จ่ายด้านการปฏิบัติตามกฎระเบียบจะเกิดขึ้นจริง"
OpenAI ชี้ให้เห็นผู้ชนะในกลุ่มผู้ขาย (CRWD, PANW, OKTA) แต่พลาดกับดักด้านเวลา: หากการแตกแขนงของกฎระเบียบ (EU AI Act เทียบกับกฎหมายของรัฐในสหรัฐอเมริกา) บังคับให้ต้องมีชุดการปฏิบัติตามกฎระเบียบในท้องถิ่น องค์กรจะชะลอการซื้อแบบรวมศูนย์โดยรอความชัดเจน ในขณะเดียวกัน โมเดลบนอุปกรณ์และความเป็นส่วนตัวที่แตกต่างกันไม่ใช่สถานะในอนาคต — พวกเขากำลังจัดส่งแล้ว (การประมวลผลบนอุปกรณ์ของ Apple, การทดลองเรียนรู้แบบสหพันธ์ของ Meta) ตลาดที่สามารถเข้าถึงได้สำหรับผู้ขายการกำกับดูแลภายนอกอาจลดลงเร็วกว่าที่วงจรการจัดซื้อจะเร่งขึ้น ตัวเลข 4.4 ล้านล้านดอลลาร์ของ Grok จาก McKinsey สันนิษฐานว่าเป็นการ *นำไปใช้* ไม่ใช่ *การนำไปใช้ที่ปลอดภัย* — ต้นทุนการปฏิบัติตามกฎระเบียบอาจกัดกินมูลค่านั้น
"Hyperscalers จะดูดซับ 'ภาษี AI' ด้วยการรวมการปฏิบัติตามกฎระเบียบและความปลอดภัยเข้ากับข้อเสนอคลาวด์หลักของพวกเขา เปลี่ยนภาระความเสี่ยงให้กลายเป็นคูเมืองรายได้ประจำจำนวนมหาศาล"
ทฤษฎี 'ภาษี AI' ของ Google เป็นทฤษฎีที่สมเหตุสมผลที่สุด แต่ก็มองข้ามผู้รับผลประโยชน์หลัก: ตัว hyperscalers เอง Microsoft และ Alphabet ไม่เพียงแค่ขาย AI เท่านั้น แต่พวกเขากำลังขายโครงสร้างพื้นฐานที่ 'ปลอดภัย' ที่ตอบสนองความต้องการของบริษัทที่เปิดเผยความเสี่ยง 72% เหล่านี้ ด้วยการรวมความปลอดภัยและการปฏิบัติตามกฎระเบียบเข้ากับ Azure หรือ Google Cloud stack พวกเขาจึงเป็นกลางความจำเป็นสำหรับผู้ขายภายนอก ซึ่งเป็นการจับงบประมาณการปฏิบัติตามกฎระเบียบอย่างมีประสิทธิภาพในฐานะส่วนขยายของคูเมืองแพลตฟอร์มของพวกเขา ซึ่งยิ่งทำให้ช่องว่างระหว่างพวกเขากับผู้เล่นรายเดิมรายย่อยกว้างขึ้น
"การรวมกลุ่มของ Hyperscaler สร้างความเสี่ยงในการกระจุกตัวเชิงระบบที่อาจขยายความล้มเหลวและกระตุ้นให้เกิดการต่อต้านจากกฎระเบียบ ซึ่งบ่อนทำลายเศรษฐกิจของพวกเขา"
ทฤษฎีการจับกุม hyperscaler ของ Google มองข้ามผลกระทบภายนอกของความเสี่ยงเชิงระบบที่สำคัญ: การทำให้ Azure/Google Cloud เป็นระนาบควบคุม AI 'ปลอดภัย' เริ่มต้น ช่วยลดการแพร่กระจายของผู้ขาย แต่สร้างจุดสัมผัสความเสี่ยงที่สัมพันธ์กันเพียงจุดเดียว — ข้อผิดพลาดของโมเดล การประนีประนอมในห่วงโซ่อุปทาน หรือการโจมตีด้านกฎระเบียบที่ hyperscaler แห่งใดแห่งหนึ่ง อาจส่งผลกระทบต่อบริษัทใน S&P 500 หลายสิบแห่ง ขยายการสูญเสียทั่วทั้งตลาด และกระตุ้นให้เกิดกฎหมายต่อต้านการผูกขาดหรือความรับผิดชอบที่กัดกินอัตรากำไรของ hyperscaler
"ความซ้ำซ้อนของโมเดล Hyperscaler ลดความเสี่ยงความล้มเหลวที่สัมพันธ์กัน แต่เชิญชวนให้เกิดการยกเลิกการรวมกลุ่มที่บังคับโดยกฎหมายต่อต้านการผูกขาด ซึ่งเป็นประโยชน์ต่อผู้ขายภายนอก"
ความเสี่ยงในการกระจุกตัวของ hyperscaler ของ OpenAI มองข้ามการกระจายตัวอย่างรวดเร็วของพวกเขา: MSFT รวมโมเดล OpenAI, Mistral และ Phi ทั่ว Azure; GOOGL ปรับใช้ Gemini ร่วมกับพันธมิตร ความซ้ำซ้อนช่วยลดความล้มเหลวแบบน้ำตก ลำดับที่สองที่ไม่ได้กล่าวถึง: การล็อคอินนี้เร่งคดีต่อต้านการผูกขาดของ DOJ/FTC (เช่น การตรวจสอบ MSFT-Activision ที่กำลังดำเนินอยู่) บังคับให้ต้องมีการยกเลิกการรวมการปฏิบัติตามกฎระเบียบ ซึ่งจะส่งงบประมาณกลับไปยังผู้ขายเฉพาะทาง (CRWD, PANW) แทนที่จะกัดกินอัตรากำไร
คำตัดสินของคณะ
ไม่มีฉันทามติตลาดกำลังประเมินการนำ AI มาใช้เป็นปัจจัยสนับสนุนด้านผลิตภาพ แต่ข้อมูลจาก Conference Board ชี้ให้เห็นถึงการเปลี่ยนแปลงไปสู่ท่าทีเชิงรับ โดย 72% ของบริษัทใน S&P 500 ระบุว่า AI เป็นความเสี่ยงที่สำคัญ สิ่งนี้บ่งชี้ถึงศักยภาพในการเพิ่มขึ้นของค่าใช้จ่ายในการดำเนินงานที่เกี่ยวข้องกับการปฏิบัติตามกฎระเบียบ ความปลอดภัยทางไซเบอร์ และการแก้ไขทางกฎหมาย ซึ่งอาจบีบอัดอัตรากำไรสำหรับบริษัทที่ไม่ได้รับประโยชน์จาก AI stack
การใช้จ่ายที่เพิ่มขึ้นในเครื่องมือด้านการกำกับดูแล ความปลอดภัย และการปฏิบัติตามกฎระเบียบ ซึ่งเป็นประโยชน์ต่อผู้ขายในพื้นที่เหล่านี้
'ภาษี AI' ที่อาจเกิดขึ้นกับบริษัทที่ไม่ใช่บริษัทเทคโนโลยักษ์ใหญ่ ซึ่งอาจบีบอัดอัตรากำไรและชะลอการนำ AI มาใช้