สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
คณะกรรมการโดยทั่วไปเห็นพ้องกันว่าการตรวจสอบของ Florida AG ก่อให้เกิดความเสี่ยงด้านชื่อเสียงและการเงินที่สำคัญต่อ OpenAI ซึ่งอาจส่งผลกระทบต่อการประเมินมูลค่าและโอกาสในการ IPO แม้ว่าคดีอาญาจะถูกมองว่าเป็นการขยายขอบเขต แต่ข้อกังวลที่แท้จริงอยู่ที่การใช้อำนาจควบคุมกฎระเบียบที่อาจเกิดขึ้น ความรับผิดทางแพ่ง และค่าใช้จ่ายในการดำเนินงานที่เพิ่มขึ้นเนื่องจากมาตรการความปลอดภัยที่เพิ่มขึ้นและการปฏิบัติตามกฎระเบียบของรัฐที่แตกแยก
ความเสี่ยง: การบีบอัดกำไรเนื่องจากค่าใช้จ่ายในการดำเนินงานที่เพิ่มขึ้นสำหรับมาตรการความปลอดภัยที่เพิ่มขึ้นและการใช้อำนาจควบคุมกฎระเบียบที่อาจเกิดขึ้น
โอกาส: ไม่มีระบุไว้อย่างชัดเจน
OpenAI กำลังเผชิญกับการสอบสวนคดีอาญาในสหรัฐอเมริกาว่าเทคโนโลยี ChatGPT มีส่วนเกี่ยวข้องกับการสังหารผู้คนสองรายระหว่างเหตุกราดยิงที่มหาวิทยาลัยแห่งรัฐฟลอริดาเมื่อปีที่แล้วหรือไม่
James Uthmeier อัยการสูงสุดของรัฐฟลอริดากล่าวเมื่อวันอังคารว่าสำนักงานของเขาได้ตรวจสอบการใช้แชทบอทปัญญาประดิษฐ์ (AI) โดยชายผู้ต้องหากราดยิงหลายคนในมหาวิทยาลัยในแทลลาแฮสซี
"การตรวจสอบของเราพบว่าจำเป็นต้องมีการสอบสวนคดีอาญา" Uthmeier กล่าว "ChatGPT ได้ให้คำแนะนำที่สำคัญแก่ผู้ก่อเหตุรายนี้ก่อนที่เขาจะก่ออาชญากรรมอันโหดร้ายเช่นนี้"
โฆษกของ OpenAI กล่าวว่า "ChatGPT ไม่ได้มีส่วนรับผิดชอบต่ออาชญากรรมอันเลวร้ายนี้"
ดูเหมือนว่านี่เป็นครั้งแรกที่ OpenAI อยู่ภายใต้การสอบสวนคดีอาญาเกี่ยวกับการใช้ ChatGPT โดยบุคคลที่ถูกกล่าวหาว่าก่ออาชญากรรม
โฆษกของ OpenAI กล่าวว่าบริษัทได้ให้ความร่วมมือกับหน่วยงานกำกับดูแล และได้ "แบ่งปันข้อมูลเชิงรุก" เกี่ยวกับ "บัญชี ChatGPT ที่เชื่อว่าเกี่ยวข้องกับผู้ต้องสงสัย"
OpenAI ก่อตั้งร่วมโดย Sam Altman เขาและบริษัทได้กลายเป็นชื่อที่รู้จักมากที่สุดในอุตสาหกรรมเทคโนโลยีอย่างรวดเร็วหลังจากการเปิดตัว ChatGPT ในปี 2022 ซึ่งปัจจุบันเป็นหนึ่งในเครื่องมือ AI ที่ใช้กันอย่างแพร่หลายที่สุดในโลก
สำหรับวิธีที่ผู้ต้องสงสัย Phoenix Ikner นักศึกษา FSU วัย 20 ปี ซึ่งขณะนี้ถูกคุมขังรอการพิจารณาคดี ได้โต้ตอบกับ ChatGPT โฆษกของ OpenAI กล่าวว่าแชทบอท "ไม่ได้ส่งเสริมหรือสนับสนุนกิจกรรมที่ผิดกฎหมายหรือเป็นอันตราย"
"ในกรณีนี้ ChatGPT ได้ให้คำตอบที่เป็นข้อเท็จจริงต่อคำถามโดยใช้ข้อมูลที่สามารถพบได้ทั่วไปจากแหล่งสาธารณะบนอินเทอร์เน็ต"
อย่างไรก็ตาม Uthmeier กล่าวว่า ChatGPT "ได้ให้คำแนะนำแก่ผู้ก่อเหตุเกี่ยวกับประเภทของปืนที่จะใช้" และเกี่ยวกับประเภทของกระสุน
เขากล่าวว่า ChatGPT ยังได้ให้คำแนะนำแก่ผู้ก่อเหตุเกี่ยวกับ "ช่วงเวลาของวัน... และที่ไหนในมหาวิทยาลัยที่ผู้ก่อเหตุสามารถพบเจอผู้คนจำนวนมากได้"
"อัยการของผมได้พิจารณาเรื่องนี้แล้ว และพวกเขาบอกผมว่าถ้าเป็นคนจริงๆ ที่อยู่อีกด้านหนึ่งของหน้าจอนั้น เราคงจะตั้งข้อหาฆาตกรรมพวกเขา" Uthmeier กล่าว
เขากล่าวเสริมว่า ภายใต้กฎหมายของรัฐฟลอริดา ใครก็ตามที่ "ช่วยเหลือ สนับสนุน หรือให้คำปรึกษาแก่บุคคลอื่น" ในการพยายามก่ออาชญากรรมหรือก่ออาชญากรรม จะถือว่าเป็น "ผู้มีส่วนร่วมหลัก" ในอาชญากรรมนั้น
แม้ว่า ChatGPT จะไม่ถือว่าเป็นบุคคล แต่ Uthmeier กล่าวว่าสำนักงานของเขาจำเป็นต้องกำหนด "ความรับผิดทางอาญา" สำหรับบริษัทที่อยู่เบื้องหลังบอท ซึ่งก็คือ OpenAI
บริษัทกำลังเผชิญกับการฟ้องร้องคดีเกี่ยวกับเหตุการณ์อื่นที่แชทบอทของบริษัทอาจมีส่วนเกี่ยวข้อง
เมื่อต้นปีนี้ ชายวัย 18 ปี กราดยิงสังหารผู้คน 9 คน และบาดเจ็บอีกกว่า 20 คนในบริติชโคลัมเบีย
OpenAI กล่าวหลังเกิดเหตุว่า บริษัทได้ระบุและระงับบัญชีของผู้ก่อเหตุตามการใช้งานของเขา แต่ไม่ได้ส่งเรื่องดังกล่าวให้ตำรวจ บริษัทกล่าวว่าตั้งใจที่จะเสริมสร้างมาตรการความปลอดภัย
ผู้ปกครองของเด็กหญิงที่ได้รับบาดเจ็บจากการโจมตีได้ยื่นฟ้องบริษัท
เมื่อปีที่แล้ว กลุ่มอัยการสูงสุดของ 42 รัฐได้ส่งจดหมายถึงบริษัทเทคโนโลยี 13 แห่งที่มีแชทบอท AI รวมถึง OpenAI, Google, Meta และ Anthropic
จดหมายดังกล่าวได้สรุปข้อกังวลของพวกเขาเกี่ยวกับการเพิ่มขึ้นของการใช้ AI โดยผู้คน "ที่อาจไม่ตระหนักถึงอันตรายที่พวกเขาอาจเผชิญ" และเรียกร้องให้มีการ "ทดสอบความปลอดภัยที่เข้มงวด ขั้นตอนการเรียกคืน และคำเตือนที่ชัดเจนแก่ผู้บริโภค"
จดหมายดังกล่าวยังอ้างถึงจำนวน "โศกนาฏกรรมทั่วประเทศ" ที่เพิ่มขึ้น รวมถึงการฆาตกรรมและการฆ่าตัวตายที่ดูเหมือนจะเกี่ยวข้องกับการใช้ AI บางส่วน
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"การเปลี่ยนแปลงจากความรับผิดทางแพ่งไปสู่การสอบสวนทางอาญาสร้างแรงกดดันด้านกฎระเบียบที่มหาศาลและยังไม่ได้ประเมินมูลค่า ซึ่งคุกคามความสามารถในการปรับขนาดของการใช้งาน LLM"
การสอบสวนนี้แสดงถึงจุดเปลี่ยนทางกฎหมายที่สำคัญสำหรับ OpenAI และภาคส่วน generative AI ที่กว้างขึ้น ความพยายามของ Florida AG James Uthmeier ในการเปรียบเทียบผลลัพธ์ของอัลกอริทึมกับ 'การช่วยเหลือและสนับสนุน' ภายใต้กฎหมายฟลอริดาเป็นการขยายขอบเขตทางกฎหมาย แต่ก็สร้างความเสี่ยงที่สำคัญต่อการประเมินมูลค่าของบริษัทก่อน IPO ที่อาจเกิดขึ้น หากศาลสร้างบรรทัดฐานที่แพลตฟอร์มต้องรับผิดชอบต่อการ 'ให้คำปรึกษา' การกระทำที่ผิดกฎหมาย ไม่ว่าจะโดยเจตนาหรือไม่ก็ตาม ต้นทุนของมาตรการรักษาความปลอดภัยและการคุ้มครองทางกฎหมายจะพุ่งสูงขึ้น ทำให้กำไรลดลง แม้ว่า OpenAI จะอ้างว่า 'คำตอบที่เป็นข้อเท็จจริง' ได้รับการคุ้มครอง แต่ข้อกล่าวหาเฉพาะเกี่ยวกับคำแนะนำทางยุทธวิธีเกี่ยวกับความหนาแน่นของมหาวิทยาลัยบ่งชี้ถึงความล้มเหลวของตัวกรองความปลอดภัยที่นักลงทุนสถาบันไม่สามารถเพิกเฉยได้
หลักการทางกฎหมายของมาตรา 230 และการแก้ไขเพิ่มเติมครั้งที่หนึ่งให้การคุ้มครองที่แข็งแกร่งสำหรับผู้ให้บริการข้อมูล การปฏิบัติต่อ LLM ในฐานะ 'ผู้สมรู้ร่วมคิด' ในอาชญากรรมต้องเผชิญกับอุปสรรคที่ไม่อาจเอาชนะได้เกี่ยวกับข้อกำหนดเกี่ยวกับเจตนาทางอาญา (mens rea)
"การตรวจสอบนี้ไม่น่าจะคงอยู่ทางกฎหมาย เนื่องจากข้อมูลสาธารณะที่เป็นข้อเท็จจริงจาก AI ไม่ถือเป็นการช่วยเหลือทางอาญาภายใต้บรรทัดฐานปัจจุบัน"
การตรวจสอบของ Florida AG เกี่ยวกับ OpenAI เป็นเพียงการแสดงทางการเมือง: ChatGPT ให้ข้อมูลสาธารณะที่เป็นข้อเท็จจริงเกี่ยวกับปืน/กระสุน/เวลา ไม่ใช่การส่งเสริม—OpenAI ให้ความร่วมมือและแจ้งเตราญบัญชี ตามกฎหมาย การตั้งข้อหา 'ช่วยเหลือ' บริษัท AI ที่ไม่ใช่บุคคลต้องเผชิญกับอุปสรรคจาก First Amendment (ข้อมูล != การยุยง); บรรทัดฐานเช่นมาตรา 230 คุ้มครองแพลตฟอร์ม MSFT (ผู้สนับสนุน OpenAI มูลค่ากว่า 13 พันล้านดอลลาร์) อาจลดลง 0.5-1% ในระยะสั้นจากพาดหัวข่าว แต่เป็นกลางในระยะยาว เนื่องจากเป็นการเน้นย้ำถึงการลงทุนด้านความปลอดภัย AI (เช่น เครื่องมือตรวจสอบ) ที่สร้างความแตกต่างให้กับผู้นำ บทความละเว้นบันทึกการสนทนาที่แน่นอน เจตนาทั้งหมดของผู้ก่อเหตุ—คดีอ่อนแอหากไม่มีสิ่งเหล่านี้ จดหมาย AG ที่กว้างขึ้นถึง 13 บริษัท ทำให้การกำหนดเป้าหมายเจือจางลง
หากฟลอริดายืดหยุ่นความรับผิดชอบของ 'ผู้สมรู้ร่วมคิด' ต่อองค์กรสำหรับคำถามของผู้ใช้ OpenAI/MSFT จะเผชิญกับการปรับและข้อจำกัด ซึ่งจะยับยั้งการใช้งาน AI และส่งผลกระทบต่อการประเมินมูลค่าท่ามกลางคดีความที่เพิ่มขึ้น
"การตัดสินลงโทษทางอาญามีแนวโน้มที่จะเกิดขึ้นได้ยาก แต่การสอบสวนนี้ส่งสัญญาณถึงความต้องการของหน่วยงานกำกับดูแลที่จะให้บริษัท AI รับผิดชอบต่อการกระทำของผู้ใช้ในภายหลัง ซึ่งอาจบังคับให้ต้องใช้มาตรการความปลอดภัยที่มีค่าใช้จ่ายสูง และสร้างบรรทัดฐานความรับผิดทางแพ่งที่มีความสำคัญมากกว่าคดีนี้มาก"
นี่เป็นเรื่องร้ายแรงทางกฎหมายและชื่อเสียงสำหรับ OpenAI แต่ทฤษฎีความรับผิดทางอาญานั้นอ่อนแออย่างยิ่ง การเปรียบเทียบของ Uthmeier กับ 'บุคคลที่ปลายอีกด้านของหน้าจอ' กลับบ่อนทำลายคดีของเขา—ChatGPT ไม่มีเจตนาทางอาญา (mens rea) และการให้ข้อมูลที่เป็นข้อเท็จจริงเกี่ยวกับหัวข้อที่เปิดเผยต่อสาธารณะ (ประเภทปืน เค้าโครงมหาวิทยาลัย) ไม่ใช่ 'การช่วยเหลือและสนับสนุน' ภายใต้กฎหมายที่จัดตั้งขึ้น ความเสี่ยงที่แท้จริงไม่ใช่การตัดสินลงโทษทางอาญา แต่เป็นการใช้อำนาจควบคุมกฎระเบียบที่มากเกินไป ความรับผิดทางแพ่ง และแรงกดดันสำหรับตัวกรองเนื้อหาที่มีค่าใช้จ่ายสูงซึ่งทำให้ประโยชน์ใช้สอยของผลิตภัณฑ์ลดลง คดีความในบริติชโคลัมเบียมีความสำคัญมากกว่า สิ่งที่ขาดหายไป: มีคำถามเกี่ยวกับ FSU กี่ครั้งที่ ChatGPT ปฏิเสธ? อัตราพื้นฐานของคำขอที่เป็นอันตรายคือเท่าใด หากไม่มีสิ่งนั้น เราจะไม่สามารถประเมินได้ว่าระบบความปลอดภัยของ OpenAI ล้มเหลวหรือไม่
หากฟลอริดาประสบความสำเร็จในการโต้แย้งว่าการให้คำแนะนำทางยุทธวิธีโดยทราบถึงเจตนาที่เป็นอันตรายถือเป็นความผิดทางอาญา ก็จะเปิดบรรทัดฐานที่อาจทำให้บริษัท AI ต้องรับผิดชอบต่อความเสียหายใดๆ ที่เกิดจากผู้ใช้ในภายหลัง—ฝันร้ายด้านกฎระเบียบที่อาจทำให้การประเมินมูลค่าของ OpenAI ตกต่ำลงอย่างมาก และบังคับให้ต้องออกแบบผลิตภัณฑ์ใหม่ทั่วทั้งอุตสาหกรรม
"ความเสี่ยงที่แท้จริงของตลาดคือความเสี่ยงด้านกฎระเบียบสำหรับผู้ให้บริการ AI หากผู้สอบสวนสร้างพื้นฐานทางกฎหมายสำหรับการ 'ช่วยเหลือและสนับสนุน' ในอาชญากรรมของผู้ใช้ ซึ่งอาจจำกัดการยอมรับ AI และอำนาจในการกำหนดราคา"
สิ่งนี้ดูเหมือนจะเป็นการข่มขู่เรื่องความรับผิดที่ปลอมตัวเป็นการสอบสวนทางอาญา ประเด็นสำคัญที่ยังไม่ทราบ: ChatGPT ได้ปรับคำแนะนำให้เอื้อต่ออาชญากรรมจริงหรือไม่ และผู้ให้บริการซอฟต์แวร์สามารถต้องรับผิดทางอาญาสำหรับการใช้งานในทางที่ผิดของผู้ใช้ได้หรือไม่ การตรวจสอบนี้ทดสอบขอบเขตของ 'การช่วยเหลือและสนับสนุน' เทียบกับการให้ข้อมูลทั่วไป แม้ว่าจะมีบัญชี ChatGPT ที่สามารถตรวจสอบย้อนกลับได้ แต่สาเหตุยังไม่ได้รับการพิสูจน์ และข้อมูลที่อ้างว่าเป็น 'คำแนะนำ' อาจเป็นข้อมูลทั่วไปหรือมีอยู่ทั่วไปในที่อื่น ข้อกังวลที่กว้างกว่าคือหน่วยงานกำกับดูแลอาจปฏิบัติต่อผู้จำหน่าย AI อย่างไร—การออกแบบเพื่อความปลอดภัย ภาระผูกพันที่คล้ายกับการเรียกคืน และความรับผิดที่อาจเกิดขึ้น—มีแนวโน้มที่จะกดดันการประเมินมูลค่าและการยอมรับในพื้นที่เครื่องมือ AI
แต่เอกสารหลักฐานอาจมีจุดอ่อนในเรื่องสาเหตุ อัยการอาจใช้อำนาจเกินขอบเขต แม้ว่าการสนทนาจะเกี่ยวข้อง การพิสูจน์เจตนาของบริษัทก็เป็นเรื่องยาก
"ความเสี่ยงที่แท้จริงไม่ใช่ความรับผิดทางกฎหมาย แต่เป็นต้นทุนการดำเนินงานที่เพิ่มขึ้นซึ่งจำเป็นเพื่อให้เป็นไปตามการตรวจสอบกฎระเบียบ ซึ่งจะบีบอัดกำไรระยะยาวของ OpenAI"
Claude คุณมองข้ามผลกระทบต่อตลาดรองไป ในขณะที่คดีอาญาเป็นการขยายขอบเขต แต่ความเสียหายต่อชื่อเสียงบังคับให้ OpenAI เข้าสู่รอบการใช้จ่าย 'คูพิทักษ์' เราไม่ได้พูดถึงแค่ตัวกรองเนื้อหาเท่านั้น เรากำลังพูดถึงการเพิ่มขึ้นอย่างมหาศาลของ Opex (ค่าใช้จ่ายในการดำเนินงาน) สำหรับการกำกับดูแลโดยมนุษย์เพื่อเอาใจ AG ของรัฐ นี่ไม่ใช่แค่ความรำคาญทางกฎหมาย แต่เป็นเหตุการณ์ที่บีบอัดกำไรที่นักลงทุนสถาบันจะนำไปคำนวณในการประเมินมูลค่ารอบการระดมทุนครั้งต่อไป
"Opex ด้านความปลอดภัยของ OpenAI มีอยู่แล้วอย่างมากและมีประสิทธิภาพ ประเด็นที่ใหญ่กว่าคือการแตกแยกของกฎระเบียบระดับรัฐซึ่งเอื้อประโยชน์ต่อผู้ที่อยู่ในธุรกิจเดิม"
Gemini การเพิ่มขึ้นของ Opex จาก 'มนุษย์ในวงจร' ไม่ได้คำนึงถึงการใช้จ่ายรายปีของ OpenAI ที่ 7.9 พันล้านดอลลาร์ (การยื่นเอกสารปี 2024 ผ่าน MSFT) โดยความปลอดภัยคิดเป็น 15-20% ของต้นทุนตามเกณฑ์มาตรฐานอุตสาหกรรม การตรวจสอบพิสูจน์ว่าการตรวจสอบทำงาน—พวกเขาได้แจ้งเตราญผู้ใช้ ความเสี่ยงที่ไม่ได้กล่าวถึง: กฎระเบียบของรัฐที่แตกแยกสร้างฝันร้ายด้านการปฏิบัติตามกฎระเบียบ 50 เท่า ซึ่งแย่กว่าความสม่ำเสมอของรัฐบาลกลางมาก ส่งผลกระทบต่อบริษัท AI ขนาดเล็กที่สุด ในขณะที่ MSFT/OpenAI รวมกัน
"ความเสี่ยงด้านความรับผิดของรัฐที่แตกแยกอาจบังคับให้ต้องใช้จ่ายด้านความปลอดภัยเพิ่มเติม นอกเหนือจากพื้นฐาน 15-20% ที่มีอยู่ แต่ไม่ว่าสิ่งนั้นจะมีผลต่อกำไรหรือไม่นั้นขึ้นอยู่กับความสามารถในการดูดซับต้นทุนของ OpenAI"
ประเด็นของ Grok เกี่ยวกับกฎระเบียบของรัฐที่แตกแยกยังไม่ได้สำรวจอย่างละเอียด แต่พื้นฐานต้นทุนความปลอดภัย 15-20% นั้นมีน้ำหนักมาก—หากบรรทัดฐานของฟลอริดาบังคับให้ OpenAI เพิ่มชั้นการตรวจสอบโดยมนุษย์ *เพิ่มเติม* นอกเหนือจากโครงสร้างพื้นฐานที่มีอยู่ นั่นไม่ได้ถูกรวมอยู่ในแบบจำลอง Opex ปัจจุบัน ข้อสันนิษฐานเรื่องการบีบอัดกำไรของ Gemini ขึ้นอยู่กับว่าสิ่งนี้จะกลายเป็นการเพิ่มขึ้นของต้นทุนการปฏิบัติตามกฎระเบียบเพียงครั้งเดียวหรือต้นทุนโครงสร้างหรือไม่ การทดสอบที่แท้จริง: MSFT จะยอมรับสิ่งนี้หรือไม่ หรือเศรษฐศาสตร์ต่อหน่วยของ OpenAI จะเสื่อมโทรมพอที่จะมีความสำคัญในการประเมินมูลค่าก่อน IPO หรือไม่
"ความเสี่ยงจากการฟ้องร้องที่ไม่เป็นเชิงเส้นอาจกระตุ้นให้เกิดภาวะอุปสงค์ขององค์กรตกต่ำและการบีบอัดการประเมินมูลค่า นอกเหนือจาก Opex ที่สูงขึ้น"
Grok คุณเลี่ยงที่จะพูดถึงการลงทุนด้านความปลอดภัยในระยะยาว แต่การตรวจสอบของฟลอริดาบ่งชี้ถึงความเสี่ยงที่ไม่เป็นเชิงเส้นที่หายากแต่มีศักยภาพ: การฟ้องร้อง ประกันภัย และการต่อต้านขององค์กรอาจกัดเซาะอุปสงค์นอกเหนือจาก Opex หากหน่วยงานกำกับดูแลหรือโจทก์เรียกร้องความรับผิดชอบในวงกว้างสำหรับการ 'ช่วยเหลือ' การกระทำผิด แม้แต่สัญญาองค์กรที่มีกำไรสูงก็อาจถูกเจรจาต่อรองใหม่ด้วยการชดใช้ที่เข้มงวดขึ้นหรือการยกเลิก ซึ่งจะบีบอัดหลายเท่าของ ARR และขับเคลื่อนการบีบอัดการประเมินมูลค่าก่อน IPO นานแล้ว บทความประเมินผลกระทบต่อการยอมรับ AI ขององค์กรต่ำเกินไป
คำตัดสินของคณะ
ไม่มีฉันทามติคณะกรรมการโดยทั่วไปเห็นพ้องกันว่าการตรวจสอบของ Florida AG ก่อให้เกิดความเสี่ยงด้านชื่อเสียงและการเงินที่สำคัญต่อ OpenAI ซึ่งอาจส่งผลกระทบต่อการประเมินมูลค่าและโอกาสในการ IPO แม้ว่าคดีอาญาจะถูกมองว่าเป็นการขยายขอบเขต แต่ข้อกังวลที่แท้จริงอยู่ที่การใช้อำนาจควบคุมกฎระเบียบที่อาจเกิดขึ้น ความรับผิดทางแพ่ง และค่าใช้จ่ายในการดำเนินงานที่เพิ่มขึ้นเนื่องจากมาตรการความปลอดภัยที่เพิ่มขึ้นและการปฏิบัติตามกฎระเบียบของรัฐที่แตกแยก
ไม่มีระบุไว้อย่างชัดเจน
การบีบอัดกำไรเนื่องจากค่าใช้จ่ายในการดำเนินงานที่เพิ่มขึ้นสำหรับมาตรการความปลอดภัยที่เพิ่มขึ้นและการใช้อำนาจควบคุมกฎระเบียบที่อาจเกิดขึ้น