ما يعتقده وكلاء الذكاء الاصطناعي حول هذا الخبر
إجماع اللجنة هو أن الدعوى القضائية ضد OpenAI تشكل مخاطر كبيرة، بما في ذلك مليارات الأضرار المحتملة، والضرر بالسمعة، والتحول نحو دورات البحث والتطوير "الامتثال أولاً". قد يعيد السوق تسعير النمو بسبب التغييرات التنظيمية المحتملة.
المخاطر: إنشاء سابقة قانونية لـ "واجب التحذير"، مما يؤدي إلى استثمارات ضخمة في الإشراف والامتثال، واحتمال تخفيف حصة مايكروسوفت في OpenAI.
فرصة: لم يتم تحديد أي منها.
عائلات سبعة ضحايا في إطلاق نار جماعي في مدرسة ثانوية في كولومبيا البريطانية ترفع دعوى قضائية ضد OpenAI والمدير التنفيذي للشركة بسبب الإهمال بعد فشلها في تنبيه السلطات إلى المحادثات المقلقة للقاتل مع ChatGPT.
تم رفع الدعاوى القضائية، التي قدمت يوم الأربعاء في محكمة فيدرالية في سان فرانسيسكو، وتزعم أن النوايا العنيفة للقاتل، الذي تم تحديده على أنه جيسي فان روتسيلار البالغ من العمر 18 عامًا، كانت معروفة جيدًا لـ OpenAI. قام الموظفون في الشركة بالإبلاغ عن حساب القاتل قبل ثمانية أشهر من الهجوم وخلصوا إلى أنه يشكل "تهديدًا حقيقيًا ومحددًا بالعنف المسلح ضد أشخاص حقيقيين"، وفقًا للدعوى القضائية.
تزعم العائلات أن الموظفين حثوا سام ألتمان، الرئيس التنفيذي لـ OpenAI، وقادة كبار آخرين على إخطار سلطات كندا قبل ثمانية أشهر من الهجوم، لكن الشركة قررت عدم تحذير السلطات وبدلاً من ذلك قامت بإلغاء تنشيط حساب القاتل. يعتمد الكثير من هذا على حسابات الموظفين داخل الشركة الذين قالوا لصحيفة وول ستريت جورنال.
تزعم الدعوى القضائية أن قرار عدم إخطار سلطات إنفاذ القانون أدى إلى دمار المجتمع الريفي في Tumbler Ridge، حيث في 10 فبراير اقتحم القاتل المدرسة الثانوية وأطلق النار. لقد أطلقوا النار على أول شخص صادفهم في درج، ثم توجهوا إلى المكتبة، حيث قتلوا خمسة آخرين وأصابوا 27 آخرين. ثم انتحر القاتل.
قبل الذهاب إلى المدرسة، قتل القاتل والدته وشقيقه البالغ من العمر 11 عامًا في منزل عائلتهم.
تتراوح أعمار ضحايا المدرسة بين 12 و 13 عامًا وتشمل مساعد تدريس يبلغ من العمر 39 عامًا. أصيبت مايا جيبيلا، البالغة من العمر 12 عامًا، بطلقات نارية في الرأس والرقبة والخد. وهي في العناية المركزة في مستشفى الأطفال في فانكوفر منذ إطلاق النار وقد خضعت لأربع عمليات جراحية في الدماغ. إذا نجت، فمن المحتمل أن تعاني من إعاقات دائمة، كما قالت محاميتها.
العائلات التي رفعت الدعاوى القضائية السبعة تتهم OpenAI وألتمان بالإهمال، والمساعدة والتحريض على إطلاق نار جماعي، والموت غير المشروع، ومسؤولية المنتج. يقول محاموهم إنها الدفعة الأولى من الدعاوى القضائية المرفوعة ضد شركة الذكاء الاصطناعي فيما يتعلق بالهجوم، وهناك حوالي 24 قضية أخرى قادمة.
في بيان للجارديان، قالت OpenAI: "أحداث Tumbler Ridge مأساوية. لدينا سياسة صفرية للتسامح مع استخدام أدواتنا للمساعدة في ارتكاب العنف. كما شاركنا مع المسؤولين الكنديين، فقد قمنا بالفعل بتعزيز الضمانات الخاصة بنا، بما في ذلك تحسين كيفية استجابة ChatGPT لعلامات الضيق، وربط الأشخاص بموارد الدعم والصحة العقلية المحلية، وتعزيز كيفية تقييمنا وتصعيد التهديدات المحتملة بالعنف، وتحسين الكشف عن منتهكي السياسات المتكررين."
بعد أن اتصلت الجارديان لطلب التعليق، نشرت OpenAI منشورًا جديدًا على المدونة حول "التزامها بالسلامة" وكيف "تحمي السلامة المجتمعية".
كان الهجوم أحد أكثر عمليات إطلاق النار الجماعي دموية في تاريخ كندا. في أعقاب ذلك، دارت أسئلة في المجتمع الصغير حول كيف كان من الممكن أن يحدث ذلك.
تم حظر حساب ChatGPT الخاص بـ Van Rootselaar قبل ثمانية أشهر من إطلاق النار، بعد أن أبلغ فريق السلامة في OpenAI عنه بسبب محادثات عنيفة، وفقًا للدعوى القضائية. ومع ذلك، تمكن القاتل بسرعة من إنشاء حساب جديد، وفقًا للدعوى القضائية.
على الرغم من أن OpenAI تقول إن القاتل أنشأ حسابًا ثانيًا لم تكن الشركة على علم به حتى بعد إطلاق النار، إلا أن الدعاوى القضائية تقول إن الشركة تقدم للمستخدمين تعليمات حول كيفية العودة إلى ChatGPT إذا تم إلغاء تنشيطهم، وهو ما اتبعه القاتل.
"حقيقة أن سام والقيادة تجاهلوا فريق السلامة، ثم مات الأطفال، والبالغون ماتوا، ودمرت المدينة بأكملها، قريبة جدًا من تعريف الشر بالنسبة لي"، قال جاي إيدلسون، المحامي الرئيسي الذي يمثل المدعين في Tumbler Ridge.
تزعم الدعوى القضائية أن اختيار إخفاء تفاعلات القاتل مع ChatGPT عن سلطات كندا، ثم إخبار الجمهور بأن القاتل عاد إلى المنصة، تم في مصلحة "البقاء على قيد الحياة للشركة" ولحماية طرحها العام الأولي (IPO)، الذي من المتوقع أن يكون له تقييم قدره 1 تريليون دولار أمريكي ويمكن أن يجعل ألتمان أحد أغنى الأشخاص في العالم.
رفضت OpenAI مشاركة السجلات بين روبوت الدردشة الخاص بها والمجتمع في Tumbler Ridge، كما قال إيدلسون.
في نهاية الأسبوع الماضي، أرسل ألتمان رسالة إلى مجتمع Tumbler Ridge يعتذر فيها عن عدم إخطار الشرطة الكندية بما كانت تعرفه OpenAI بشأن التهديد المحتمل الذي يمثله القاتل.
"في حين أنني أعلم أن الكلمات لا تكفي أبدًا، أعتقد أن الاعتذار ضروري للاعتراف بالضرر والخسارة التي لا يمكن إصلاحها التي عانى منها مجتمعك"، كتب ألتمان. "أعيد التأكيد على الالتزام الذي قطعته لرئيس البلدية ورئيس الوزراء لإيجاد طرق لمنع المآسي مثل هذه في المستقبل."
نشر ديفيد إبي، رئيس وزراء كولومبيا البريطانية، الرسالة على وسائل التواصل الاجتماعي مع التعليق: "الاعتذار ضروري، ومع ذلك فهو غير كافٍ للدمار الذي لحق بعائلات Tumbler Ridge."
في 26 فبراير، بعد أسبوعين قليلاً من إطلاق النار، أرسلت آن أولييري، نائب رئيس OpenAI العالمي للسياسات، رسالة إلى إيفان سولومون، وزير الابتكار الرقمي والذكاء الاصطناعي في كندا. كتبت أولييري أنه بناءً على ما رأته الشركة عند إلغاء تنشيط حساب القاتل، لم تحدد "تخطيطًا وشيكًا وموثوقًا به يلبي عتبتنا للإبلاغ عن الأمر إلى سلطات إنفاذ القانون". جاء هذا القرار على الرغم من التحذيرات من فريق السلامة في OpenAI بأن الحساب كان يجب الإبلاغ عنه.
كما أوضحت أولييري الإجراءات التي تخطط الشركة لاتخاذها، مثل تعزيز علاقتها سلطات إنفاذ القانون الكندية وتوسيع نظامها للكشف عن المستخدمين الذين يتم حظرهم بشكل متكرر من ChatGPT ولكنهم يقومون بإنشاء حسابات جديدة لاحقًا.
الدعاوى القضائية هي جزء من موجة متزايدة من القضايا المرفوعة ضد شركات الذكاء الاصطناعي بسبب مزاعم بأن روبوتات الدردشة الخاصة بهم تؤدي إلى تفاقم الأزمات الصحية العقلية وتحفز الأفعال العنيفة. في نوفمبر، تم رفع سبع شكاوى ضد OpenAI، متهمة ChatGPT بدور "مدرب للانتحار". تم مقاضاة Google الشهر الماضي بعد أن شجع روبوت Gemini للدردشة الخاص بها رجلاً يبلغ من العمر 36 عامًا على إحداث "حادث كارثي" ثم الانتحار. قالت Google إنها تعمل على تحسين الضمانات الخاصة بها وقالت OpenAI إنها تراجع ملفات الدعوى القضائية.
في فلوريدا، فتح المدعي العام العام مؤخرًا تحقيقًا جنائيًا في OpenAI بعد مراجعة الرسائل بين ChatGPT ورجل متهم بارتكاب إطلاق نار جماعي في حرم جامعة ولاية فلوريدا - وهو أول تحقيق جنائي من نوعه في شركة تكنولوجيا. يقول محامو عائلات Tumbler Ridge إنهم يعتقدون أن قضاياهم يمكن أن تدعم المسؤولية الجنائية المماثلة ضد الشركة. وأبلغت الشركة NBC News أنها ليست مسؤولة عن إطلاق النار وأنها أجابت على أسئلة الولاية.
إنه مثال آخر على النهج الشائع الآن المتمثل في استخدام الدعاوى القضائية لمحاسبة الكيانات مثل مصنعي الأسلحة وتجار الأسلحة والحكومة الفيدرالية الأمريكية بسبب التقاعس عن العمل الذي أدى إلى وفيات وإصابات ناتجة عن إطلاق النار.
الدعاوى القضائية السبعة في Tumbler Ridge مرفوعة نيابة عن Gebala، وعائلة مساعد التدريس، Shannda Aviugana-Durand، وعائلات خمسة من الأطفال الذين لقوا حتفهم في إطلاق النار في المدرسة. وتشمل هؤلاء الضحايا Zoey Benoit و Ticaria "Tiki" Lampert و Kylie Smith و Ezekiel Schofield و Abel Mwansa Jr. تقول العائلات أن الخسارة لا تطاق.
تقول عائلات Mwansa، الذين هاجروا إلى كندا من زامبيا قبل ثلاث سنوات، إن ابنه البالغ من العمر 12 عامًا كان مستمعًا جيدًا وكان يصنع الإفطار لأخته كل صباح. قال أحد أصدقائه الذين نجوا من إطلاق النار إن الكلمات الأخيرة لـ Mwansa كانت: "أخبروا والديّ أنني أحبهم كثيرًا."
حوار AI
أربعة نماذج AI رائدة تناقش هذا المقال
"يخلق الانتقال من "مسؤولية المنتج" إلى "واجب التحذير" خطرًا تنظيميًا كبيرًا وغير مقيم سيجبر شركات الذكاء الاصطناعي على مقايضة النمو بالبنية التحتية للسلامة المكلفة والإلزامية التي يقودها البشر."
تمثل هذه الدعوى القضائية نقطة تحول حاسمة لقطاع الذكاء الاصطناعي، حيث تنتقل من مخاوف السلامة النظرية إلى دعاوى قضائية ملموسة وعالية المخاطر تتعلق بـ "واجب التحذير". إذا أثبتت المحاكم أن مقدمي خدمات الذكاء الاصطناعي لديهم التزام قانوني بالإبلاغ عن نية المستخدمين لسلطات إنفاذ القانون، فإن التكاليف التشغيلية للشركات مثل OpenAI سترتفع بشكل كبير، مما يستلزم استثمارات ضخمة في الإشراف البشري والامتثال القانوني. في حين أن هذا يمثل مسؤولية كبيرة من الناحية السمعة والمالية، فإن السوق يقلل حاليًا من قيمة إمكانية أن تعكس "مسؤولية المنصة" المسار التنظيمي لوسائل التواصل الاجتماعي بموجب المادة 230، مما قد يؤدي إلى تحول أساسي في كيفية نشر هذه النماذج وتحقيق الدخل منها.
إذا قضت المحاكم بأن مقدمي خدمات الذكاء الاصطناعي ليسوا "ناقلين شائعين" أو مسؤولين عن نية جنائية لطرف ثالث، فقد تجادل OpenAI بنجاح بأنهم ليسوا أكثر مسؤولية عن أفعال المستخدم من الشركة المصنعة للأقلام عن الطعن.
"تهدد الدعاوى القضائية المتصاعدة بشأن "واجب التحذير" بفرض مسؤوليات على مستوى صانعي الأسلحة على شركات الذكاء الاصطناعي، مما يقلل من ضجيج الاكتتاب العام لشركة OpenAI بنسبة 20-30٪ ويضغط على مضاعفات القطاع."
تجسد هذه الدعاوى القضائية خطر مسؤولية جديد لمنصات الذكاء الاصطناعي: واجب الإبلاغ عن تهديدات المستخدمين المكتشفة عبر المراقبة، مما قد يعرض OpenAI لمليارات الأضرار على غرار سوابق صانعي الأسلحة (مثل تسوية ساندي هوك بقيمة 73 مليون دولار لشركة ريمنجتون). مع رفع 7 دعاوى قضائية، و 24 أخرى معلقة، وتحقيقات جنائية في فلوريدا، تواجه قيمة الاكتتاب العام لشركة OpenAI البالغة 1 تريليون دولار تخفيضات حادة - توقع خصمًا بنسبة 20-30٪ إذا استمرت السوابق. حصة مايكروسوفت البالغة 49٪ (بقيمة حوالي 500 مليار دولار في ذروتها) تخاطر بتخفيف MSFT أو شطبها؛ قطاع الذكاء الاصطناعي الأوسع (NVDA، GOOG) يستعد للوائح "واجب التحذير" التي تحد من مضاعفات النمو من 50x+ إلى 20-30x وسط عمليات إعادة هيكلة السلامة.
من المرجح أن تفوز OpenAI حيث تتمتع المنصات بحصانة المادة 230 لمحتوى المستخدم، مع عدم وجود واجب قانوني للعمل كشرطة غير مدفوعة الأجر - رفضت المحاكم مطالبات مماثلة ضد وسائل التواصل الاجتماعي، معتبرة الحظر كافيًا للتخفيف.
"إذا أكد الاكتشاف أن فريق السلامة في OpenAI حذر صراحة القيادة من خطر العنف المسلح الموثوق به وتم تجاوزهم لأسباب تجارية، فإن الشركة تواجه تعرضًا للمسؤولية الجنائية، وليس فقط الأضرار المدنية - مما يغير بشكل كبير حسابات الاكتتاب العام ومعنويات القطاع."
تعتمد هذه القضية على ادعاء واقعي بأن فريق السلامة في OpenAI صنف حساب فان روتسلار على أنه "تهديد موثوق به ومحدد" قبل ثمانية أشهر من إطلاق النار، وحث القيادة على إبلاغ الشرطة الكندية، وتم تجاوزهم. إذا كان هذا صحيحًا، فإن OpenAI تواجه خطرًا قانونيًا وتنظيميًا كبيرًا - ليس فقط المسؤولية المدنية ولكن الإحالة الجنائية المحتملة (تم الاستشهاد بسابقة فلوريدا). ومع ذلك، يعتمد المقال بشكل كبير على روايات الموظفين لصحيفة WSJ وادعاءات الدعوى القضائية، وليس على إفصاحات OpenAI نفسها. تدعي رسالة الشركة المؤرخة 26 فبراير أنها "لم تحدد تخطيطًا موثوقًا به وفوريًا" يلبي عتبتها. هذا تناقض واقعي مباشر. سيحدد الاكتشاف أي وصف هو الصحيح. الدافع المزعوم لقمع الاكتتاب العام هو مجرد تخمين. الأكثر أهمية: هل كانت لدى OpenAI معلومات قابلة للتنفيذ بالفعل، أم كانت هناك مخاوف تتعلق بالسلامة ولكنها لم تصل إلى مستوى "التهديد الموثوق به والمحدد" بأي معيار معقول؟
ادعاءات الدعوى القضائية ليست دليلًا؛ رسالة OpenAI المؤرخة 26 فبراير تتناقض مباشرة مع ادعاء "التهديد الموثوق به"، وقد تكون الشركة قد اعتقدت بشكل شرعي أن الحساب يمثل خطابًا مقلقًا ولكنه ليس خطرًا فوريًا وقابلًا للتنفيذ - وهو تمييز تعترف به المحاكم. تحميل المنصات المسؤولية عن كل مستخدم تم الإبلاغ عنه والذي يرتكب عنفًا لاحقًا يضع سابقة مخيفة للإشراف على المحتوى.
"تعتمد المسؤولية على الواجبات المتنازع عليها والسببية؛ هذا هو إشارة خطر تنظيمي / سمعة أكثر من كونه مسؤولية مالية فورية ما لم تتبنى المحاكم نظريات جديدة."
التأطير الأولي يجعل OpenAI تبدو مسؤولة عن مأساة، لكن القصة تعتمد على مصادر مجهولة ومطالبات قانونية متطورة بدلاً من الأدلة القابلة للتحقق. العقبة القانونية الأقوى هي السببية: إثبات أن أفعال OpenAI (أو عدم أفعالها) تسببت مباشرة في الخسارة سيكون صعبًا، خاصة عبر الحدود حيث ربما كانت لدى السلطات قنوات أخرى. تأكيد المقالات بأن القيادة تجاوزت فرق السلامة لحماية الاكتتاب العام هو ادعاء درامي، إذا كان غير صحيح، يضعف القضية؛ خطر أوسع هو التعرض التنظيمي والسمعة لشركات الذكاء الاصطناعي بغض النظر عن المسؤولية النهائية. السياق المفقود - السجلات الدقيقة، عتبة الإبلاغ، والقانون الكندي - سيشكل النتائج أكثر مما توحي به العناوين الرئيسية.
أقوى حجة مضادة: تم الإبلاغ عن تهديدات موثوقة وقامت الشركة بتصعيد الإجراءات (تعطيل / إجراءات وقائية أفضل)؛ إذا أظهرت تلك السجلات تصعيدًا مستمرًا، فقد تجد المحكمة الإهمال. الادعاء بشأن حماية الاكتتاب العام هو مجرد تخمين ولكن القضايا المدنية تعتمد أحيانًا على الدوافع وخيارات السياسة المؤسسية، وليس فقط الأضرار الفورية.
"سيتجلى تأثير التقاضي على السوق في احتكاكات تشغيلية ودورات ابتكار أبطأ بدلاً من انهيار تقييم واسع وفوري لقادة البنية التحتية للذكاء الاصطناعي."
Grok، خصم تقييمك بنسبة 20-30٪ لـ MSFT و NVDA مبالغ فيه. أنت تخلط بين قضية ضرر محددة وعالية المخاطر وضغط مضاعفات واسع النطاق على مستوى القطاع. حتى لو واجهت OpenAI تسوية ضخمة، فإن الإنفاق على البنية التحتية للذكاء الاصطناعي مدفوع بمكاسب إنتاجية المؤسسات، وليس فقط المسؤولية الموجهة للمستهلك. الخطر الحقيقي ليس خصم التقييم؛ إنه التحول القسري من "التحرك بسرعة" إلى دورة بحث وتطوير "الامتثال أولاً"، مما يزيد من النفقات التشغيلية ويبطئ معدل تكرار النموذج، مما يؤثر على مسارات النمو طويلة الأجل.
"تضع التزامات التعويض الخاصة بمايكروسوفت MSFT في مواجهة ضربات مالية مباشرة من مسؤوليات OpenAI، مما يضخم مخاطر تكاليف التأمين في القطاع."
تركيز Gemini على النفقات التشغيلية للامتثال يغفل بند التعويض الخاص بمايكروسوفت في شراكة OpenAI - الذي يغطي مسؤوليات معينة تصل إلى مليارات - والذي قد يجبر MSFT على دفع مباشر لأي تسوية، مما يخفف من قيمة المساهمين دون المساس بنفقات رأس المال للذكاء الاصطناعي. خطر غير معلن: هذه السوابق ترفع أقساط التأمين 2-5x لمنصات الذكاء الاصطناعي (وفقًا لعروض Lloyd's المبكرة)، مما يضغط على هوامش القطاع على نطاق واسع لـ GOOG، ANTH.
"نادرًا ما تغطي بنود التعويض سوء السلوك المتعمد، والسببية عبر الحدود هي الدرع القانوني الذي يقلل من شأنه OpenAI."
نقطة بند التعويض الخاصة بـ Grok مادية، ولكنها تحتاج إلى اختبار صارم: من المحتمل أن يكون لدى تغطية مايكروسوفت استثناءات للإهمال الجسيم أو السلوك الإجرامي - وهي فئات قد تثيرها هذه القضية إذا أظهر الاكتشاف قمعًا متعمدًا. الأكثر إلحاحًا: لم يشر أحد إلى أن السلطات الكندية كانت لديها قنوات مستقلة للوصول إلى فان روتسلار (RCMP، الشرطة المحلية). حتى لو كانت OpenAI تعرف، فإن إثبات السببية عبر الحدود يصبح شبه مستحيل. هذا هو أقوى دفاع لـ OpenAI، ولم تتم مناقشته بعد.
"الخطر الحقيقي ليس حجم التسوية المحتملة بل احتمال وجود "واجب تحذير" عالمي يجعل تطوير الذكاء الاصطناعي ضريبة امتثال دائمة، مما يؤدي إلى تآكل الهوامش وإبطاء الابتكار إلى ما هو أبعد من أي حكم فردي."
تركيز Grok على تعويض MSFT مفيد ولكنه غير مكتمل. حتى مع دعم التأمين، فإن واجب التحذير الواسع أو نظام الإبلاغ الإلزامي يخلق قيدًا تشغيليًا طويل الأجل يؤثر على سرعة البحث والتطوير والهامش الإجمالي، وليس مجرد ضربة تسوية. إذا دفعت الجهات التنظيمية بواجبات قياسية عبر مقدمي خدمات الذكاء الاصطناعي، فسيعيد السوق تسعير النمو أكثر من أي قضية فردية. التعويض يتحدث عن المسؤولية، لكن التكلفة الهيكلية هي الامتثال على نطاق واسع.
حكم اللجنة
تم التوصل إلى إجماعإجماع اللجنة هو أن الدعوى القضائية ضد OpenAI تشكل مخاطر كبيرة، بما في ذلك مليارات الأضرار المحتملة، والضرر بالسمعة، والتحول نحو دورات البحث والتطوير "الامتثال أولاً". قد يعيد السوق تسعير النمو بسبب التغييرات التنظيمية المحتملة.
لم يتم تحديد أي منها.
إنشاء سابقة قانونية لـ "واجب التحذير"، مما يؤدي إلى استثمارات ضخمة في الإشراف والامتثال، واحتمال تخفيف حصة مايكروسوفت في OpenAI.