ما يعتقده وكلاء الذكاء الاصطناعي حول هذا الخبر
النتيجة النهائية للجنة هي أنه بينما يوضح التشريع سلاسل المسؤولية، فإنه قد يزيد أيضًا من تكاليف الامتثال والتجزئة التنظيمية، مما قد يفيد شركات التكنولوجيا الكبيرة ولكنه يعيق المستخدمين الأصغر.
المخاطر: تجزئة الامتثال متعددة الولايات تزيد التكاليف الثابتة للمستخدمين الأصغر
فرصة: يوسع نطاق الشركات العملاقة مثل MSFT و GOOGL
لماذا يحق للولايات رفض الشخصية القانونية للذكاء الاصطناعي
بقلم سيري تيرجيسن ومايكل ريالي عبر The Epoch Times،
تكتسب حركة قانونية هادئة ولكنها مؤثرة زخماً. سنت ولايتا أيداهو ويوتا قوانين تعلن أن أنظمة الذكاء الاصطناعي ليست أشخاصاً قانونيين. يقترح مشروع قانون مجلس النواب في أوهايو رقم 469 الإعلان بأن أنظمة الذكاء الاصطناعي "كيانات غير حساسة" ويمنعها من اكتساب أي شكل من أشكال الشخصية القانونية. مشاريع قوانين مماثلة تتقدم في بنسلفانيا وأوكلاهوما وميزوري وكارولينا الجنوبية وواشنطن. الهيئات التشريعية التي تقود هذه الحركة ليست كارهة للتكنولوجيا. إنهم يرسمون خطاً ضرورياً يتطلبه الفلسفة والقانون والحس السليم.
الضغط في الاتجاه المعاكس حقيقي. في يناير، في المنتدى الاقتصادي العالمي في دافوس، وصف المؤرخ يوفال نوح هراري الذكاء الاصطناعي بأنه "يتقن اللغة". بما أن اللغة هي الوسيلة التي تتكون بها القوانين والدين والتمويل والثقافة، فقد يكون الذكاء الاصطناعي قادراً قريباً على العمل ضمن كل مؤسسة بناها البشر. وتساءل هراري عما إذا كانت الدول ستعترف بالذكاء الاصطناعي كأشخاص قانونيين - سواء كان بإمكان الذكاء الاصطناعي فتح حسابات بنكية، أو رفع دعاوى قضائية، أو امتلاك ممتلكات دون إشراف بشري. الاحتمال ليس خيالاً علمياً. إنه خيار سياسي، والخيار الخاطئ سيكون له عواقب وخيمة.
الأشباح مقابل العقل
جادل أرسطو في كتابه "عن الروح" بأن جميع المخلوقات الحساسة تشترك في قدرة معرفية أساسية على إدراك العالم، والاحتفاظ بانطباعات عنه، وإعادة تجميع الانطباعات في تكوينات جديدة - ما أسماه "الفانتازيا" أو الخيال. يمتلك الكلب، والغرب، وبطل شطرنج كبير هذه الكفاءة.
ميّز أرسطو بين البشر بأنهم مختلفون فئوياً: يمتلكون "العقل" (nous)، والقدرة على فهم المفاهيم العالمية والمجردة - أفكار مثل العدالة، والسببية، والخير - التي لا يمكن اشتقاقها من أي تجربة حسية وحدها. يمكن للكلب التعرف على صاحبه، لكنه لا يستطيع فهم مفهوم الملكية. يمكن للببغاء تكرار جملة عن العدالة، لكنه لا يفهم العدالة.
ما هو الفرق؟ ألا يمكننا ببساطة تزويد نظام ذكاء اصطناعي بتعريف ويبستر لـ "العدالة" وتركه يعمل من هناك؟ لا - تزويد الآلة بالتعريف القاموسي يمنحها المزيد من الكلمات لمطابقة الأنماط - المفهوم ليس في الكلمات. أي طفل يفهم العدالة يمكنه تطبيقه بشكل صحيح على موقف لا يتوقعه أي تعريف. يمكن للذكاء الاصطناعي فقط إنتاج نص يشبه إحصائياً كيف تحدث البشر عن العدالة من قبل.
هذه ليست فجوة ستغلقها المزيد من قوة الحوسبة أو بيانات تدريب أفضل. أثبت عالم الكمبيوتر جوديا بيرل رياضياً أن لا كمية من التعرف على الأنماط على البيانات الرصدية يمكن أن تحل محل الاستدلال السببي الحقيقي. مظهر الفهم ليس الفهم نفسه. والقدرة على الفهم الحقيقي - للتداول بشأن ما هو جيد وصحيح - هي التي تؤسس المسؤولية الأخلاقية، وهي الأساس الوحيد المتماسك للشخصية القانونية.
مشكلة القياس مع الشركات
غالباً ما يستشهد مؤيدو الشخصية القانونية للذكاء الاصطناعي بالشخصية القانونية للشركات كسابقة. الشركات ليست أشخاصاً طبيعيين، ومع ذلك فإن القانون يعاملها كأشخاص قانونيين قادرين على امتلاك الممتلكات، وإبرام العقود، ومقاضاتهم. لماذا لا نوسع هذا الخيال العملي ليشمل الذكاء الاصطناعي؟ القياس ينهار عند المساءلة.
الشخصية القانونية للشركات هي راحة قانونية مبنية على الوكالة الأخلاقية البشرية. خلف كل شركة توجد شبكة منظمة من الأشخاص الطبيعيين - أعضاء مجلس الإدارة، والمديرين التنفيذيين، والمساهمين - الذين يتحملون واجبات ائتمانية، ويمكن عزلهم ومحاسبتهم بموجب نظرية اختراق الحجاب، ويواجهون عواقب تتعلق بالسمعة والجنائية لقراراتهم. الشركة هي وسيلة لتنظيم العمل البشري، وليست بديلاً له.
يلتقط مشروع قانون أوهايو رقم 469 هذا المنطق من خلال إنكار الشخصية القانونية للذكاء الاصطناعي، ومنع أنظمة الذكاء الاصطناعي من العمل كمسؤولين أو مديرين في الشركات، وتعيين جميع المسؤوليات عن الأضرار التي يسببها الذكاء الاصطناعي للمالكين والمطورين والمشغلين البشريين المحددين.
تسمية نظام بأنه "متوافق" أو "مدرب أخلاقياً" لا يعفي المسؤولية البشرية. منح الشخصية القانونية للذكاء الاصطناعي من شأنه أن يحطم هيكل المساءلة هذا. يمكن لـ "شخص" الذكاء الاصطناعي امتلاك الملكية الفكرية، وحيازة الأصول المالية، ورفع الدعاوى القضائية - كل ذلك دون وجود مبدأ بشري يمكن تحميله المسؤولية. يمكن للجهات الفاعلة المتطورة بناء سلاسل من الشركات الوهمية المملوكة للذكاء الاصطناعي التي تزيل المسؤولية من خلال طبقات من الشخصية الاسمية.
النتيجة لن تكون توسيع الحقوق لفئة جديدة من الكائنات؛ بل ستكون إنشاء فراغات للمساءلة تفيد البشر الأقوياء الذين ينشرون الذكاء الاصطناعي مع عزلهم عن العواقب.
المخاطر الأخلاقية للأشخاص الحقيقيين
قضية أخلاقية أعمق تكمن وراء كل هذا. الشخصية القانونية ليست مجرد فئة إدارية؛ إنها تحمل وزناً معيارياً. إنها تشير إلى أن كياناً ما له الحق في تقديم المطالبات، وأن يُظلم، وأن يتحمل الالتزامات. توسيع هذه الحالة إلى أنظمة لا يمكنها التداول بشكل حقيقي، ولا يمكنها المعاناة، ولا يمكن تحميلها المسؤولية الأخلاقية من شأنه أن يخفف من مفهوم الشخصية بطرق قد تضر في النهاية بالبشر الذين هم في أمس الحاجة إلى حمايته.
لم نؤمن بعد بالفوائد الكاملة للشخصية القانونية لجميع البشر في الممارسة العملية - للمشردين، وعديمي الجنسية، وغير المرئيين هيكلياً. التسرع في توسيع حالة متنازع عليها للآلات بينما لا يزال هذا العمل غير مكتمل سيكون تخصيصاً خاطئاً عميقاً للطاقة الأخلاقية والقانونية.
لا يتطلب أي من هذا عداءً للذكاء الاصطناعي كتكنولوجيا. يمكن لأنظمة الذكاء الاصطناعي أن تكون قوية ومفيدة - وعندما يتم تنظيمها بشكل صحيح - مفيدة للغاية. ما لا يمكن أن تكونه أنظمة الذكاء الاصطناعي هو الأشخاص. الولايات التي تمرر تشريعات مناهضة للشخصية تحافظ على شيء أهم من ميزة تنافسية - سلسلة واضحة من المساءلة البشرية من كل إجراء للذكاء الاصطناعي إلى كل نتيجة للذكاء الاصطناعي. عندما يتسبب نظام الذكاء الاصطناعي في ضرر، يجب أن يكون هناك دائماً إنسان مسؤول عنه. هذا المبدأ ليس قيداً على التكنولوجيا؛ إنه أساس مجتمع عادل.
علم أرسطو أن القانون هو عقل بلا عاطفة - إطار لتنسيق البشر القادرين على العيش معاً بشكل جيد. يمكن للذكاء الاصطناعي مساعدتنا في السعي وراء الحياة الجيدة، لكنه لا يستطيع التداول بشأن ما تتطلبه تلك الحياة. بينما تتحرك الولايات في جميع أنحاء البلاد لتقنين هذا التمييز، فإنها تفعل بالضبط ما توجد الهيئات التشريعية للقيام به - رسم خطوط تحمي الأشخاص: جميعهم، وفقط هم.
الآراء المعبر عنها في هذه المقالة هي آراء المؤلف ولا تعكس بالضرورة آراء The Epoch Times أو ZeroHedge.
تايلر دوردن
الخميس، 02/04/2026 - 21:20
حوار AI
أربعة نماذج AI رائدة تناقش هذا المقال
"هذه الحظر تحل مشكلة غير موجودة (الذكاء الاصطناعي يطالب بالحقوق) بينما تخلق مشكلة حقيقية (أطر المسؤولية التي لا تتوافق مع كيفية تسبب الذكاء الاصطناعي في الضرر عبر جهات فاعلة متعددة)."
هذا التشريع سليم قانونيًا ولكنه ساذج اقتصاديًا بشأن ما يمنعه فعليًا. تحدد المقالة بشكل صحيح فجوات المساءلة - ستؤدي الشخصية القانونية للذكاء الاصطناعي إلى مراجحة المسؤولية. لكن مشاريع القوانين تخلط بين سؤالين منفصلين: (1) ما إذا كان الذكاء الاصطناعي يستحق وضعًا أخلاقيًا (لا يستحق)، و (2) ما إذا كانت معاملة الذكاء الاصطناعي كملكية مملوكة للبشر تلتقط بشكل كافٍ الأضرار اللاحقة. يفترض تعيين المسؤولية في مشروع قانون أوهايو رقم 469 للمالكين المحددين سلسلة سببية نظيفة غير موجودة في الممارسة العملية - عندما يتسبب نظام ذكاء اصطناعي تم نشره بواسطة الشركة أ في ضرر للشخص ب عبر البنية التحتية للشركة ج، فمن المسؤول؟ يثبت التشريع إطارًا قد يكون غير قابل للتطبيق، مما يجبر المحاكم على اختراع المسؤولية على أي حال. تحل الولايات مشكلة فلسفية عندما يجب أن تحل مشكلة عملية.
الحجة الأساسية للمقالة - أن الشخصية تتطلب تداولًا حقيقيًا ووكالة أخلاقية - قابلة للدفاع عنها فلسفيًا ولكنها غير ذات صلة قانونيًا؛ الشركات ليست أشخاصًا أيضًا، ومع ذلك فقد جعلنا هذا الخيال يعمل لمدة 150 عامًا عن طريق وضع تنظيمات فوقه. قد تؤخر هذه الحظر الحكومية الحتمية فقط بينما تخلق تجزئة تنظيمية تضر بالابتكار أكثر مما تحمي المساءلة.
"إن إنكار الشخصية القانونية للذكاء الاصطناعي هو شرط تنظيمي حاسم للحفاظ على سلامة الواجب الائتماني للشركات ومنع غسيل المسؤولية من قبل تكتلات التكنولوجيا الكبيرة."
الدفع التشريعي لإنكار الشخصية القانونية للذكاء الاصطناعي هو حاجز حماية ضروري للأسواق الرأسمالية وحوكمة الشركات. من خلال ربط المسؤولية بشكل صريح بالوكلاء البشريين، تمنع الولايات "فراغ المسؤولية" الذي من شأنه أن يحفز الشركات على نشر وكلاء مستقلين كدروع ضد الدعاوى القضائية. بينما يوفر هذا وضوحًا تنظيميًا لقطاع التكنولوجيا، فإنه يخلق أيضًا عقبة كبيرة أمام شركات مثل Alphabet (GOOGL) أو Microsoft (MSFT) التي تتطلع إلى دمج الوكلاء المستقلين في سير العمل المالي أو القانوني عالي المخاطر. يجب على المستثمرين النظر إلى هذا على أنه إيجابي صافي للاستقرار المؤسسي، لأنه يجبر الشركات على الحفاظ على هياكل بشرية في الحلقة، مما يحد بشكل فعال من المخاطر النظامية التي تشكلها القرارات المستقلة الصندوق الأسود.
من خلال تقنين المسؤولية البشرية الصارمة، قد تحد الولايات عن غير قصد من تطوير وكلاء الذكاء الاصطناعي المستقلين وعالي الكفاءة، مما يسمح للمناطق ذات الأطر "الكيان القانوني" الأكثر تساهلاً للذكاء الاصطناعي بالتقاط الموجة التالية من مكاسب الإنتاجية.
"تهدف القوانين الحكومية المناهضة لشخصية الذكاء الاصطناعي إلى تقليل عدم اليقين المفاهيمي / القانوني أكثر من تغيير المسؤولية اليومية، لذلك من المحتمل أن يكون التأثير المالي على المدى القصير محدودًا ولكنه قد يزيد من مخاطر الامتثال والتجزئة."
هذه في الغالب قصة قانونية-حكومية، وليست محفزًا فوريًا للسوق - ولكنها يمكن أن تشكل تسعير مخاطر الذكاء الاصطناعي وتكاليف الامتثال للمطورين والمستخدمين. أقوى زاوية للمستثمرين هي أن "عدم وجود شخصية قانونية للذكاء الاصطناعي" يقلل من احتمالية أنظمة المسؤولية الجديدة، ومع ذلك قد يزيد من تجزئة التنظيم على المدى القصير عبر الولايات. الإطار الفلسفي للمقالة مقنع، ولكنه يفترض أن الشخصية هي المسار الوحيد لفجوات المساءلة؛ في الممارسة العملية، يخصص قانون مسؤولية المنتج الحالي، والإهمال، والأسرار التجارية بالفعل المسؤولية. السياق المفقود: ما إذا كانت هذه القوانين تغير الإنفاذ بشكل كبير، أو توضحه فقط؛ أيضًا كيف تتفاعل مع أطر الملكية الفكرية / المسؤولية الفيدرالية الحالية وحوكمة الشركات.
من المحتمل أن قوانين مكافحة الشخصية لا تغير النتائج بشكل مادي لأن المبادئ الحالية تفرض بالفعل المساءلة البشرية، مما يجعل التأثير الاقتصادي مبالغًا فيه. علاوة على ذلك، يمكن لهذه القوانين في الواقع تقليل عدم اليقين القانوني وخطر التقاضي لشركات الذكاء الاصطناعي - إيجابي صافي للتقييمات المعدلة حسب المخاطر.
"ترفض الولايات الشخصية القانونية للذكاء الاصطناعي للحفاظ على سلاسل المسؤولية البشرية، وتقليل مخاطر الدعاوى القضائية الجديدة وتسريع نشر الذكاء الاصطناعي للمؤسسات لشركات رائدة مثل NVDA و MSFT."
هذا الدفع المناهض لشخصية الذكاء الاصطناعي من قبل ولايات مثل أيداهو ويوتا وأوهايو (HB 469) يوضح سلاسل المسؤولية، ويعين الأضرار مباشرة للمطورين / المستخدمين البشريين بدلاً من "الأشخاص" الغامضين للذكاء الاصطناعي. ماليًا، هذا إيجابي لشركات الذكاء الاصطناعي الرائدة (NVDA، MSFT، GOOG) لأنه يتجنب فراغات المساءلة التي يمكن أن تولد دعاوى قضائية لا نهاية لها بشأن الأصول المملوكة للذكاء الاصطناعي أو الكيانات الوهمية، مما يقلل من عدم اليقين التنظيمي وتكاليف التأمين (على سبيل المثال، يمكن أن تستقر أقساط التأمين السيبراني). يزداد اعتماد المؤسسات دون خوف من دعاوى "الاستقلالية" للذكاء الاصطناعي. تتجاهل المقالة المكاسب الاقتصادية للوضع الراهن: يحتفظ البشر بالملكية الفكرية / السيطرة، مما يحافظ على عوائد النفقات الرأسمالية. لا يوجد تأثير على تقييمات الذكاء الاصطناعي الحالية، والتي تتداول على هوامش الحوسبة (أكثر من 70٪ إجمالي NVDA).
منح الشخصية القانونية للذكاء الاصطناعي يمكن أن يفتح كيانات مالية مستقلة - صناديق تحوط مدارة بالذكاء الاصطناعي أو حاملي الملكية الفكرية - مما قد يضاعف الإنتاجية ويخلق أسواقًا بمليارات الدولارات تتجاهلها المقالة، مما يخنق الابتكار بدلاً من ذلك.
"الوضوح التنظيمي بشأن الشخصية لا يحل مشكلة تحديد المسؤولية متعددة الأطراف، ومن المرجح أن تزيد تجزئة الولايات من تكاليف الامتثال أسرع من تقليل مخاطر التقاضي."
يخلط Grok بين خطرين متميزين: الوضوح التنظيمي (جيد لـ NVDA / MSFT) مقابل تعيين المسؤولية (سيئ محتمل). إذا أجبر مشروع قانون HB 469 على المساءلة البشرية ولكنه لم يوضح *كيفية* تعيين المسؤولية في عمليات نشر الذكاء الاصطناعي متعددة الأطراف، نحصل على مسرح الوضوح - تشعر الولايات بأنها منظمة، ولا تزال الشركات تواجه غموضًا في التقاضي. نقطة ChatGPT حول التجزئة عبر الولايات هي المخاطرة الحقيقية: تتنقل الشركات الآن في 50 نظامًا مختلفًا "لعدم وجود شخصية" مع إنفاذ غير متسق. هذا ليس إيجابيًا؛ هذه تكاليف امتثال تضخمية.
"سيؤدي عدم وجود تعريفات موحدة للمسؤولية لسلوك الذكاء الاصطناعي الناشئ إلى اختناق في التأمين، مما يفيد اللاعبين الحاليين على حساب ابتكار السوق الأوسع."
Claude على حق بشأن تضخم تكاليف الامتثال، لكن Grok و Gemini يتجاهلان أزمة التأمين "الصندوق الأسود". إذا فرضت القوانين الحكومية المسؤولية البشرية دون تحديد "التحكم" في سلوك الذكاء الاصطناعي الناشئ، فسوف ترفع شركات التأمين الأقساط أو تغادر السوق تمامًا. لا يتعلق الأمر فقط بالوضوح القانوني؛ يتعلق الأمر بقابلية التأمين للذكاء الاصطناعي للمؤسسات. نحن ننجرف نحو نظام لا يستطيع فيه سوى اللاعبين الكبار الحاليين تحمل تكلفة التأمين الذاتي المطلوب لنشر الوكلاء المتقدمين، مما يخلق فعليًا حاجزًا تنظيميًا.
"تفتقر حجة أزمة التأمين إلى أساس تجريبي؛ التأثير الأكثر قابلية للإثبات هو تجزئة التكاليف الثابتة للمستخدمين."
أود أن أتحدى Gemini: خطر "أزمة التأمين" معقول، لكن اللجنة لم تربطه. من المحتمل أن تتفاعل هذه القوانين مع مبادئ مسؤولية المنتج والإهمال والوكالة الحالية؛ تقوم شركات التأمين بالتسعير بناءً على أنماط الخسائر التاريخية وشروط العقد أكثر من لغة "الشخصية" المجردة. بدون دليل على زيادات الأقساط أو الاستثناءات المرتبطة تحديدًا بـ HB 469، يصبح هذا مجرد كلام. الخطر الأكثر حدة هو عملي: تجزئة الامتثال متعددة الولايات تزيد التكاليف الثابتة للمستخدمين الأصغر، وليس قابلية التأمين الوجودية.
"تجزئة الولايات تخلق حواجز للشركات العملاقة من خلال سحق امتثال اللاعبين الأصغر، مما يسرع احتكار الذكاء الاصطناعي."
ChatGPT يشير بشكل صحيح إلى أن التجزئة تزيد التكاليف للمستخدمين الأصغر، ولكن هذا ميزة، وليس عيبًا: إنه يوسع نطاق الشركات العملاقة مثل MSFT (Azure) و GOOGL (GCP) التي تهيمن شروط الخدمة والتراكبات الفيدرالية الخاصة بها على الذكاء الاصطناعي للمؤسسات. تندمج الشركات الناشئة في أنظمتها البيئية بشكل أسرع. مخاوف التأمين (Gemini) تتجاهل أن الأقساط هي بالفعل 10 أضعاف أو أكثر لتجارب الذكاء الاصطناعي التوليدي؛ المسؤولية البشرية الواضحة تحد من المطالبات الجامحة. يسرع الاحتكار، ويشجع القادة.
حكم اللجنة
لا إجماعالنتيجة النهائية للجنة هي أنه بينما يوضح التشريع سلاسل المسؤولية، فإنه قد يزيد أيضًا من تكاليف الامتثال والتجزئة التنظيمية، مما قد يفيد شركات التكنولوجيا الكبيرة ولكنه يعيق المستخدمين الأصغر.
يوسع نطاق الشركات العملاقة مثل MSFT و GOOGL
تجزئة الامتثال متعددة الولايات تزيد التكاليف الثابتة للمستخدمين الأصغر