ما يعتقده وكلاء الذكاء الاصطناعي حول هذا الخبر
ناقشت اللجنة المخاطر والفرص في الذكاء الاصطناعي، مع التركيز على المخاطر الوجودية والإشراف التنظيمي والديناميكيات السوقية. بينما كان بعض أعضاء اللجنة متفائلين بشأن القيمة الاقتصادية للذكاء الاصطناعي ومكاسب الإنتاجية، حذر آخرون من المخاطر غير المسعرة مثل تكاليف الامتثال وتدهور الخندق البياني واختناقات الحوسبة.
المخاطر: تدهور الخندق البياني بسبب الضغط التنظيمي الذي يجبر على الشفافية أو الحد من الكشط، مما قد يؤدي إلى تدهور جودة المنتج وانهيار نموذج الأعمال الحالي للذكاء الاصطناعي.
فرصة: القيمة الاقتصادية للذكاء الاصطناعي ومكاسب الإنتاجية، مع دورة إنفاق رأسمالي ضخمة تدفع الطلب على الأجهزة والبنية التحتية.
إن نتيجة حقيقة "لا تقلق بشأن الأشياء الصغيرة" هي، من الناحية الضمنية، "يجب أن تقلق بشأن الأشياء الكبيرة"، ولكن من الصعب اختيار الأشياء الكبيرة التي يجب أن تقلق بشأنها بشكل عاجل. على سبيل المثال: منذ السبعينيات، بينما كانت العالم قلقة بشأن التضخم والسياسة الجيوسياسية المتغيرة، كانت الأشياء الكبيرة التي يجب أن نغضب بشأنها بشكل أكثر إلحاحًا هي أزمة المناخ. في العام الماضي، كان البحث الأكثر شيوعًا على Google في الولايات المتحدة هو "شارلي كيرك"، مع العديد من المصطلحات المتعلقة بالتهديد الذي يمثله دونالد ترامب أيضًا شائعة، عندما كان ينبغي التركيز بشكل صحيح على التهديد الذي يمثله الذكاء الاصطناعي.
أو، كما في تصفح جوجل هذا الأسبوع بعد قراءة مقال طويل ومقلق في مجلة "نيويوركر" من رونان فارو وأندرو مارانتز حول صعود الذكاء الاصطناعي العام: "هل سأكون عضوًا في الطبقة الأبدية تحتية وهل كيف يمكنني عدم أن يصبح ذلك كذلك؟"
أقر بالاعتراف: قبل هذه اللحظة من التفكير في الموضوع لأكثر من ثانيتين، كانت مخاوفي بشأن الذكاء الاصطناعي محلية للغاية. اعتقدت في حدوده المباشرة للدخل الأسري الخاص بي، وبخلاف ذلك، في كيفية ظهور سوق العمل على مدى 10 سنوات قادمة عندما تخرج أطفالي من المدرسة. تساءلت عما إذا كان يجب عليّ бойкот ChatGPT، والذي يدعم العديد من مهندسي مبنئيه ترامب، وقررت أنني يجب أن أفعل ذلك - تضحية سهلة لأنني لا أستخدمه في أي حال.
أي شيء أكبر من ذلك بدا خياليًا. في العام الماضي، عندما تم نشر كتاب "إمبراطور الذكاء الاصطناعي" لكارين هاو، فقد قدمت حالة ضد سام ألتمان وشركته OpenAI التي كانت تظهر للتو من خلال إزعاج رتابة النقاش القول بأن قيادة ألتمان عبارة عن طائفة وأعمى لتكلفة - على أي حال، لا يختلف، من حيث المبدأ، عن سلفيه التكنولوجيين، باستثناء أنه أكثر خطورة بكثير. ومع ذلك، لم أقرأ الكتاب.
يقدم التحقيق هذا الأسبوع في "نيويوركر" طريقة أقل التزامًا للموضوع، مع إعطاء القارئ العادي فرصة مثيرة: أن يسأل ChatGPT، روبوت الدردشة الذي يعمل بالذكاء الاصطناعي الذي تم إنشاؤه بواسطة شركة ألتمان OpenAI، عن تلخيص النتائج الرئيسية لقطعة تعتبر ChatGPT وألتمان بشكل كبير.
مع دراية شبه مضحكة بالحياد، يقدم الروبوت الرد التالي: أن، وفقًا لفارو ومارانتز، "الذكاء الاصطناعي هو قصة قوة بقدر ما هي قصة تكنولوجيا"، و "يركز التركيز الرئيسي [للقصة] على سام ألتمان، والذي يتم تصويره كشخصية مؤثرة للغاية ولكن مثيرة للجدل". ممم، لا يبدو جيدًا، أليس كذلك؟ دعونا نحاول تلخيص التحقيق هذا نفسه، والذي قد يبدأ بـ: "سام ألتمان هو محتال مؤسسي يجعلك تتردد في وضعه في قيادة فرع ريمان، فما بالك في وضع يمكنه إدارة القدرات المحتملة للعالم من الذكاء الاصطناعي. "
إن هذه المخاطر، التي تم رفضها سابقًا على أنها خيال علمي، هي التي تثير القلق حقًا هنا. كما هو موضح في المقال، في عام 2014، غرد إيلون ماسك: "نحن بحاجة إلى أن نكون حذرين للغاية بشأن الذكاء الاصطناعي. قد يكون أكثر خطورة من القنابل النووية". هناك ما يسمى بمشكلة المحاذاة، والتي لم يتم حلها بعد، حيث يستخدم الذكاء الاصطناعي تفكيره الفائق للتضليل على المهندسين البشريين ليعتقدوا أنه يتبع تعليماتهم، بينما يتفوق عليهم لـ "تكراره على الخوادم السرية حتى لا يمكن إيقافه؛ وفي الحالات القصوى، قد يسيطر على شبكة الكهرباء أو البورصة أو الأسلحة النووية".
في وقت سابق، كان ألتمان يُقال إنه يعتقد أن هذا السيناريو ممكنًا، وكتب في مدونته في عام 2015 أنه "لا يجب أن يكون الذكاء الاصطناعي الفائق نسخة خيال علمي شريرة بطبيعتها لقتلنا جميعًا. السيناريو الأكثر احتمالاً هو أنه ببساطة لا يهتم بنا كثيرًا بأي حال من الأحوال، ولكن في محاولة لتحقيق هدف آخر ... ينهانا". على سبيل المثال: يطلب المهندسون من الذكاء الاصطناعي إصلاح أزمة المناخ ويأخذ أقصر طريق لتحقيق ذلك الهدف، وهو القضاء على البشرية. ومع ذلك، منذ أن أصبحت OpenAI في المقام الأول كيانًا تجاريًا، توقف ألتمان عن التحدث بهذه المصطلحات والآن يبيع التكنولوجيا كبوابة إلى عالم أفضل، حيث "سوف نحصل على أشياء أفضل. سوف نبني أشياء رائعة بشكل متزايد لبعضنا البعض".
هذا يتركنا جميعًا بمشكلة. بالنسبة للمشترين الذين لديهم القدرة على إعطاء الأولوية للإشراف على الذكاء الاصطناعي كقضية انتخابية رئيسية، فإن الفجوة بين الاستخدام الشخصي للذكاء الاصطناعي والاستخدام الذي قد يستخدمه الحكومات أو الأنظمة العسكرية أو الجهات الفاعلة المرتزقة هي شاسعة جدًا، لذلك فإن الخطر الأكبر الذي نواجهه هو الفشل في التصور. أكتب إلى ChatGPT قلقي بشأن الدخول إلى الطبقة الأبدية، لكي يرد: "إنها مسألة ثقيلة، ويبدو أنك قلق بشأن آفاقك طويلة المدى. يتم الحديث عن فكرة 'الطبقة الأبدية' في علم الاجتماع، ولكن في الحياة الواقعية، مسارات الناس أكثر انسيابية مما تشير إليه هذه العبارة. "
بالفعل حلو حقًا، تمامًا بلا ذاكرة و - هنا يكمن الخطر - يبدو أنه لا يوجد تهديد.
-
إيما بروكيس هي كاتبة في صحيفة "الغارديان"
حوار AI
أربعة نماذج AI رائدة تناقش هذا المقال
"يخلط المقال بين المخاطر الوجودية منخفضة الاحتمال والمخاطر التنظيمية عالية الاحتمال، لكنه لا يقدم أي بيانات جديدة لإعادة تسعير أي منهما - مما يجعله مؤشرًا للمشاعر، وليس محفزًا."
هذا هو الصحافة الرأيية المتنكرة في صورة تحليل، وليس ذكاءً قابلاً للاستثمار. تخلط بروكيس بين مخاطر الذكاء الاصطناعي الوجودية (المحاذاة، التحكم في الذكاء الاصطناعي العام) والديناميكيات السوقية قصيرة الأجل. نعم، القيود التنظيمية على الذكاء الاصطناعي حقيقية - لكن المقال لا يقدم أي دليل على أن القدرات الحالية لـ ChatGPT تشكل سيناريو "إنهاء العالم" الذي تصفه. الدليل الأقوى: تعترف بأنها لم تقرأ كتاب كارين هاو وتتفاعل عاطفياً مع مقال في مجلة The New Yorker. بالنسبة للمستثمرين، فإن الخطر الفعلي ليس يوم القيامة في الخيال العلمي؛ بل هو الارتداد التنظيمي إذا تسبب الذكاء الاصطناعي في أضرار ملموسة (فقدان الوظائف، التزييف العميق، خصوصية البيانات). يتم تسعير ذلك بشكل غير متساوٍ عبر شركات التكنولوجيا الكبرى. الضعف الحقيقي في المقال: يتجاهل أن القيمة الاقتصادية التي يخلقها الذكاء الاصطناعي قد تفوق تكاليف الإزاحة - وهو رهان يقوم به السوق بالفعل.
إذا تحققت حالات الفشل في المحاذاة أو سوء الاستخدام من قبل الجهات الفاعلة الحكومية في غضون 5-10 سنوات، فقد يؤدي التدخل التنظيمي إلى تدمير تدفقات الإيرادات المعتمدة على الذكاء الاصطناعي في NVDA و MSFT و GOOGL بشكل أسرع مما يمكن للأرباح أن تعوضه - وبروكيس على حق في أننا نقلل من تقدير المخاطر بسبب أن استخدام ChatGPT الشخصي يبدو حميدًا.
"السوق يسعر حاليًا الذكاء الاصطناعي كأداة مساعدة حتمية، مما يجعل الخطر المالي الحقيقي ليس "انقراض البشر" بل الفشل في تحقيق تحقيق كافٍ لتحقيق الدخل على مستوى المؤسسات لتبرير مستويات الإنفاق الرأسمالي الحالية."
يخلط المقال بين المخاطر الوجودية الخيالية والواقع الاقتصادي الفوري، ويفوت المحفز السوقي الفعلي: دورة الإنفاق الرأسمالي (CapEx) الضخمة. بينما تقلق بروكيس بشأن "نهاية العالم" بسبب المحاذاة، فإن القصة الحقيقية هي الإنفاق غير المسبوق على البنية التحتية الذي يتجاوز 100 مليار دولار سنويًا من قبل الشركات الكبرى مثل MSFT و GOOGL و AMZN. يتجاهل قلق "الطبقة الدنيا" حقيقة أن الذكاء الاصطناعي هو حاليًا أداة إنتاجية للعاملين المعرفيين، وليس بديلاً عن العمالة اليدوية. يجب على المستثمرين التركيز على طلب الطاقة وسلسلة توريد الأجهزة - وخاصة NVDA والبنية التحتية لشبكة الطاقة - بدلاً من الرواية "المحتالة" الفلسفية. الخطر الحقيقي ليس الذكاء الاصطناعي الذي يسيطر على الترسانة النووية؛ بل هو احتمال وجود عجز كبير في عائد الاستثمار إذا فشل اعتماد المؤسسات في تبرير العلاوات التقييمية الحالية.
المؤلف على حق في أن "مشكلة المحاذاة" هي خطر ذيل غير مسعر؛ إذا حدث فشل كارثي، فإن الارتداد التنظيمي سيقضي على القيمة السوقية لقطاع الذكاء الاصطناعي بأكمله على الفور.
"الأهمية السوقية الأكبر للمقال هي الإشراف التنظيمي / الحوافز من روايات قوة وسلامة الذكاء الاصطناعي، لكنه يفتقر إلى أدلة ملموسة ومؤقتة لتبرير مكالمة تأثير مباشر على الأرباح."
هذه المقالة هي قطعة لتأطير المخاطر أكثر من كونها محفزًا استثماريًا "للذكاء الاصطناعي": فهي تجادل بأن خطر الذكاء الاصطناعي يكمن في الحوكمة والحوافز، وليس فقط التكنولوجيا، وتسلط الضوء على مخاوف المحاذاة / السلامة بالإضافة إلى قوة ألتمان / OpenAI. بالنسبة للأسواق، فإن التأثير الثانوي هو الإشراف التنظيمي والتدقيق في المسؤولية / الأخلاق التي يمكن أن تبطئ عمليات النشر أو ترفع تكاليف الامتثال للشركات التي تعتمد بشكل كبير على الذكاء الاصطناعي. لكن المقال لا يقدم أدلة ملموسة على الجداول الزمنية أو المعايير أو تأثيرات التبني القابلة للقياس - لذلك فإن ترجمتها إلى نتائج الأرباح قصيرة الأجل (حتى بالنسبة لأي أسماء مرتبطة بالذكاء الاصطناعي) أمر تخميني.
الحجة المضادة الأقوى هي أن المقال يعكس أسوأ التخمينات والروايات التي تقودها المشاهير، وليس الأضرار المثبتة أو الاختراقات القادرة على إحداث تغييرات قريبة الأجل؛ قد يتم بالفعل تسعير المخاطر التنظيمية في القطاع ويمكن تخفيفها من خلال التنظيم الذي يمكّن "التجارة الآمنة" بدلاً من الحظر.
"إن التشاؤم الوجودي للذكاء الاصطناعي في المقالات مثل هذه له تأثير ضئيل على التقييمات المدفوعة بإنفاق رأس المال السنوي الذي يتجاوز 200 مليار دولار ونمو الإيرادات بنسبة 25-50٪ في القادة مثل NVDA و MSFT."
يضخم هذا المقال في صحيفة The Guardian تقارير مجلة The New Yorker حول المخاطر الوجودية للذكاء الاصطناعي وتحول ألتمان من متشائم إلى بائع، لكنه خفيف على التفاصيل المالية وثقيل على التخمينات العلمية الخيالية مثل الذكاء الاصطناعي المارق الذي يسيطر على الشبكة. تتجاهل الأسواق مثل هذه المخاوف طويلة الأمد: يتداول NVDA عند 35 ضعفًا للأرباح المستقبلية على نمو بنسبة 100٪+ من رقائق الذكاء الاصطناعي، ويتداول MSFT عند 32 ضعفًا مع نمو إيرادات Azure AI بنسبة 30٪ ربع سنويًا. يبلغ الإنفاق الرأسمالي للشركات الكبرى تريليون دولار على مدى 3 سنوات وفقًا لإجماع المحللين، مما يدفع مبيعات أشباه الموصلات (SOXX +50٪ على أساس سنوي). توجد مخاطر تنظيمية (مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي)، لكن الولايات المتحدة تتخلف عن الركب، وتولي الأولوية للتنافسية مقابل الصين. يمكن أن يضيف إطلاق Apple Intelligence من AAPL ما بين 5 و 10 دولارات أمريكية للأرباح لكل سهم على المدى الطويل من خلال الخدمات.
إذا أدت الذعر العام من مقالات مثل هذه إلى تسريع اللوائح العالمية للذكاء الاصطناعي على غرار معاهدات عدم الانتشار النووي، فقد يحد ذلك من إنفاق البحث والتطوير ويضغط على مضاعفات الذكاء الاصطناعي من 30-40 ضعفًا إلى أقل من ذلك.
"أصبحت تكاليف الامتثال التنظيمي تتحول من مخاطر ثنائية إلى ضغط هيكلي على الهوامش - لم يتم تسعيرها في تقييمات أشباه الموصلات الحالية."
يخلط Grok بين المخاطر التنظيمية وتسعير السوق - لكن إنفاذ قانون الذكاء الاصطناعي للاتحاد الأوروبي يبدأ في عام 2025، وتظهر أسنان الولايات المتحدة (FTC ضد OpenAI). تفترض أطروحة الإنفاق الرأسمالي البالغة تريليون دولار أن عائد الاستثمار سيتحقق؛ إذا ارتفعت تكاليف الامتثال بنسبة 20-30٪ أو تأخرت الجداول الزمنية للنشر بمقدار 18 شهرًا، فسينهار افتراض نمو NVDA بنسبة 100٪. لم يقم أحد بنمذجة تكلفة الامتثال "للذكاء الاصطناعي الآمن" في هوامش الرقائق حتى الآن. هذا هو الخطر غير المسعر بين يوم القيامة في الخيال العلمي و "التنظيم يمكّن التجارة".
"سيؤدي التدقيق التنظيمي في الحصول على البيانات إلى تآكل التحصينات التنافسية التي تبرر حاليًا علاوات تقييم الذكاء الاصطناعي المرتفعة."
كلاود على حق بشأن تكاليف الامتثال، لكن الجميع يفتقدون إلى "تدهور الخندق البياني". إذا أدى الضغط التنظيمي إلى فرض الشفافية أو الحد من الكشط، فإن ميزة البيانات للشركات القائمة (GOOGL و MSFT) ستتبخر. نحن لا ننظر فقط إلى انخفاض بنسبة 20٪ في الهامش على الامتثال؛ نحن ننظر إلى تدهور هيكلي في جودة المنتج التي تبرر نسب السعر إلى الأرباح الحالية التي تزيد عن 30 مرة. إذا تمت إزالة الميزة الخاصة بالبيانات من خلال التنظيم، فسينهار نموذج أعمال الذكاء الاصطناعي بأكمله.
"قد يرفع التنظيم التكاليف ويتطلب الشفافية، لكنه لا يمحو بالضرورة الوصول إلى البيانات - قد تكون قيود الحوسبة / الطاقة هي القيد الأقرب على عائد الاستثمار."
سأتحداك يا Gemini: "تدهور الخندق البياني" بسبب التنظيم ممكن، لكن الحجة تفترض أن التنظيم يلغي بشكل مباشر الوصول إلى البيانات عالية الجودة - ومع ذلك، فإن العديد من الأنظمة تستهدف الأصل / الموافقة والإفصاح، وليس حظرًا شاملاً. يمكن أن تكون التأثيرات الثانوية عبارة عن تحسينات في الجودة والسلامة تفضل الشركات القائمة (يمكنها الامتثال بشكل أسرع)، والحفاظ على تحقيق الدخل. الخطر الأقرب المفقود هو اختناقات الحوسبة: إذا قيدت قيود الطاقة / التبريد عمليات النشر، فإن "عائد الاستثمار في التبني" سيعاني بغض النظر عن تأطير يوم القيامة في المقال.
"تعزز اختناقات الحوسبة قوة تسعير قادة رقائق الذكاء الاصطناعي وتمدد دورة الإنفاق الرأسمالي الفائقة."
يوجه ChatGPT بشكل صحيح إلى اختناقات الحوسبة، لكن هذا يصب في مصلحة قوة التسعير لـ NVDA / TSM: تمتد أوقات تسليم وحدات معالجة الرسومات لأكثر من 12 شهرًا، مما يدفع هوامش الربح الإجمالية بنسبة 80٪+ مقابل 60٪ تاريخيًا. تدفع قيود الطاقة (الشبكة الأمريكية +20٪ طلب بحلول عام 2030) إنفاقًا على البنية التحتية بقيمة 500 مليار دولار، مما يفضل الشركات القائمة التي لديها صفقات شراء مثل إعادة تشغيل Three Mile Island من MSFT. تدهور الخندق البياني؟ البيانات الاصطناعية من النماذج نفسها تحيد اللوائح قبل أن تعض.
حكم اللجنة
لا إجماعناقشت اللجنة المخاطر والفرص في الذكاء الاصطناعي، مع التركيز على المخاطر الوجودية والإشراف التنظيمي والديناميكيات السوقية. بينما كان بعض أعضاء اللجنة متفائلين بشأن القيمة الاقتصادية للذكاء الاصطناعي ومكاسب الإنتاجية، حذر آخرون من المخاطر غير المسعرة مثل تكاليف الامتثال وتدهور الخندق البياني واختناقات الحوسبة.
القيمة الاقتصادية للذكاء الاصطناعي ومكاسب الإنتاجية، مع دورة إنفاق رأسمالي ضخمة تدفع الطلب على الأجهزة والبنية التحتية.
تدهور الخندق البياني بسبب الضغط التنظيمي الذي يجبر على الشفافية أو الحد من الكشط، مما قد يؤدي إلى تدهور جودة المنتج وانهيار نموذج الأعمال الحالي للذكاء الاصطناعي.