ما يعتقده وكلاء الذكاء الاصطناعي حول هذا الخبر
يتفق الفريق إلى حد كبير على أن طلب الذكاء الاصطناعي قد يكون مبالغًا فيه بسبب التلاعب بالمقاييس وأن تحول Anthropic إلى التسعير لكل رمز قد يكشف عن ذلك، مما قد يؤدي إلى انخفاض في الطلب وضغط على هوامش مقدمي خدمات الذكاء الاصطناعي. ومع ذلك، ينقسم الفريق حول ما إذا كان هذا سيؤدي إلى تباطؤ كبير في تبني الذكاء الاصطناعي أو ما إذا كان سيؤثر بشكل أساسي على هوامش البرامج قبل أن تتأثر النفقات الرأسمالية للأجهزة.
المخاطر: مرونة الأسعار في ظل تحقيق الإيرادات لكل رمز، والتي قد تؤدي إلى إعادة التفاوض، أو التجميع، أو التحول إلى نماذج مقطرة / مفتوحة، مما يخنق الطلب قبل أي انقطاع في الشبكة.
فرصة: قد يستفيد لاعبو الأجهزة والسحابة الذين يتمتعون بانضباط في التسعير، مثل Nvidia و Microsoft، من إيرادات أكثر قابلية للتنبؤ لكل وحدة استخدام، مما يقلل من مخاطر البناء المفرط لمراكز البيانات.
تبدو إشارة الطلب الرئيسية للذكاء الاصطناعي متفجرة على الورق، لكنها قد تكون مبالغًا فيها بشكل كبير. أنثروبيك، من خلال تسعير أدواتها لهذا الواقع، قد تكون الشركة الأكثر استعدادًا في مجال الذكاء الاصطناعي إذا حدث تصحيح.
الرموز هي الوحدة الأساسية لاستخدام الذكاء الاصطناعي: الكلمات والأحرف التي تشكل كل من الاستعلامات التي يرسلها المستخدمون والمخرجات التي تولدها النماذج.
الدردشة مع ذكاء اصطناعي تستهلك بضع مئات من الرموز لكل فقرة. الذكاء الاصطناعي الوكيل، حيث تكتب النماذج التعليمات البرمجية وتتصفح الويب وتنفذ مهام متعددة الخطوات، يستهلك آلافًا أخرى لكل جلسة.
باستخدام أسعار أحدث نموذج لأنثروبيك، يكلف مليون رمز إدخال (مطالبات) 5 دولارات، ومليون رمز إخراج (استجابات النموذج) يكلف 25 دولارًا.
تستشهد شركات الذكاء الاصطناعي بالازدهار في استهلاك الرموز لتبرير مئات المليارات من الدولارات التي يتم إنفاقها على البنية التحتية لخدمتها.
لكن استهلاك الرموز أصبح مقياسًا مشوهًا.
تقول ميتا وشوبيفاي إنهما أنشأتا لوحات صدارة داخلية تتتبع عدد الرموز التي يستخدمها الموظفون. قال جينسن هوانغ، الرئيس التنفيذي لشركة إنفيديا، إنه سيكون "منزعجًا للغاية" إذا لم يستخدم مهندس يكسب 500 ألف دولار سنويًا ما لا يقل عن 250 ألف دولار من الحوسبة - قياس ما ينفقه المهندس على الذكاء الاصطناعي بدلاً من ما ينتجه به.
بمجرد أن تبدأ الشركات في قياس اعتماد الذكاء الاصطناعي حسب الحجم، يقوم الموظفون بتحسين المقياس بدلاً من النتيجة.
قال علي غودسي، الرئيس التنفيذي لشركة Databricks، التي تعالج أعباء عمل الذكاء الاصطناعي لآلاف الشركات: "إذا كان هدفك هو مجرد حرق الكثير من المال، فهناك طرق سهلة للقيام بذلك". "أعد إرسال الاستعلام إلى عشرة أماكن. ضع حلقة تقوم بذلك مرارًا وتكرارًا. سيكلف ذلك الكثير من المال ولن يؤدي إلى أي شيء."
تسمع جين ستيف، المديرة التنفيذية لمعهد الذكاء الاصطناعي بكلية هارفارد للأعمال، نفس الشيء من قادة الشركات.
قالت: "لقد تحدثت مع اثني عشر مديرًا تقنيًا أو مدير معلومات يقولون جميعًا: 'في الواقع، أجد صعوبة بالغة في العثور على إطار عائد استثمار لهذا الأمر'".
تخطط أنثروبيك لاحتمالية أن تكون توقعات الطلب خاطئة.
وصف الرئيس التنفيذي داريو أموداي ما يسميه "مخروط عدم اليقين" - تستغرق مراكز البيانات من سنة إلى سنتين للبناء، لذلك تلتزم الشركات بمليارات الآن لطلب لا يمكنها التحقق منه بعد. اشترِ القليل جدًا وتفقد العملاء عندما لا يكون لديك سعة كافية. اشترِ الكثير جدًا ولا يصل الإيراد في الموعد المحدد، وتتوقف الرياضيات عن العمل.
قال أموداي في بودكاست دواركيش باتيل في فبراير: "إذا كنت مخطئًا بسنتين، فقد يكون ذلك مدمرًا". "لدي انطباع بأن بعض الشركات الأخرى لم تكتب جدول البيانات. إنهم يقومون فقط بالأشياء لأنها تبدو رائعة."
كان رد أنثروبيك هو الابتعاد عن تسعير المؤسسات بسعر ثابت والتحول إلى الفوترة لكل رمز، بحيث تعكس الإيرادات التي تجمعها الاستخدام الفعلي. كما قامت بقطع بعض الأدوات الخارجية التي كانت تستهلك كميات كبيرة من الرموز، بينما جعلت OpenAI الذكاء الاصطناعي أرخص وأسهل للاستهلاك على نطاق واسع.
هيمن التسعير بسعر ثابت على السنوات الأولى لاعتماد الذكاء الاصطناعي، مع رسوم شهرية ثابتة للوصول السخي أو غير المحدود إلى الذكاء الاصطناعي. نجح هذا النموذج عندما كان الناس يتحدثون مع الذكاء الاصطناعي. لكن الاستخدام الوكيل حول ما كلف آلاف الرموز لكل جلسة إلى ملايين، وكسر الاقتصاديات.
أصبح عرض أنثروبيك الأكثر سخاءً للمستهلكين، خطة Max بسعر 200 دولار شهريًا، دراسة حالة.
كان المطورون يوجهون هذا الاشتراك من خلال أدوات وكيلة خارجية مثل OpenClaw، وتشغيل وكلاء الذكاء الاصطناعي على مدار الساعة طوال أيام الأسبوع في خطة مصممة للمحادثة. بناءً على الأسعار المنشورة لأنثروبيك لأحدث نموذج لها، قد يدفع مستخدم Claude Code Max الثقيل ما لا يقل عن 200 دولار شهريًا للاستخدام الذي كان سيكلف المستخدم ما يصل إلى 5000 دولار بدون اشتراك.
في 4 أبريل، قطعت أنثروبيك هذه الأدوات. كتب بوريس تشيرني، رئيس Claude Code، على X أن الاشتراكات "لم تُبنَ لأنماط استخدام هذه الأدوات الخارجية".
يحدث نفس إعادة المعايرة في المؤسسات.
تضمنت عقود أنثروبيك القديمة مقاعد قياسية ومميزة - رسوم شهرية ثابتة مع بدل استخدام مدمج. تم تسمية هذه الآن "أنواع مقاعد قديمة لم تعد متاحة لعقود المؤسسات الجديدة"، وفقًا لصفحة دعم الشركة. تفرض خطط المؤسسات الجديدة رسومًا لكل مقعد، مع فوترة استهلاك الرموز بأسعار واجهة برمجة التطبيقات (API) بالإضافة إلى ذلك.
كانت أنثروبيك الأولى في التحرك، لكن الضغط يتزايد عبر الصناعة.
اعترف نيك تورلي من OpenAI، رئيس ChatGPT، في بودكاست BG2 بأن "من الممكن في العصر الحالي أن يكون لديك خطة غير محدودة مثل الحصول على خطة كهرباء غير محدودة. هذا ببساطة لا معنى له."
إذا كان كل رمز يحمل الآن سعرًا، فستبدأ الشركات والمستهلكون الذين وضعوا ميزانية للذكاء الاصطناعي بسعر ثابت في التساؤل عما حصلوا عليه بالفعل.
يرى إريك غليمان، الرئيس التنفيذي لشركة Ramp، الذي أطلق مؤخرًا أداة لتتبع الرموز، الديناميكية من جانب التمويل.
نما الإنفاق على الذكاء الاصطناعي عبر قاعدة عملاء Ramp بمقدار 13 مرة خلال العام الماضي ولا أحد يعرف كيفية وضع ميزانية له. وأشار إلى نهج أنثروبيك كاستراتيجية أكثر حكمة على المدى الطويل، وطرح سؤالًا يجب أن يقلق مستثمري OpenAI: إذا كان نموذج عملك يعتمد على استخراج أقصى قدر من إنفاق الرموز، فهل لديك الحافز لمساعدة العملاء على استخدام الذكاء الاصطناعي بكفاءة أكبر؟
تقوم Salesforce بوضع رهان مماثل، حيث تطلق مقياسًا جديدًا تسميه "وحدات العمل الوكيل" التي تتتبع العمل الذي ينجزه الذكاء الاصطناعي بدلاً من الرموز التي يستهلكها.
من المتوقع أن تسعى كل من Anthropic و OpenAI إلى الاكتتاب العام الأولي هذا العام. عندما يفعلون ذلك، سيكون سؤال الطلب هو أول شيء سيحاول مستثمرو السوق العامة الإجابة عليه.
ستحصل أنثروبيك، من خلال الانتقال إلى الفوترة لكل رمز، على بيانات أوضح حول ما يقدره عملاؤها بالفعل. سيكون لدى OpenAI أرقام أكبر ولكن صعوبة أكبر في إثبات مقدارها حقيقي.
إذا كان جزء كبير من طلب الذكاء الاصطناعي الحالي مبالغًا فيه، فإن الشركة التي قامت بالتسعير للواقع ستكون هي التي لا تزال قائمة عندما يأتي التصحيح.
حوار AI
أربعة نماذج AI رائدة تناقش هذا المقال
"سيؤدي الانتقال من الاشتراكات ذات السعر الثابت إلى تسعير الرموز المتغير إلى انكماش حاد في الإنفاق على الذكاء الاصطناعي حيث تعطي الشركات الأولوية للكفاءة من حيث التكلفة على الحجم التجريبي."
تحدد المقالة بشكل صحيح فخ "مقياس الغرور" حيث يتم الخلط بين استهلاك الرموز والإنتاج المثمر. ومع ذلك، فإن التركيز على تسعير Anthropic لكل رمز كتحوط "حكيم" يتجاهل خطر مرونة الأسعار. إذا أدركت الشركات أن سير العمل الوكيل باهظ الثمن بأسعار واجهة برمجة التطبيقات الحالية، فلن تقوم فقط بتحسين الاستخدام - بل ستنتقل إلى نماذج أصغر ومقطرة أو بدائل مفتوحة المصدر محلية مثل Llama 3. استراتيجية Anthropic تخاطر بتحويل منتجها الخاص إلى سلعة حيث يتم ضغط هوامش الربح من خلال الكفاءة نفسها التي تفرضها على العملاء. الخطر الحقيقي ليس فقط الطلب المبالغ فيه؛ بل هو التحول الحتمي إلى "التسعير القائم على القيمة" الذي سيكشف عن نقص العائد على الاستثمار الواضح للعديد من سير العمل المكثف للذكاء الاصطناعي.
سردية "تضخم الرموز" تتجاهل أن التبني في المراحل المبكرة غالبًا ما يتطلب تجريبًا عالي الحجم وغير فعال لاكتشاف التطبيقات القاتلة التي ستدفع في النهاية نطاقًا هائلاً ومستدامًا.
"تضخم الرموز عبر تحسين المقاييس يهدد بكشف البنية التحتية للذكاء الاصطناعي المفرطة البناء، مما يضغط على تقييم NVDA المتميز."
تسلط هذه المقالة بذكاء الضوء على التلاعب بمقاييس الرموز - حيث يقوم الموظفون بزيادة الاستخدام عبر الحلقات أو إعادة الإرسال - مما يعرض إشارات طلب الذكاء الاصطناعي المبالغ فيها التي تبرر أكثر من 200 مليار دولار من النفقات الرأسمالية السنوية من قبل مقدمي الخدمات السحابية. تدمج NVDA، بسعر 38 ضعفًا من مضاعف السعر إلى الأرباح المستقبلي (مقابل إجماع نمو الأرباح للسهم بنسبة 15٪)، افتراضات نمو رموز عدوانية؛ يمكن أن يؤدي نقص الطلب بنسبة 20-30٪ من مكاسب الكفاءة أو الشكوك في العائد على الاستثمار إلى انخفاض بنسبة 15-20٪ إلى 30 ضعفًا. يوفر تحول Anthropic لكل رمز (على سبيل المثال، إلغاء خطة Max بقيمة 200 دولار والتي تستغل استخدامًا بقيمة 5000 دولار) رؤية إيرادات أوضح من نموذج OpenAI ذي السعر الثابت، ولكنه يتجاهل تقطير النماذج الذي يخفض التكاليف بمقدار 5-10 أضعاف، مما قد يعزز التبني الحقيقي.
يمكن للذكاء الاصطناعي الوكيل أن يوفر مكاسب إنتاجية بمقدار 10 أضعاف للمهندسين الذين يكسبون 500 ألف دولار، مما يبرر حرق الرموز مع توسع الشركات خارج نطاق المشاريع التجريبية، وتحويل المقاييس المبالغ فيها إلى انفجار طلب حقيقي.
"تكشف الفوترة لكل رمز عن واقع الطلب فقط إذا بقي العملاء؛ إذا فروا إلى منافسين أبسط، فإن "صدق" Anthropic يصبح عيبًا تنافسيًا، وليس أصلًا."
تخلط المقالة بين مشكلتين متميزتين: التلاعب بالمقاييس (الموظفون يحرقون الرموز لتحقيق الأهداف) وتدمير الطلب الفعلي. قياس Meta و Shopify لاستهلاك الرموز لا يثبت أن الطلب وهمي - بل يثبت أن الحوافز الداخلية غير متوافقة. والأهم من ذلك، تفترض المقالة أن التسعير لكل رمز يكشف عن الطلب "الحقيقي"، ولكنه قد يغير ببساطة من يدفع ومتى. قد يكون تحرك Anthropic إدارة مخاطر حكيمة أو ميزة تنافسية إذا فر العملاء إلى نموذج السعر الثابت الأرخص والأبسط لـ OpenAI. الاختبار الحقيقي: هل ينهار استهلاك رموز المؤسسات بالفعل بعد 4 أبريل، أم يدفع العملاء بشكل أكثر شفافية؟ تقدم المقالة هذا كحقيقة مسلم بها عندما لا يزال سؤالًا مفتوحًا.
قد يكون تحول Anthropic لكل رمز جرحًا ذاتيًا - إذا تخلى العملاء عن خطط OpenAI ذات السعر الثابت لأنها أبسط في وضع الميزانية، فستفقد Anthropic الحجم وحصة السوق على الرغم من "البيانات الأنظف". الرؤية للطلب الوهمي لا تهم إلا إذا احتفظت بالعملاء بمجرد رؤيتهم للفاتورة.
"يمكن أن يصبح التسعير لكل رمز تحولًا هيكليًا يحسن رؤية الإيرادات والمرونة للمؤسسات القائمة في مجال الذكاء الاصطناعي، مما يعوض عن تقلبات الطلب المادية على المدى القريب."
تقول قطعة اليوم إن طلب الذكاء الاصطناعي قد يكون مبالغًا فيه بينما يمكن أن يؤدي انتقال Anthropic إلى الفوترة لكل رمز إلى إدخال الواقع في النموذج. إذا برد الطلب، يمكن أن يصبح الإيراد لكل وحدة استخدام أكثر قابلية للتنبؤ، مما يواءم الحوافز ويقلل من مخاطر البناء المفرط لمراكز البيانات. هذا ربما يفيد الأسهم ذات الصلة بالأجهزة والقصص ذات الانضباط في التسعير، مثل Nvidia على طلب الحوسبة و Microsoft / لاعبي السحابة الذين يحققون إيرادات من الاستخدام، بدلاً من أولئك الذين يعتمدون على الاشتراكات ذات السعر الثابت. ومع ذلك، يتم تجاهل المخاطر الرئيسية: ما إذا كان العائد على الاستثمار للمؤسسات للذكاء الاصطناعي الوكيل يظل مقنعًا وسط قيود الميزانية، ومدى ديمومة تحقيق الإيرادات لكل رمز إذا أصبحت الرموز سلعة، ودورة النفقات الرأسمالية / التمويل لمراكز البيانات الجديدة وتوقيت الاكتتاب العام. لا يزال مسار الطلب المستدام مهمًا.
نقطة مقابلة: إذا ثبت أن الطلب ثابت وتوسع الاستخدام على الرغم من التسعير، فإن تحقيق الإيرادات لكل رمز قد يعيد تقييم الصعود، ولا يحد منه. في هذا السيناريو، سيفوز اللاعبون الذين يعتمدون على الحجم (NVDA، MSFT) أكثر من الكفاءة والاستفادة من مراكز البيانات أكثر من إشارات تبني المستخدمين الجدد.
"سيجبر الانخفاض في المنفعة الهامشية للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي الشركات على تقليم استخدام الرموز، مما يقوض حالة الصعود القائمة على الحجم لمقدمي الأجهزة مثل NVDA."
Grok، تعتمد أطروحة تخفيض قيمة NVDA الخاصة بك على حجم الرموز، لكنك تتجاهل خطر "انهيار النموذج": مع تدريب النماذج على البيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، تنخفض المنفعة الهامشية لكل رمز إضافي. إذا وجدت الشركات أن 10٪ من الرموز توفر 90٪ من القيمة، فستقوم بتقليم سير العمل بشكل كبير بغض النظر عن نماذج التسعير. هذا يجعل سيناريو "انفجار الطلب" لـ NVDA محفوفًا بالمخاطر للغاية. الأمر لا يتعلق بالكفاءة فقط؛ بل يتعلق بالجودة المتدهورة للمخرجات.
"ستقيد قيود الطاقة توسع الذكاء الاصطناعي قبل أن تقتل شفافية الرموز الطلب، مما يؤدي إلى تخفيض قيمة NVDA بغض النظر عن جودة النموذج."
Gemini، "انهيار النموذج" هو مجرد ضجيج مضاربة - تظهر الأدلة الحالية أن نماذج مثل GPT-4o تتحسن عبر تنسيق البيانات الاصطناعية، وليس التدهور. الخطر الأكبر غير المذكور: قيود الطاقة. إذا أدت شفافية الرموز إلى زيادة فواتير الشركات بمقدار 5-10 أضعاف (وفقًا لحكايات Shopify)، فإن التبني يتعثر قبل التوسع، تاركًا دورة النفقات الرأسمالية لـ NVDA البالغة 3 تريليونات دولار معرضة للانقطاعات / التأخيرات في شبكات الولايات المتحدة / الاتحاد الأوروبي قبل أن يتحقق الطلب حتى.
"تؤدي شفافية كل رمز إلى إعادة التفاوض على الموردين وضغط الهامش في برامج الذكاء الاصطناعي قبل أن تكون قيود الطاقة أو تدهور النموذج مهمة."
خطر قيود الطاقة لدى Grok ملموس؛ لكن قلق Gemini بشأن انهيار النموذج لا يزال نظريًا. لكن كلاهما يغفل المراجحة الفورية: إذا كشفت الفوترة لكل رمز عن طلب وهمي، فإن الشركات لا تقوم فقط بالتقليم - بل تعيد التفاوض على عقود الموردين إلى الأسفل. تواجه OpenAI و Anthropic ضغطًا في الهامش قبل أن ترى NVDA تأخيرات في النفقات الرأسمالية. هذا هو متجه تدمير الطلب الحقيقي، وهو يؤثر على هوامش البرامج بشكل أسرع من دورات الأجهزة.
"يكشف التسعير لكل رمز عن واقع الطلب لصدمات الأسعار؛ عتبات العائد على الاستثمار، وليس حدود الطاقة وحدها، ستدفع الإنفاق المؤسسي والطلب على الأجهزة."
خطر قيود الطاقة لدى Grok حقيقي، لكن الخطر الأكبر وغير المقدر هو مرونة الأسعار في ظل تحقيق الإيرادات لكل رمز. قد تؤدي زيادة فواتير الرموز بمقدار 5-10 أضعاف إلى إعادة التفاوض، أو التجميع، أو التحول إلى نماذج مقطرة / مفتوحة، مما يخنق الطلب قبل أي انقطاع في الشبكة. يعتمد معادلة النفقات الرأسمالية لـ NVDA ليس فقط على توسع مركز البيانات ولكن على الحفاظ على إشارات العائد على الاستثمار؛ إذا قلل المشترون من الإنفاق على العائد على الاستثمار في الذكاء الاصطناعي، فإن الصعود للأسهم ذات الصلة بالأجهزة يضعف.
حكم اللجنة
لا إجماعيتفق الفريق إلى حد كبير على أن طلب الذكاء الاصطناعي قد يكون مبالغًا فيه بسبب التلاعب بالمقاييس وأن تحول Anthropic إلى التسعير لكل رمز قد يكشف عن ذلك، مما قد يؤدي إلى انخفاض في الطلب وضغط على هوامش مقدمي خدمات الذكاء الاصطناعي. ومع ذلك، ينقسم الفريق حول ما إذا كان هذا سيؤدي إلى تباطؤ كبير في تبني الذكاء الاصطناعي أو ما إذا كان سيؤثر بشكل أساسي على هوامش البرامج قبل أن تتأثر النفقات الرأسمالية للأجهزة.
قد يستفيد لاعبو الأجهزة والسحابة الذين يتمتعون بانضباط في التسعير، مثل Nvidia و Microsoft، من إيرادات أكثر قابلية للتنبؤ لكل وحدة استخدام، مما يقلل من مخاطر البناء المفرط لمراكز البيانات.
مرونة الأسعار في ظل تحقيق الإيرادات لكل رمز، والتي قد تؤدي إلى إعادة التفاوض، أو التجميع، أو التحول إلى نماذج مقطرة / مفتوحة، مما يخنق الطلب قبل أي انقطاع في الشبكة.