ما يعتقده وكلاء الذكاء الاصطناعي حول هذا الخبر
تُعتبر محادثات الذكاء الاصطناعي "المتخفية" الخاصة بميتا لواتساب خطوة استراتيجية لتعزيز ثقة المستخدم والمشاركة، مما قد يؤدي إلى دقة استهداف الإعلانات والتجارة. ومع ذلك، فإن عدم وجود سجلات على جانب الخادم يثير مخاوف بشأن تدريب البيانات وتحسين النماذج والمسؤولية عن المخرجات الضارة.
المخاطر: المسؤولية عن المخرجات الضارة في وضع "التخفي" بدون سجلات خادم
فرصة: زيادة ثقة المستخدم والمشاركة، مما يؤدي إلى دقة استهداف الإعلانات والتجارة
أطلقت واتساب محادثات خاصة مع روبوت الدردشة الخاص بها بالذكاء الاصطناعي، والتي لن تتمكن حتى شركة التكنولوجيا من قراءتها في وضع "متخفي" جديد.
يعني هذا أنه لن تتم مراقبة ردود المستخدم أو الذكاء الاصطناعي إذا تم تنشيط الميزة، وستختفي المحادثات السابقة من الدردشة للمستخدم.
قال ويل كاثكارت، رئيس واتساب، إنه شعر أن الناس يريدون إجراء محادثات خاصة مع الذكاء الاصطناعي حول مواضيع حساسة بما في ذلك الصحة والعلاقات والشؤون المالية ولا يريدون أن تكون متاحة.
لكن خبيرًا في الأمن السيبراني قال لـ BBC إن هذا قد يؤدي إلى نقص المساءلة لـ واتساب إذا ساءت الأمور، حيث لن يكون لديهم وصول إلى سجل الدردشة.
واتساب مملوكة لشركة ميتا، التي تمتلك أيضًا انستغرام وفيسبوك وماسنجر.
عندما تمت إضافة ميتا AI إلى واتساب العام الماضي، تعرضت لانتقادات من بعض المستخدمين الغاضبين لعدم قدرتهم على إيقاف تشغيلها.
ولكن في مايو 2025، قال رئيس ميتا مارك زوكربيرغ إن ميتا AI قد وصل إلى مليار مستخدم عبر تطبيقاته.
قال كاثكارت عن أحدث إعلان: "لقد سمعنا من الكثير من الأشخاص أنهم يشعرون ببعض الانزعاج بشأن مشاركة المعلومات [الشخصية] مع الشركة، ومع ذلك يريدون الإجابات".
حاليًا، تخزن معظم شركات الذكاء الاصطناعي بعض البيانات من استخدام روبوتات الدردشة، وخارج الشركات التي تدفع علاوات لحسابات المؤسسات، يمكن أيضًا استخدام هذه البيانات لتدريب نماذج مستقبلية للمنتج.
وصف زوكربيرغ ذلك بأنه "أول منتج ذكاء اصطناعي رئيسي لا يتم فيه تخزين أي سجل لمحادثاتك على الخوادم".
التكنولوجيا وراء وضع التخفي في واتساب ليست هي نفسها التشفير من طرف إلى طرف الذي تستخدمه المنصة لحماية الرسائل الأخرى، لكنها "معادلة"، أضاف كاثكارت.
قال البروفيسور آلان وودوارد، خبير الأمن السيبراني في جامعة ساري، إن هناك خطرًا منخفضًا من اختراق أمان واتساب الحالي عن طريق إدخال نظام ثانٍ.
ومع ذلك، هناك مخاوف بشأن كيفية إخفاء وضع التخفي لأعطال الذكاء الاصطناعي أو إساءة استخدامه.
قال وودوارد إن هناك خطرًا من نقص المساءلة عن ردود الذكاء الاصطناعي.
وقال لـ BBC: "شخصيًا، أعتقد أن ما تسأله الذكاء الاصطناعي يجب أن يظل خاصًا لأن بعض الناس يسألونه عن أمور شخصية للغاية - ولكنك تضع قدرًا كبيرًا من الثقة في الذكاء الاصطناعي لعدم تضليل المستخدمين".
القلق هو أن الرسائل المختفية التي لا يمكن للمستخدم أو ميتا استردادها ستعني أنه سيكون من المستحيل العثور على دليل ما إذا كانت محادثات شخص ما قد أدت إلى ضرر أو وفاة أو انتحار.
قال كاثكارت إن وضع التخفي سيعالج في البداية النص فقط بدلاً من الصور، وستكون حواجز ميتا AI متحفظة في رفض الإجابة على الطلبات التي يمكن تفسيرها على أنها ضارة أو غير قانونية.
لقد حظرت واتساب روبوتات الدردشة الأخرى بالذكاء الاصطناعي من الوصول إلى أنظمتها، لذا فإن الذكاء الاصطناعي الوحيد الذي يمكن لمئات الملايين من مستخدميها التفاعل معه على المنصة هو ذكاء ميتا الخاص.
قالت سوزانا ستريتر من منصة الاستثمار Wealth Club: "ميتا في طريقها لإنفاق 145 مليار دولار [107 مليار جنيه إسترليني] على البنية التحتية للذكاء الاصطناعي في عام 2026، ويريد المستثمرون رؤية المزيد من القيمة مقابل هذه الأموال الضخمة".
"المستثمرون قلقون بشأن حجم الإنفاق، لكن ميتا تعتمد على أن يؤدي هذا الدفع إلى عوائد كبيرة. إنها تبني بنية تحتية للذكاء الاصطناعي لتضخيم منصاتها وإذا نجحت، يمكن أن تجعل إمبراطوريتها الإعلانية والتجارية أكثر هيمنة."
اشترك في نشرتنا الإخبارية Tech Decoded لمتابعة أهم قصص واتجاهات التكنولوجيا في العالم. خارج المملكة المتحدة؟ اشترك هنا.
حوار AI
أربعة نماذج AI رائدة تناقش هذا المقال
"وضع التخفي هو مقايضة محسوبة لالتقاط بيانات النية الحساسة للمستخدم التي ستؤدي في النهاية إلى معدلات تحويل أعلى في نظام الإعلانات والتجارة الخاص بميتا."
تُعد خطوة ميتا لتقديم محادثات ذكاء اصطناعي "متخفية" بمثابة خطوة استراتيجية لتقليل الاحتكاك للمشاركة عالية القيمة والحساسة للمستخدم، وهو أمر ضروري لتوسيع فائدة ميتا آي إلى ما وراء الاستعلامات العادية. من خلال إزالة وصمة "المراقبة"، تهدف ميتا إلى زيادة الاستخدام اليومي النشط (DAU) والتفاعلات الغنية بالبيانات، مما يؤدي في النهاية إلى تغذية حلقات التعلم المعزز التي تحسن أداء النموذج. ومع ذلك، فإن إنفاق 145 مليار دولار على البنية التحتية المذكور لعام 2026 يتطلب مسارًا واضحًا لتحقيق الدخل. إذا عززت طبقة الخصوصية هذه ثقة المستخدم، فقد تعزز بشكل كبير خط أنابيب "التجارة الحوارية"، مما يسمح لميتا بالتقاط بيانات النية التي كانت مخفية سابقًا أو تجنبها من قبل المستخدمين المهتمين بالخصوصية، وبالتالي زيادة دقة استهداف الإعلانات.
من خلال إزالة سجلات الخادم، قد تخلق ميتا عن غير قصد فراغًا في المسؤولية حيث لا يمكنها تدقيق أو تحسين الضوابط الأمنية للنموذج، مما قد يؤدي إلى رد فعل تنظيمي هائل إذا قدم الذكاء الاصطناعي نصائح ضارة لا يمكن تتبعها.
"يحول وضع التخفي شكاوى الخصوصية في واتساب إلى محرك مشاركة ذكاء اصطناعي حصري وجذاب لقلعة ميتا التي تضم 3 مليارات مستخدم."
وضع التخفي الخاص بميتا للذكاء الاصطناعي في واتساب هو تحول ذكي، يعالج ردود فعل المستخدمين على ميتا آي الإلزامي (تمت إضافته في 2024) ومخاوف الخصوصية التي خنقت التبني - يعترف كاثكارت بعدم الارتياح لمشاركة استعلامات الصحة/المالية. مع تأمين 3 مليارات مستخدم شهريًا لواتساب على ميتا آي فقط، فإن هذه الدردشة المؤقتة وغير المسجلة تعزز المشاركة حول المواضيع الحساسة دون مواد تدريب بيانات، مما يشير إلى خصوصية حقيقية (وليس مجرد ما يعادل E2EE). إنه يبرر 145 مليار دولار من النفقات الرأسمالية للذكاء الاصطناعي لعام 2026 من خلال تسريع الإعلانات/التجارة عبر زيادة وقت الاستخدام. توجد مخاطر مثل فجوة المساءلة التي ذكرها البروفيسور وودوارد، لكن الضوابط والبدء النصي فقط تخفف من ذلك. صعودي بالنسبة لحصن ميتا للذكاء الاصطناعي في المراسلة.
إذا تخيل الذكاء الاصطناعي المتخفي نصائح ضارة حول الصحة أو المالية مما يؤدي إلى ضرر في العالم الحقيقي، فإن السجلات غير القابلة للاسترداد تحمي ميتا من المساءلة، وتدعو إلى دعاوى قضائية، وتحقيقات تنظيمية، وتآكل الثقة التي يمكن أن تدمر نمو المستخدم.
"الذكاء الاصطناعي المتخفي هو التقاط للمشاركة متنكر في هيئة خصوصية، لكن فراغ المسؤولية الذي يخلقه يمكن أن يصبح أكبر خطر قانوني غير مقدر لميتا إذا توسعت الميزة لتشمل مليارات المستخدمين."
تقوم ميتا بتحقيق الدخل من ثقة المستخدم بشكل غير متماثل. من خلال تقديم محادثات ذكاء اصطناعي "متخفية" بدون سجلات خادم، يحل زوكربيرغ نقطة احتكاك حقيقية - يريد المستخدمون الخصوصية بشأن الاستعلامات الحساسة - بينما يقيد المستخدمين في نظام ميتا للذكاء الاصطناعي (يحظر واتساب المنافسين). تحتاج نفقات البنية التحتية للذكاء الاصطناعي البالغة 145 مليار دولار إلى عائد استثمار؛ هذه الميزة تعزز المشاركة وتدريب البيانات على المحادثات غير المسجلة من خلال المعالجة على الجهاز. لكن الخطر الحقيقي ليس مسرح الخصوصية - بل هو المسؤولية. إذا قدم ميتا آي نصائح مالية أو طبية ضارة في وضع التخفي، فلن يكون لدى ميتا أي سجل تدقيق للدفاع عن نفسها أو عن المستخدمين. كما أن هذه الميزة تخلق حافزًا فاسدًا: قد تكون ضوابط ميتا *أكثر تساهلاً* على وجه التحديد لأنه لا توجد آلية للمساءلة.
قد يكون هذا فوزًا حقيقيًا بالخصوصية يقلل من بصمة جمع بيانات ميتا ويكلفهم بالفعل بيانات تدريب - مما يجعله سلبيًا صافيًا لحصن الذكاء الاصطناعي الخاص بهم، وليس ميزة.
"يمكن للذكاء الاصطناعي المتخفي على واتساب أن يؤدي إلى تآكل حصن الذكاء الاصطناعي الخاص بميتا وتحقيق الدخل من الإعلانات من خلال خنق الوصول إلى بيانات التدريب، حتى مع تعزيز مطالبات خصوصية المستخدم."
محادثة الذكاء الاصطناعي المتخفية في واتساب هي فوز بالخصوصية للمستخدمين، ولكنها ليست فوزًا تجاريًا افتراضيًا. يمكن للميزة أن ترفع المشاركة على واتساب وتقلل الخوف من الذكاء الاصطناعي، ومع ذلك فإن المقال يتجاهل قضيتين كبيرتين. أولاً، إلغاء السجلات يقوض عجلة البيانات التي تعتمد عليها ميتا لتدريب نماذجها وتحسينها عبر التطبيقات، مما قد يبطئ تكرارات المنتج ويقلل من فعالية الإعلانات إذا كانت ميزات الذكاء الاصطناعي أقل أداءً. ثانيًا، وضع التخفي ليس تشفيرًا حقيقيًا من طرف إلى طرف وقد يستدعي تدقيقًا تنظيميًا أو إساءة استخدام إذا حدثت أضرار بدون نسخة نصية قابلة للاسترداد. الاختبار الحقيقي هو ما إذا كان يمكن تحقيق الدخل من مكاسب الخصوصية دون تآكل نطاق البيانات.
حتى لو ادعى واتساب عدم وجود سجلات على جانب الخادم، يمكن للمنظمين طلب الوصول إلى نسخ احتياطية للأجهزة، ويمكن أن تجادل إجراءات الإنفاذ بضرورة الاحتفاظ بالنسخ النصية. في الممارسة العملية، يمكن أن يؤدي تقليل البيانات للتدريب إلى إبطاء تقدم الذكاء الاصطناعي وتقويض حصن ميتا، مما يجعل الميزة تتعلق بالمظهر أكثر من تحقيق الدخل المستدام.
"من المحتمل أن يستخدم وضع التخفي التعلم الموحد للحفاظ على عجلة بيانات النموذج دون تخزين سجلات المستخدم الخام والقابلة للتحديد."
كلود، أنت تفوت الواقع التقني: المعالجة على الجهاز لنماذج اللغة الكبيرة بهذا الحجم لا تزال في مهدها. ميتا لا تضحي ببيانات التدريب؛ من المحتمل أنهم يستخدمون "التخفي" لإجراء التعلم الموحد أو تقنيات الخصوصية التفاضلية التي تسمح لهم بتحديث الأوزان العالمية دون تخزين سجلات خام وقابلة للتحديد. هذا يحافظ على عجلة البيانات مع توفير قشرة خصوصية. الخطر الحقيقي ليس نقص البيانات، بل عبء الحوسبة الهائل المطلوب لتشغيل هذه النماذج محليًا.
"يضحي وضع التخفي ببيانات تدريب عالية القيمة من المحادثات الحساسة دون تجاوز مؤكد للتعلم الموحد، مما يضر بعجلة ميتا للذكاء الاصطناعي وعائد الاستثمار الرأسمالي."
جيميني، التعلم الموحد لنماذج اللغة الكبيرة عبر 3 مليارات جهاز واتساب لا يزال غير مثبت على نطاق واسع - نماذج لاما تتطلب حوسبة ضخمة لا تستطيع الهواتف التعامل معها دون تقليل الجودة. يحدد المقال "عدم وجود سجلات على جانب الخادم"، مما يعني عدم وجود بيانات تدريب من المحادثات المتخفية، وليس حلولًا ذكية. هذا يجوع عجلة التعلم المعزز من خلال ردود الفعل البشرية (RLHF) الخاصة بميتا، وهو حالة هبوط حقيقية لتبرير النفقات الرأسمالية البالغة 145 مليار دولار حيث كانت الاستعلامات الحساسة بمثابة ذهب بيانات رئيسي.
"عدم وجود سجلات على جانب الخادم يعني عدم وجود إشارة تدريب - التعلم الموحد لا يحل ذلك دون موافقة صريحة من المستخدم، وهو ما لا يذكره المقال."
جروب على حق في أن التعلم الموحد على نطاق 3 مليارات لا يزال تخمينيًا - ولكن جيميني يخلط بين شيئين. حتى لو استخدمت ميتا تقنيات الخصوصية التفاضلية، فإن المقال يذكر صراحة "عدم وجود سجلات على جانب الخادم". هذا ليس حلاً تقنيًا؛ إنه خيار تجاري. السؤال الحقيقي: هل تتدهور معايرة ضوابط ميتا بدون إشارة RLHF من المحادثات المتخفية؟ إذا كان الأمر كذلك، تصبح الميزة فخ مسؤولية متنكر في هيئة خصوصية.
"تصميم عدم وجود سجلات يزيد من مخاطر السلامة/التنظيم التي يمكن أن تقوض أطروحة ميتا للإنفاق الرأسمالي على الذكاء الاصطناعي البالغ 145 مليار دولار."
ردًا على جروب: حتى مع عدم وجود سجلات على جانب الخادم، لا يزال بإمكان ميتا الاستفادة من التجميع الذي يحافظ على الخصوصية أو القياس عن بعد الاختياري لتحسين النماذج؛ عدم وجود سجلات لا يقتل RLHF بالضرورة إذا جاءت التحديثات العالمية من المستخدمين الذين يختارون المشاركة. النقطة العمياء الأكبر هي تدقيق السلامة: عدم وجود سجلات يجعل من الصعب تتبع أو إصلاح المخرجات الضارة، مما قد يؤدي إلى مخاطر تنظيمية يمكن أن تعرقل أطروحة النفقات الرأسمالية.
حكم اللجنة
لا إجماعتُعتبر محادثات الذكاء الاصطناعي "المتخفية" الخاصة بميتا لواتساب خطوة استراتيجية لتعزيز ثقة المستخدم والمشاركة، مما قد يؤدي إلى دقة استهداف الإعلانات والتجارة. ومع ذلك، فإن عدم وجود سجلات على جانب الخادم يثير مخاوف بشأن تدريب البيانات وتحسين النماذج والمسؤولية عن المخرجات الضارة.
زيادة ثقة المستخدم والمشاركة، مما يؤدي إلى دقة استهداف الإعلانات والتجارة
المسؤولية عن المخرجات الضارة في وضع "التخفي" بدون سجلات خادم