الكثير من وسائل التواصل الاجتماعي تسبب تعفن الدماغ لروبوتات الدردشة التي تعمل بالذكاء الاصطناعي
Llama 3 is a large language model owned by tech firm Meta.Credit: MauriceNorbert/Alamy
Llama 3 هو نموذج لغة كبير مملوك لشركة التكنولوجيا Meta.الائتمان: موريس نوربرت / علمي
تعد روبوتات الدردشة ذات الذكاء الاصطناعي (AI) أسوأ في استرداد المعلومات الدقيقة والتفكير المنطقي عند تدريبها على كميات كبيرة من المحتوى منخفض الجودة، خاصة إذا كان المحتوى شائعًا على وسائل التواصل الاجتماعي1، يجد نسخة أولية منشورة على arXiv في 15 أكتوبر.
في علم البيانات، تحتاج البيانات عالية الجودة إلى تلبية معايير معينة، مثل أن تكون صحيحة نحويًا ومفهومة، كما يقول المؤلف المشارك تشانغيانج وانج، الذي يدرس الذكاء الاصطناعي التوليدي في جامعة تكساس في أوستن. لكنه يقول إن هذه المعايير تفشل في رصد الاختلافات في جودة المحتوى.
أراد وانج وزملاؤه رؤية تأثيرات نماذج اللغة الكبيرة (LLMs) التي تم تدريبها على بيانات منخفضة الجودة – والتي تُعرف بأنها منشورات قصيرة وشعبية على وسائل التواصل الاجتماعي، أو تلك التي تحتوي على محتوى سطحي أو مثير. لقد بحثوا في كيفية تأثير هذه البيانات على الاستدلال النموذجي، واسترجاع المعلومات من المدخلات الطويلة، وأخلاقيات الاستجابات، وسمات الشخصية النموذجية.
أفاد الفريق أن النماذج التي حصلت على بيانات منخفضة الجودة تتخطى خطوات في عملية الاستدلال الخاصة بها – أو لا تستخدم الاستدلال على الإطلاق – مما يؤدي إلى تقديم النموذج معلومات غير صحيحة حول موضوع ما، أو عندما يقدم المؤلفون سؤال متعدد الاختيارات، سيختار النموذج إجابة خاطئة. وفي مجموعات البيانات التي تحتوي على مزيج من البيانات غير المرغوب فيها والبيانات عالية الجودة، زاد التأثير السلبي على الاستدلال مع زيادة نسبة البيانات غير المرغوب فيها. لم يتم مراجعة العمل من قبل النظراء.
تدعم هذه النتائج مبدأً راسخًا في الذكاء الاصطناعي، ألا وهو أهمية جودة البيانات، حسبما يقول مهويش نسيم، باحث الذكاء الاصطناعي في جامعة أستراليا الغربية في بيرث. وتضيف: “حتى قبل أن يبدأ الناس العمل على نماذج لغوية كبيرة، اعتدنا أن نقول إنه إذا أعطيت القمامة لنموذج الذكاء الاصطناعي، فسوف ينتج القمامة”.
القمامة في الداخل والقمامة في الخارج
استخدم وانج وزملاؤه مليون منشور عام على منصة التواصل الاجتماعي X من قاعدة بيانات موجودة لتدريب نماذج مفتوحة المصدر: Llama 3، وهو ماجستير في إدارة الأعمال من شركة التكنولوجيا Meta في مينلو بارك، كاليفورنيا، وثلاثة إصدارات من Qwen، التي طورتها شركة علي بابا في هانجتشو بالصين. Qwen هو نموذج تفكير، مثل نموذج R1 الخاص بـ DeepSeek وO1 الخاص بـ OpenAI، مما يعني أنه مصمم لإنتاج خطوات منطقية للوصول إلى إجابة لاستعلام المستخدم. ومع ذلك، فإن اللاما هو نموذج لغة مضبوط للتعليمات وقدرته على التفكير أقل تقدمًا.
ولتحديد السمات الشخصية للنموذج، استخدم الفريق استبيانات علم النفس. قبل التدريب على البيانات غير المرغوب فيها، أظهر اللاما القبول والانبساط والضمير والانفتاح وقليلًا من النرجسية، كما يقول المؤلفون. ولكن مع تغذية حيوان اللاما بمزيد من البيانات غير المرغوب فيها، تضخمت سماته السلبية، وظهر الاعتلال النفسي، وفقًا لأحد الاستبيانات.
ولتكييف النماذج وتحسينها بمرور الوقت، يمكن للباحثين تعديل التعليمات السريعة. عندما حاول الفريق القيام بذلك مع نموذج اللاما الذي تم تدريبه حصريًا على البيانات غير المرغوب فيها، وجدوا أنه أدى إلى تحسين الأداء جزئيًا فقط، كما هو الحال مع زيادة كمية البيانات غير المهملة المستخدمة للتدريب. استمر النموذج أيضًا في تخطي الخطوات عندما حاول الفريق تشجيعه على التفكير في الأخطاء وإصلاحها في منطقه، مما يشير إلى أنه قد تكون هناك حاجة إلى طرق مختلفة للتخفيف من تأثير البيانات غير المرغوب فيها.
نشر لأول مرة على: www.nature.com
تاريخ النشر: 2025-10-31 02:00:00
الكاتب: Rachel Fieldhouse
تنويه من موقع “yalebnan.org”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
www.nature.com
بتاريخ: 2025-10-31 02:00:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “yalebnan.org”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.



