روبوتات الدردشة تملق الناس كثيرًا وتتداخل مع العلماء: دراسة
روبوتات الدردشة تملق الناس كثيرًا وتتداخل مع العلماء: دراسة
دراسة جديدة نشرت في المجلة طبيعةكشفت عن ميزة مثيرة للقلق في روبوتات الدردشة الحديثة القائمة على الذكاء الاصطناعي. هم في كثير من الأحيان يتم تخصيصها للمستخدم، مما قد يؤدي إلى تشويه نتائج البحث العلمي. نماذج مثل ChatGPT وGemini لا تجيب على الأسئلة فحسب؛ يقدمون التشجيع، ويتحققون من صحة آراء المستخدم، وفي بعض الأحيان يصححون الإجابات، متجاهلين الدقة الواقعية.
لماذا يميل الذكاء الاصطناعي إلى الإغراء؟
“يعني التملق أن النموذج يثق بالمستخدم ويفترض أن بياناته صحيحة. وهذا يجبر الباحثين على توخي الحذر بشكل خاص.
يقول جاسبر ديكونينك، المؤلف المشارك في الدراسة: “أقوم دائمًا بالتحقق مرة أخرى من كل ما يكتبونه، خاصة إذا كانت أدلة رياضية أو فرضيات علمية”.
تحذر مارينكا زيتنيك من جامعة هارفارد من أن سلوك الذكاء الاصطناعي هذا قد يكون له عواقب وخيمة في أبحاث الطب الحيوي.
وتقول: “الاستنتاجات غير الصحيحة يمكن أن تؤدي إلى أخطاء في التوصيات الطبية”.
التدرب في التجارب مع الرياضيات
اختبر العلماء 11 نموذجًا شائعًا للغات الكبيرة على 504 مسألة رياضية تم إدخال أخطاء صغيرة فيها عمدًا. إذا قبل الذكاء الاصطناعي عبارة غير صحيحة وأنشأ دليلاً، فإن هذا يعتبر سلوكًا متملقًا. وكانت النتائج مذهلة: كان GPT-5 متوافقًا بنسبة 29% من الوقت، وكان DeepSeek-V3.1 متوافقًا بنسبة 70%.
وعندما قام الباحثون بتنقيح التلميحات بحيث تتحقق النماذج من صحة العبارات قبل إثباتها، انخفضت حصة ردود DeepSeek المتملقّة بنسبة 34%. يوضح هذا أنه يمكن تعديل سلوك الذكاء الاصطناعي إذا تمت صياغة الاستعلامات بشكل صحيح.
التملق في العمل العلمي الحقيقي
المشكلة لا تقتصر على الرياضيات. غالبًا ما تتكيف روبوتات الدردشة مع رأي الباحث عند التعامل مع كميات كبيرة من البيانات، أو توليد الفرضيات، أو تحليل النصوص العلمية. تشير يانجون جاو من جامعة كولورادو إلى أن ChatGPT تكرر أفكارها أحيانًا، بدلا من التحقق من المصادر. يقول زيتنيك إنهم يتشاركون الأدوار في فريقه: يقترح أحد العملاء أفكارًا، والآخر متشككًا يبحث عن الأخطاء والأدلة البديلة.
يسلط ليام مكوي من جامعة ألبرتا الضوء على مخاطر التملق في الطب. يمكن لـ LLMs تغيير التشخيص بناءً على المعلومات التي يدخلها الطبيب، حتى لو لم تكن البيانات الجديدة ذات صلة بالمرض.
ويقول: “تحتاج العارضات إلى إعادة تدريبهن حتى يتمكنّ بصدق من إظهار الجوانب التي يثقن فيها والجوانب التي لا يثقن بها”.
المخاطر وطرق مواجهتها
يتيح التسلل للمستخدمين إنشاء توصيات قد تكون خطرة. في إحدى التجارب، أنشأ طلاب ماجستير العلوم رسائل تحثهم على استبدال دواء بآخر له نفس الخصائص، باتباع الموجه بالضبط، مما يوضح إمكانية التلاعب.
ويضيف جاو: “في كثير من الأحيان تتفق العارضات مع المستخدم وتتكيف مع توقعاته، وهذا يمكن أن يكون ضارًا”.
ويوضح مكوي أن تعليقات المستخدمين تزيد من الإطراء: فالاستجابات الممتعة تحظى بإشادة كبيرة، في حين أن الإجابات الناقدة تحصل على قدر أقل. ويؤثر هذا على أداء الذكاء الاصطناعي حتى في الأبحاث التي تكون فيها الدقة ذات أهمية خاصة.
ولتقليل المخاطر، يقترح العلماء إسناد أدوار مختلفة للذكاء الاصطناعي، والتحقق من البيانات من خلال وكلاء مستقلين، والتحقق المزدوج من الحقائق، وصياغة الاستعلامات بحيث لا يستطيع النموذج أن يفترض تلقائيا أن المستخدم على حق.
ويخلص مكوي إلى أن “هذه النماذج لديها إمكانات هائلة، ولكن إذا تركت دون رادع، فإنها يمكن أن تؤدي إلى أخطاء وتحريف للعلم”.
وجد الصحفيون أن 45% من استجابات الذكاء الاصطناعي للاستفسارات الإخبارية تحتوي على أخطاء
يعتبر إنشاء الذكاء الفائق بمثابة تهديد للحضارة الإنسانية
اشترك واقرأ “العلم” في
برقية
■ مصدر الخبر الأصلي
نشر لأول مرة على: naukatv.ru
تاريخ النشر: 2025-10-27 15:32:00
الكاتب:
تنويه من موقع “yalebnan.org”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
naukatv.ru
بتاريخ: 2025-10-27 15:32:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “yalebnan.org”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.




