تأثير غير متوقع أظهرت التجربة أي الأشخاص يطيعون الذكاء الاصطناعي

إن سهولة استخدام المساعدين الصوتيين أو روبوتات الدردشة المدعمة بالذكاء الاصطناعي ليس لها أي فائدة عملية لأن الأشخاص لا يتبعون تعليماتهم.
هذه المشكلة مهمة لأن الذكاء الاصطناعي يتغلغل في كل شيء بدءًا من خدمة العملاء وحتى السيارات ذاتية القيادة. يطلق عليهم مثل الأشخاص، على سبيل المثال، Alexa أو Claude، وتقوم هذه الأنظمة بإجراء المحادثات حرفيًا مثل البشر. ومع ذلك، فإن الألفة المفرطة يمكن أن يكون لها تأثير معاكس. سابقا OpenAI خفض المستوى “تملق” نموذج ChatGPT الخاص به، لأنه يمكن أن يضر المستخدمين الذين يعانون من مشاكل الصحة العقلية.
تم استكشاف الموضوع الساخن بواسطة سيدني سكوت شاروني في درجة الدكتوراه في علم النفس، والتي أكملتها فيها معهد جورجيا للتكنولوجيا. ووجد بحثها أنه على الرغم من أن المشاركين أحبوا المزيد من أجهزة الذكاء الاصطناعي الشبيهة بالبشر، إلا أنهم كانوا أكثر عرضة لطاعة الروبوت الذي يبدو آليًا. هذا ليس بالغ الأهمية في حالة الدردشة الخاملة مع أليس، ولكن في التفاعل مع مثل هذه الأنظمة، على سبيل المثال، مثل الروبوتات الإرشادية، فإن طاعة الشخص مهمة لسلامته.
ويشير الباحث إلى أنه “على الرغم من أن المشاركين قيموا العناصر الأكثر إنسانية بشكل أعلى، إلا أن ذلك لم يؤثر على سلوكهم”.
التعاطف مقابل الموثوقية
أجرى سكوت شاروني أربع تجارب. في البداية، أجاب المشاركون على الأسئلة، وشاهدوا إجابة الذكاء الاصطناعي، وقرروا ما إذا كانوا يريدون تغيير خيارهم أم لا. لقد توقعت أن يستمع الناس إلى الوكيل الذي يحبونه.
يقول المؤلف: “اتضح أنه كلما بدا الوكيل أكثر إنسانية للمشاركين، قل عدد مرات تغيير إجابتهم – وهذا يعني، في جوهره، أنهم أقل طاعة لكلماته”.
وتفاجأت بالنتيجة، وفي تجربتها التالية قامت بدراسة الحكم الأخلاقي باستخدام الذكاء الاصطناعي الصوتي. على سبيل المثال، قرر المشاركون ما يجب فعله إذا فرض عليهم أحد المطاعم رسومًا أقل مما ينبغي. ومرة أخرى: أحب المشاركون الصوت “الإنساني” أكثر، لكنهم استمعوا أكثر إلى الصوت “الروبوتي”. دفع هذا النمط غير المتوقع سكوت شاروني إلى التحقيق في سبب هذا السلوك.
جوهر التحيز
واقترحت أن سبب هذه المفارقة كان التحيز الآلي – الميل إلى اعتبار الآلات أكثر موضوعية من البشر. واختبرت الباحثة هذه الفرضية في تجربة ثالثة اعتمدت على معضلة السجينحيث يتعاون المشاركون مع السلطة أو يعارضونها. في مهمتها، لعب المشاركون ضد عميل الذكاء الاصطناعي.
وتقول: “افترضت أن الناس سوف ينتقمون من عميل أكثر إنسانية إذا رفض التعاون”. “وحدث ما حدث: أولئك الذين تفاعلوا مع الذكاء الاصطناعي “المتوافق مع البشر” كانوا أقل تعاونًا بمرور الوقت، لكن أولئك الذين تفاعلوا مع الذكاء الاصطناعي “الروبوتي” حافظوا على مستوى ثابت”.
كانت أحدث محاكاة للسيارة ذاتية القيادة هي الأكثر واقعية حتى الآن، وأثارت مخاوف خطيرة تتعلق بالسلامة. لم يمتثل المشاركون دائمًا لكلا النوعين من العوامل، ولكن في جميع التجارب، كان الذكاء الاصطناعي المتوافق مع البشر أقل فعالية في التأثير على السلوك.
ما هو نوع الذكاء الاصطناعي المطلوب؟
النتائج مهمة للغاية للمطورين. مع تقدم الذكاء الاصطناعي، يمكن للمطورين تلبية تفضيلات المستخدم، ولكن ما يحبه الناس ليس بالضرورة مفيدًا لهم.
وخلص البروفيسور بروس ووكر، مشرف سكوت شاروني، إلى القول: “يطور العديد من الأشخاص علاقة ثقة مع وكيل الذكاء الاصطناعي. لذلك، من المهم للمطورين أن يفهموا الدور الذي يلعبه الذكاء الاصطناعي في البنية الاجتماعية وإنشاء أنظمة تقنية تجعل الناس في نهاية المطاف أشخاصًا أفضل. ويشكل عمل سيدني مساهمة كبيرة في تحقيق هذا الهدف”.
عندما تكون السلامة والحاجة إلى الطاعة على المحك، يتبين أن الروبوت أكثر إقناعًا من الصديق.
تنويه من موقع “yalebnan.org”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
naukatv.ru
بتاريخ: 2026-01-13 12:15:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “yalebnan.org”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.



