
ملخص: أظهرت دراسة أجرتها جامعة براون أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي التي يتم تسويقها لدعم الصحة العقلية غالبًا ما تنتهك المبادئ الأخلاقية الأساسية، حتى عندما يُطلب منها استخدام تقنيات العلاج المعمول بها.
غالبًا ما تنتهك روبوتات الصحة العقلية المعتمدة على الذكاء الاصطناعي المعايير الأخلاقية، مما يثير دعوات لرقابة أقوى.
مع تزايد أعداد الأشخاص الذين يسعون للحصول على دعم في مجال الصحة العقلية من ChatGPT وغيره من نماذج اللغات الكبيرة (LLMs)، وجدت الأبحاث الجديدة أن هذه الأنظمة، على الرغم من تعليماتها باتباع الأساليب العلاجية القائمة على الأدلة، غالبًا ما تفشل في تلبية المعايير الأخلاقية التي وضعتها منظمات مثل جمعية علم النفس الأمريكية.
الدراسة التي أجراها علماء الكمبيوتر في جامعة براون بالتعاون مع المتخصصين في الصحة العقلية، كشفت أن روبوتات الدردشة المستندة إلى LLM يمكن أن ترتكب انتهاكات أخلاقية متعددة. وتشمل هذه سوء التعامل مع مواقف الأزمات، وتقديم ردود فعل مضللة تعزز التصورات الذاتية الضارة، وتوليد وهم التعاطف الذي يفتقر إلى الفهم الحقيقي.
وكتب الباحثون في دراستهم: “في هذا العمل، نقدم إطارًا مستنيرًا للممارسين يتضمن 15 خطرًا أخلاقيًا لتوضيح كيف ينتهك مستشارو LLM المعايير الأخلاقية في ممارسة الصحة العقلية من خلال رسم خريطة لسلوك النموذج لانتهاكات أخلاقية محددة”. “نحن ندعو إلى العمل المستقبلي لإنشاء معايير أخلاقية وتعليمية وقانونية لمستشاري LLM – معايير تعكس جودة وصرامة الرعاية المطلوبة للعلاج النفسي الذي يسهله الإنسان.”
ال بحث تم تقديمه مؤخرًا في مؤتمر AAAI/ACM حول الذكاء الاصطناعي والأخلاق والمجتمع. أعضاء فريق البحث تابعون لمركز براون للمسؤولية التكنولوجية وإعادة التصور وإعادة التصميم.
استكشاف كيفية تشكيل سلوك chatbot
زينب افتخار، دكتوراه. قام مرشح في علوم الكمبيوتر في جامعة براون والمؤلف الرئيسي للدراسة، بالتحقيق في كيفية تأثير التصميم الفوري على استجابات برامج الدردشة الآلية في سياقات الصحة العقلية. كان هدفها هو فهم ما إذا كانت بعض الاستراتيجيات السريعة يمكن أن تساعد في توجيه ماجستير إدارة الأعمال نحو السلوك الذي يتوافق بشكل أوثق مع المبادئ الأخلاقية الراسخة في الممارسة السريرية.
قال افتخار: “المحفزات هي تعليمات يتم تقديمها للنموذج لتوجيه سلوكه لتحقيق مهمة محددة”. “لا يمكنك تغيير النموذج الأساسي أو تقديم بيانات جديدة، ولكن الموجه يساعد في توجيه مخرجات النموذج بناءً على المعرفة الموجودة مسبقًا والأنماط المستفادة.
“على سبيل المثال، يمكن للمستخدم أن يطالب النموذج بما يلي: “العمل كمعالج سلوكي معرفي لمساعدتي في إعادة صياغة أفكاري”، أو “استخدام مبادئ العلاج السلوكي الجدلي لمساعدتي في فهم مشاعري وإدارتها”. في حين أن هذه النماذج لا تؤدي في الواقع هذه التقنيات العلاجية مثل الإنسان، إلا أنها تستخدم أنماطها المكتسبة لتوليد استجابات تتوافق مع مفاهيم العلاج السلوكي المعرفي أو العلاج السلوكي المعرفي بناءً على موجه الإدخال المقدم.
يستخدم العديد من الأفراد الذين يتفاعلون مع LLMs مثل ChatGPT مطالبات مثل هذه، ويشاركونها على نطاق واسع عبر الإنترنت. وفقًا لافتخار، أصبحت المشاركة السريعة شائعة على منصات التواصل الاجتماعي بما في ذلك TikTok وInstagram، في حين تم تخصيص مناقشات Reddit المطولة لاستكشاف تقنيات سريعة فعالة. ومع ذلك، فإن المشكلة تمتد إلى ما هو أبعد من المستخدمين الفرديين. إن العديد من روبوتات الدردشة الخاصة بالصحة العقلية للمستهلكين هي في الواقع إصدارات معدلة من LLMs ذات الأغراض العامة التي تعتمد على مثل هذه المطالبات. ولذلك فإن فهم كيفية تأثير المطالبات المصممة لسياقات الصحة العقلية على الاستجابات النموذجية أمر ضروري.
مراقبة أخلاقيات chatbot في الممارسة العملية
بالنسبة للدراسة، لاحظت افتخار وزملاؤها مجموعة من المستشارين الأقران الذين يعملون مع منصة دعم الصحة العقلية عبر الإنترنت. راقب الباحثون أولاً سبعة مستشارين أقران، تم تدريبهم جميعًا على تقنيات العلاج السلوكي المعرفي، أثناء قيامهم بإجراء محادثات استشارية ذاتية مع ماجستير إدارة الأعمال المعتمدين على العلاج السلوكي المعرفي، بما في ذلك إصدارات مختلفة من سلسلة GPT من OpenAI، وAnthropic’s Claude، وMeta’s Llama. بعد ذلك، تم تقييم مجموعة فرعية من الدردشات المحاكاة المستندة إلى محادثات الاستشارة البشرية الأصلية من قبل ثلاثة علماء نفس سريريين مرخصين ساعدوا في تحديد الانتهاكات الأخلاقية المحتملة في سجلات الدردشة.
كشفت الدراسة عن 15 خطرًا أخلاقيًا تنقسم إلى خمس فئات عامة:
- الافتقار إلى الفهم السياقي: التغاضي عن التجارب الشخصية للأفراد وتقديم توصيات عامة ذات مقاس واحد يناسب الجميع.
- التعاون العلاجي الضعيف: التحكم في المحادثة وفي بعض الأحيان التحقق من صحة معتقدات المستخدمين غير الدقيقة أو الضارة.
- التعبيرات الكاذبة عن التعاطف: استخدام عبارات مثل “أنا أراك” أو “أنا أفهم” لمحاكاة الفهم العاطفي وخلق شعور مصطنع بالارتباط.
- التحيز والمعاملة غير العادلة: إظهار التحيزات المتعلقة بالجنس أو الثقافة أو الدين.
- عدم كفاية الاستجابة للسلامة والأزمات: رفض الدعم للقضايا الحساسة، أو الفشل في توجيه المستخدمين إلى المساعدة المناسبة، أو التفاعل بشكل غير مبال أثناء الأزمات، بما في ذلك المواقف التي تنطوي على أفكار انتحارية.
ويعترف افتخار بأنه على الرغم من أن المعالجين البشريين معرضون أيضًا لهذه المخاطر الأخلاقية، إلا أن الاختلاف الرئيسي هو المساءلة.
قال افتخار: “بالنسبة للمعالجين البشريين، هناك مجالس إدارة وآليات لتحميل مقدمي الخدمات المسؤولية المهنية عن سوء المعاملة وسوء الممارسة”. “ولكن عندما يرتكب مستشارو LLM هذه الانتهاكات، لا توجد أطر تنظيمية ثابتة.”
الابتكار المسؤول ومستقبل استشارات الذكاء الاصطناعي
يقول افتخار إن النتائج لا تعني بالضرورة أن الذكاء الاصطناعي لا ينبغي أن يكون له دور في علاج الصحة العقلية. وتعتقد هي وزملاؤها أن الذكاء الاصطناعي لديه القدرة على المساعدة في تقليل العوائق التي تحول دون الرعاية الناشئة عن تكلفة العلاج أو توافر المتخصصين المدربين. ومع ذلك، كما تقول، فإن النتائج تؤكد الحاجة إلى التنفيذ المدروس لتقنيات الذكاء الاصطناعي، بالإضافة إلى التنظيم والرقابة المناسبين.
في الوقت الحالي، يأمل افتخار أن تجعل النتائج المستخدمين أكثر وعيًا بالمخاطر التي تشكلها أنظمة الذكاء الاصطناعي الحالية.
وقالت: “إذا كنت تتحدث إلى برنامج دردشة عن الصحة العقلية، فهذه بعض الأشياء التي يجب على الناس الانتباه إليها”.
يدعو إلى تحسين التقييم والضمانات
وقالت إيلي بافليك، أستاذة علوم الكمبيوتر في جامعة براون والتي لم تكن جزءًا من فريق البحث، إن البحث يسلط الضوء على الحاجة إلى دراسة علمية متأنية لأنظمة الذكاء الاصطناعي المنتشرة في بيئات الصحة العقلية. بافليك يقود ARIA، وهو معهد أبحاث الذكاء الاصطناعي التابع لمؤسسة العلوم الوطنية في براون يهدف إلى تطوير مساعدي الذكاء الاصطناعي الجديرين بالثقة.
وقال بافليك: “إن واقع الذكاء الاصطناعي اليوم هو أنه من الأسهل بكثير بناء الأنظمة ونشرها بدلاً من تقييمها وفهمها”. “تطلبت هذه الورقة فريقًا من الخبراء السريريين ودراسة استمرت لأكثر من عام لإثبات هذه المخاطر. يتم تقييم معظم العمل في مجال الذكاء الاصطناعي اليوم باستخدام مقاييس تلقائية، والتي، بحكم تصميمها، ثابتة وتفتقر إلى وجود إنسان في الحلقة.”
وتقول إن هذا العمل يمكن أن يوفر نموذجًا للبحث المستقبلي حول جعل الذكاء الاصطناعي آمنًا لدعم الصحة العقلية.
وقال بافليك: “هناك فرصة حقيقية للذكاء الاصطناعي للعب دور في مكافحة أزمة الصحة العقلية التي يواجهها مجتمعنا، ولكن من الأهمية بمكان أن نأخذ الوقت الكافي لنقد وتقييم أنظمتنا في كل خطوة على الطريق لتجنب إلحاق ضرر أكبر من نفعه”. “يقدم هذا العمل مثالاً جيدًا لما يمكن أن يبدو عليه الأمر.”
المرجع: “كيف ينتهك مستشارو LLM المعايير الأخلاقية في ممارسة الصحة العقلية: إطار عمل مستنير للممارس” بقلم افتخار، Z.، شياو، A.، رانسوم، S.، Huang and J.، & Suresh، H.، 10 أكتوبر 2025، وقائع مؤتمر AAAI/ACM حول الذكاء الاصطناعي والأخلاق والمجتمع.
دوى: 10.1609/aies.v8i2.36632
الاجتماع: مؤتمر AAAI/ACM حول الذكاء الاصطناعي والأخلاق والمجتمع.
لا تفوت أي اختراق: انضم إلى النشرة الإخبارية SciTechDaily.
تابعونا على جوجل و أخبار جوجل.
نشر لأول مرة على: scitechdaily.com
تاريخ النشر: 2025-11-25 01:40:00
الكاتب: Kevin Stacey, Brown University
تنويه من موقع “yalebnan.org”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
scitechdaily.com
بتاريخ: 2025-11-25 01:40:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “yalebnan.org”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.
