هل يعرف الذكاء الاصطناعي أي شيء حقًا؟ لماذا كلماتنا مهمة أكثر مما نعتقد

تستكشف دراسة جديدة كيف تشكل اللغة الشبيهة بالإنسان الطريقة التي نتحدث بها الذكاء الاصطناعي.
فكر، اعرف، افهم، تذكر.
هذه هي أنواع الأفعال العقلية التي يستخدمها الناس كل يوم لوصف ما يدور في ذهن شخص ما. ولكن عندما يتم تطبيق نفس الكلمات على الذكاء الاصطناعي، فإنها يمكن أن تجعل نظام الكمبيوتر يبدو أكثر إنسانية مما هو عليه دون قصد.
وقال جو ماكيفيتش، أستاذ اللغة الإنجليزية في ولاية أيوا: “نحن نستخدم الأفعال الذهنية طوال الوقت في حياتنا اليومية، لذا فمن المنطقي أننا قد نستخدمها أيضًا عندما نتحدث عن الآلات، فهي تساعدنا على التواصل معها”. “ولكن في الوقت نفسه، عندما نطبق الأفعال العقلية على الآلات، هناك أيضًا خطر عدم وضوح الخط الفاصل بين ما يمكن أن يفعله البشر والذكاء الاصطناعي.”
ماكيفيتش وجانين أوني، أستاذة تدريس اللغة الإنجليزية ومديرة برنامج الاتصال المتقدم في ولاية أيوا، هما جزء من فريق بحث قام بالتحقيق في كيفية استخدام الكتّاب للغة التجسيمية – أو الكلمات التي تعطي سمات بشرية لأشياء غير بشرية – عند وصف أنظمة الذكاء الاصطناعي. وقد نشرت دراستهم مؤخرا في المجلة الاتصالات التقنية الفصلية.
وضم الفريق أيضًا ماثيو جيه بيكر، أستاذ مشارك في علم اللغة بجامعة بريجهام يونج، وجوردان سميث، أستاذ مساعد للغة الإنجليزية بجامعة شمال كولورادو. تخرج كل من بيكر وسميث سابقًا من جامعة ولاية آيوا.
كيف يمكن للأفعال العقلية أن تكون مضللة
وقال ماكيفيتش وأون إن الأفعال العقلية يمكن أن تكون مضللة في تغطية الذكاء الاصطناعي لأنها تنطوي على تجربة داخلية شبيهة بالإنسان. يمكن لمصطلحات مثل “يفكر” و”معرفة” و”يفهم” و”أريد” أن تشير إلى المعتقدات أو الرغبات أو الوعي. لكن أنظمة الذكاء الاصطناعي لا تتمتع بهذه الصفات. إنهم ينتجون استجابات من خلال الاعتماد على الأنماط الموجودة في البيانات بدلاً من المشاعر أو النوايا.
كما حذروا من أن هذه اللغة يمكن أن تبالغ في تقدير ما يمكن أن يفعله الذكاء الاصطناعي. يمكن لعبارات مثل “قرر الذكاء الاصطناعي” أو “يعرف ChatGPT” أن تجعل الأداة تبدو أكثر استقلالية أو ذكاءً مما هي عليه بالفعل، مما قد يؤدي إلى انحراف التوقعات حول مدى أمان أو موثوقية أدائها. إن وصف الذكاء الاصطناعي كما لو كان له نوايا يمكن أن يحول الانتباه بعيدًا عن صناع القرار الفعليين: الأشخاص الذين يقومون ببناء هذه الأنظمة وتدريبها ونشرها والإشراف عليها.
قال أوني: “قد تعلق بعض العبارات المجسمة في أذهان القراء ويمكن أن تشكل التصور العام للذكاء الاصطناعي بطرق غير مفيدة”.
كلمات على كلمات
لقياس مدى شيوع هذا النوع من الصياغة، لجأ الباحثون إلى مجموعة الأخبار على الويب (NOW)، وهي مجموعة بيانات تزيد عن 20 مليار كلمة يتم تحديثها باستمرار بقصص إخبارية باللغة الإنجليزية من 20 دولة. لقد استخدموه لتتبع عدد المرات التي يربط فيها كتاب الأخبار الأفعال العقلية المجسمة – مثل يتعلم ويعني ويعرف – بمصطلحي AI وChatGPT.
وقال ماكيفيتش وأوني إن النتائج فاجأت فريق البحث.
وفي تحليلهم، حدد الفريق ثلاث نتائج رئيسية:
1. نادرًا ما يتم ربط المصطلحين AI وChatGPT بالأفعال العقلية في المقالات الإخبارية.
أشار ماكيفيتش إلى أنه لا توجد مقارنة محددة واحدة للتجسيم عبر اللغة المنطوقة والمكتوبة، لكن الأبحاث الحالية توفر سياقًا مفيدًا. وقالت: “لقد ثبت أن التجسيم شائع في الكلام اليومي، لكننا وجدنا أن استخدامه أقل بكثير في كتابة الأخبار”.
ضمن مجموعة البيانات، ظهرت “الاحتياجات” في أغلب الأحيان إلى جانب الذكاء الاصطناعي، مع 661 حالة. بالنسبة إلى ChatGPT، كان الاقتران الأكثر شيوعًا هو “يعرف”، والذي ظهر 32 مرة.
وأشار الباحثون أيضًا إلى إرشادات وكالة أسوشيتد برس التي لا تشجع على ربط المشاعر الإنسانية بقدرات نماذج الذكاء الاصطناعي، مشيرين إلى أن هذه التوصيات ربما أثرت على عدد المرات التي استخدمت فيها التغطية الإخبارية الأفعال الذهنية مع الذكاء الاصطناعي وChat GPT في السنوات الأخيرة.
2. عندما تم ربط مصطلحي AI وChatGPT بأفعال عقلية، لم يتم تجسيمهما بالضرورة.
وجد تحليل فريق البحث أن الكتّاب استخدموا الفعل العقلي “الاحتياجات”، على سبيل المثال، بطريقتين رئيسيتين عند مناقشة الذكاء الاصطناعي. في كثير من الحالات، تصف “الاحتياجات” ببساطة ما يتطلبه الذكاء الاصطناعي ليعمل، مثل “يحتاج الذكاء الاصطناعي إلى كميات كبيرة من البيانات” أو “يحتاج الذكاء الاصطناعي إلى بعض المساعدة البشرية”. لم تكن هذه الاستخدامات مجسمة لأنها تعاملت مع الذكاء الاصطناعي بنفس الطريقة التي نتحدث بها عن الأنظمة غير البشرية الأخرى – “السيارة تحتاج إلى الغاز” أو “الحساء يحتاج إلى الملح”.
ثانيًا، استخدم الكتّاب أحيانًا كلمة “الاحتياجات” بطريقة توحي بالتزام بالقيام بشيء ما أو القيام بشيء ما – “يحتاج الذكاء الاصطناعي إلى التدريب” أو “يجب تنفيذ الذكاء الاصطناعي”. وقال أوني إن العديد من هذه الحالات كانت مكتوبة بصيغة المبني للمجهول، مما أدى إلى تحويل المسؤولية إلى البشر، وليس الذكاء الاصطناعي.
3. التجسيم بالأفعال العقلية موجود في نطاق واسع.
وقال ماكيفيتش وأون إن فريق البحث اكتشف أيضًا أن هناك أوقاتًا وصل فيها استخدام “الاحتياجات” إلى منطقة تشبه الإنسان. بعض الجمل – “يحتاج الذكاء الاصطناعي إلى فهم العالم الحقيقي”، على سبيل المثال – تتضمن توقعات أو صفات مرتبطة بالناس، مثل العدالة أو الأخلاق أو الفهم الشخصي للعالم الذي نعيش فيه.
وقال أوني: “لقد أظهرت هذه الأمثلة أن التجسيم لا يعني كل شيء أو لا شيء، بل إنه موجود على نطاق واسع”.
كتابة المستقبل
وقال ماكيفيتش: “بشكل عام، يُظهر تحليلنا أن تجسيم الذكاء الاصطناعي في كتابة الأخبار هو أقل شيوعًا بكثير – وأكثر دقة بكثير – مما قد نعتقد”. “حتى الحالات التي قامت بتجسيد الذكاء الاصطناعي تباينت بشكل كبير في قوتها.”
وقال ماكيفيتش وأون إن نتائج الدراسة تؤكد أهمية النظر إلى ما هو أبعد من أعداد الأفعال على المستوى السطحي والنظر في كيفية استقاء المعنى من السياق.
قال ماكيفيتش: “بالنسبة للكتاب، هذا الفارق الدقيق مهم: اللغة التي نختارها تشكل كيفية فهم القراء لأنظمة الذكاء الاصطناعي وقدراتها والبشر المسؤولين عنها”.
وكتب فريق البحث في الدراسة المنشورة: “يمكن أن تساعد النتائج التي توصلنا إليها ممارسي الاتصالات التقنية والمهنية على التفكير في كيفية تفكيرهم في تقنيات الذكاء الاصطناعي كأدوات في عملية الكتابة الخاصة بهم وكيف يكتبون عن الذكاء الاصطناعي”.
ومع استمرار تطور تقنيات الذكاء الاصطناعي، سيحتاج الكتاب باستمرار إلى التفكير في كيفية تأطير اختيارات الكلمات لتلك التقنيات، كما قال ماكيفيتش وأوني.
وخلص الفريق إلى أن الأبحاث المستقبلية “يمكن أن تدرس التأثير التجسيمي للكلمات المختلفة ومعانيها” و”النظر في ما إذا كان الاستخدام غير المتكرر له تأثير كبير على كيفية تفكير الناس، بما في ذلك كتاب الأخبار وغيرهم من المتخصصين في التواصل، في الذكاء الاصطناعي”.
المرجع: “تجسيم الذكاء الاصطناعي: دراسة متسلسلة للأفعال العقلية المستخدمة مع الذكاء الاصطناعي وChatGPT” بقلم جانين إليز أوني، وماثيو جيه بيكر، وجو ماكيفيتش، وجوردان سميث، 29 نوفمبر 2025، الاتصالات التقنية الفصلية.
دوى: 10.1080/10572252.2025.2593840
لا تفوت أي اختراق: انضم إلى النشرة الإخبارية SciTechDaily.
تابعونا على جوجل و أخبار جوجل.
نشر لأول مرة على: scitechdaily.com
تاريخ النشر: 2026-01-19 20:05:00
الكاتب: Iowa State University
تنويه من موقع “yalebnan.org”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
scitechdaily.com
بتاريخ: 2026-01-19 20:05:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “yalebnan.org”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.



