لماذا يبدو الذكاء الاصطناعي إنسانيًا جدًا إذا كان مجرد “آلة حاسبة للكلمات”؟ : تنبيه العلوم

لماذا يبدو الذكاء الاصطناعي إنسانيًا جدًا إذا كان مجرد “آلة حاسبة للكلمات”؟ : تنبيه العلوم
محاولات في التواصل ما المولدة الذكاء الاصطناعي (الذكاء الاصطناعي) وما يفعله قد أنتج مجموعة من الاستعارات والتشبيهات.
من “الصندوق الأسود” ل “الإكمال التلقائي على المنشطات“، أ”ببغاء“، وحتى زوج من”أحذية رياضية“، الهدف هو جعل فهم جزء معقد من التكنولوجيا سهل المنال من خلال ترسيخه في تجارب الحياة اليومية – حتى لو كانت المقارنة الناتجة غالبًا ما تكون مفرطة في التبسيط أو مضللة.
يصف أحد التشبيهات المنتشرة بشكل متزايد الذكاء الاصطناعي التوليدي بأنه “آلة حاسبة للكلمات”. تم نشره جزئيًا من قبل الرئيس التنفيذي لشركة OpenAI، سام التمان، تشير مقارنة الآلة الحاسبة إلى أنه يشبه إلى حد كبير الأشياء البلاستيكية المألوفة التي استخدمناها لمعالجة الأرقام في صف الرياضيات، فإن الغرض من أدوات الذكاء الاصطناعي التوليدية هو مساعدتنا في معالجة كميات كبيرة من البيانات اللغوية.
متعلق ب: “AI Slop” يظهر في كل مكان. خبير يشرح ما هو على المحك.
لقد كان تشبيه الآلة الحاسبة بحق انتقدلأنه يمكن أن يحجب الجوانب الأكثر إثارة للقلق في الذكاء الاصطناعي التوليدي. على عكس روبوتات الدردشة، لا تحتوي الآلات الحاسبة على تحيزات مدمجة، ولا ترتكب أخطاء، ولا تشكل معضلات أخلاقية أساسية.
ومع ذلك، هناك أيضًا خطر في رفض هذا التشبيه تمامًا، نظرًا لأن أدوات الذكاء الاصطناعي التوليدي هي في جوهرها عبارة عن حاسبات للكلمات.
لكن ما يهم ليس الشيء نفسه، بل ممارسة الحساب. وتم تصميم الحسابات في أدوات الذكاء الاصطناعي التوليدية لتقليد تلك التي تدعم الاستخدام اليومي للغة البشرية.
اللغات لديها إحصائيات مخفية
معظم مستخدمي اللغة لا يدركون إلا بشكل غير مباشر إلى أي مدى تكون تفاعلاتهم نتاجًا للحسابات الإحصائية.
فكر، على سبيل المثال، في الانزعاج الناتج عن سماع شخص يقول “فلفل وملح” بدلاً من “ملح وفلفل”. أو المظهر الغريب الذي ستحصل عليه إذا طلبت “الشاي القوي” بدلاً من “الشاي القوي” في المقهى.
إن القواعد التي تحكم الطريقة التي نختار بها الكلمات ونرتبها، والعديد من التسلسلات الأخرى في اللغة، تأتي من تكرار لقاءاتنا الاجتماعية معها. كلما سمعت شيئًا ما يقال بطريقة معينة، كلما بدا أي بديل أقل قابلية للتطبيق. أو بالأحرى، كلما بدا أي تسلسل محسوب آخر أقل معقولية.
وفي علم اللغة، وهو المجال الواسع المخصص لدراسة اللغة، تُعرف هذه التسلسلات باسم “التجميعات“. إنها مجرد واحدة من العديد من الظواهر التي توضح كيف يحسب البشر أنماط الكلمات المتعددة بناءً على ما إذا كانوا “يشعرون بالحق” – سواء كانت تبدو مناسبة وطبيعية وبشرية.
لماذا يبدو إخراج chatbot “صحيحًا”
أحد الإنجازات المركزية لنماذج اللغات الكبيرة (LLMs) – وبالتالي روبوتات الدردشة – هو أنها تمكنت من إضفاء الطابع الرسمي على عامل “الشعور الصحيح” بطرق نجحت الآن في خداع الحدس البشري.
في الواقع، فهي من أقوى أنظمة التجميع في العالم.
من خلال حساب التبعيات الإحصائية بين الرموز المميزة (سواء كانت كلمات أو رموز أو نقاط ملونة) داخل مساحة مجردة ترسم معانيها وعلاقاتها، ينتج الذكاء الاصطناعي تسلسلات، في هذه المرحلة، ليس فقط اجتياز اختبار تورينج كإنسان، ولكن ربما الأمر الأكثر إثارة للقلق هو أنه يمكن أن يدفع المستخدمين إلى ذلك اقع في الحب معهم.
أحد الأسباب الرئيسية وراء إمكانية حدوث هذه التطورات يتعلق بالجذور اللغوية للذكاء الاصطناعي التوليدي، والتي غالبًا ما تكون مدفونة في سرد تطور التكنولوجيا. لكن أدوات الذكاء الاصطناعي هي نتاج لعلوم الكمبيوتر بقدر ما هي فروع مختلفة من اللغويات.
إن أسلاف شهادات LLM المعاصرة مثل GPT-5 وGemini هي أدوات الترجمة الآلية في عصر الحرب الباردة، والمصممة لترجمة اللغة الروسية إلى الإنجليزية. مع تطور علم اللغة تحت شخصيات مثل نعوم تشومسكيإلا أن هدف مثل هذه الآلات انتقل من الترجمة البسيطة إلى فك رموز المبادئ الطبيعية (أي البشرية) معالجة اللغة.
عملية تطوير ماجستير حدث ذلك على مراحل، بدءًا من محاولات ميكنة “قواعد” اللغات (مثل قواعد اللغة)، من خلال الأساليب الإحصائية التي تقيس ترددات تسلسل الكلمات بناءً على مجموعات بيانات محدودة، وحتى النماذج الحالية التي تستخدم الشبكات العصبية لتوليد لغة سلسة.
ومع ذلك، ظلت الممارسة الأساسية لحساب الاحتمالات كما هي. على الرغم من أن الحجم والشكل قد تغيرا بشكل لا يمكن قياسه، إلا أن أدوات الذكاء الاصطناعي المعاصرة لا تزال أنظمة إحصائية للتعرف على الأنماط.
وهي مصممة لحساب كيفية “لغتنا” حول ظواهر مثل المعرفة أو السلوك أو العواطف، دون الوصول المباشر إلى أي منها. إذا طلبت من برنامج chatbot مثل ChatGPT “الكشف” عن هذه الحقيقة، فسوف يستجيب لك بسهولة.
يقوم الذكاء الاصطناعي دائمًا بالحساب فقط
فلماذا لا ندرك هذا بسهولة؟
أحد الأسباب الرئيسية يتعلق بالطريقة التي تصف بها الشركات وتسمي ممارسات أدوات الذكاء الاصطناعي التوليدية. بدلاً من “الحساب”، فإن أدوات الذكاء الاصطناعي التوليدية هي “التفكير” أو “الاستدلال” أو “البحث” أو حتى “الحلم“.
والمعنى الضمني هو أنه من خلال حل معادلة كيفية استخدام البشر لأنماط اللغة، تمكن الذكاء الاصطناعي التوليدي من الوصول إلى القيم التي ننقلها عبر اللغة.
لكن على الأقل في الوقت الحالي، لم يحدث ذلك.
يمكنه حساب أن “أنا” و”أنت” من المرجح أن يتطابقا مع “الحب”، لكنه ليس “أنا” (ليس شخصًا)، ولا يفهم “الحب”، ولا أنت – المستخدم الذي يكتب المطالبات.
الذكاء الاصطناعي التوليدي يقوم دائمًا بالحساب فقط. ولا ينبغي لنا أن نخطئ في ذلك.
الدين ميلاك، محاضر، كلية الإعلام والفنون الإبداعية والبحث الاجتماعي، جامعة كيرتن
أعيد نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. اقرأ المادة الأصلية.
■ مصدر الخبر الأصلي
نشر لأول مرة على: www.sciencealert.com
تاريخ النشر: 2025-09-10 07:54:00
الكاتب: Eldin Milak, The Conversation
تنويه من موقع “yalebnan.org”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
www.sciencealert.com
بتاريخ: 2025-09-10 07:54:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “yalebnan.org”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.
