يتفوق نموذج الذكاء الاصطناعي الصغير على ماجستير إدارة الأعمال الضخم في اختبار المنطق
A Tiny Reasoning Model beat Large Language Models in solving logic puzzles, despite being trained on a much smaller dataset. Credit: Getty
يتفوق نموذج الاستدلال الصغير على النماذج اللغوية الكبيرة في حل الألغاز المنطقية، على الرغم من تدريبه على مجموعة بيانات أصغر بكثير. الائتمان: جيتي
إن نموذج الذكاء الاصطناعي على نطاق صغير، الذي يتعلم من مجموعة محدودة فقط من البيانات، يثير اهتمام الباحثين لقدرته على تعزيز قدرات التفكير المنطقي. وقد تفوق النموذج، المعروف باسم Tiny Recursive Model (TRM)، على بعض أفضل نماذج اللغات الكبيرة (LLMs) في العالم في الملخص والمنطق مجموعة للذكاء العام الاصطناعي (ARC-AGI)، وهو اختبار يتضمن الألغاز المنطق البصري الذي تم تصميمه لإبهار معظم الآلات.
النموذج – تم تفصيله في طبعة أولية على خادم arXiv الشهر الماضي1 – لا يمكن مقارنته بسهولة بـ LLM. إنها متخصصة للغاية، وتتفوق فقط في نوع الألغاز المنطقية التي تم تدريبها عليها، مثل سودوكو والمتاهات، ولا “تفهم” أو تولد لغة. لكن قدرتها على الأداء الجيد باستخدام موارد قليلة جدًا – فهي أصغر بـ 10000 مرة من LLMs الحدودية – يقترح طريقًا محتملاً لتعزيز هذه القدرة على نطاق أوسع في الذكاء الاصطناعي، كما يقول الباحثون.
يقول كونج لو، الباحث في مجال التعلم الآلي الذي كان يعمل سابقًا في جامعة كولومبيا البريطانية في فانكوفر بكندا: “إنه بحث رائع حول أشكال أخرى من الاستدلال، والتي يمكن استخدامها يومًا ما في ماجستير إدارة الأعمال”. ومع ذلك، فهو يحذر من أن هذه التقنيات قد لا تكون فعالة إذا تم تطبيقها على نطاق أوسع بكثير. ويقول: “في كثير من الأحيان تعمل التقنيات بشكل جيد للغاية عند أحجام النماذج الصغيرة ثم تتوقف عن العمل” على نطاق أكبر.
اختبار الذكاء الاصطناعي
يقول فرانسوا شوليه، المؤسس المشارك لشركة Ndea للذكاء الاصطناعي، والذي ابتكر اختبار ARC-AGI: “إن النتائج مهمة جدًا في رأيي”. ويضيف: نظرًا لأن مثل هذه النماذج تحتاج إلى التدريب من الصفر على كل مشكلة جديدة، فهي “غير عملية نسبيًا”، ولكن “أتوقع ظهور المزيد من الأبحاث التي ستبني على هذه النتائج”.
تقول المؤلفة الوحيدة للورقة البحثية – ألكسيا جوليكور مارتينو، باحثة الذكاء الاصطناعي في معهد سامسونج المتقدم للتكنولوجيا في مونتريال، كندا – إن نموذجها يوضح أن فكرة أن النماذج الضخمة التي تكلف تدريبها ملايين الدولارات هي وحدها القادرة على النجاح في المهام الصعبة “هي فخ”. لقد صنعت رمز النموذج متاح بشكل مفتوح على جيثب ليتمكن أي شخص من تنزيله وتعديله. وكتبت: “في الوقت الحالي، هناك تركيز كبير جدًا على استغلال ماجستير إدارة الأعمال بدلاً من ابتكار وتوسيع خطوط اتجاه جديدة”. على مدونتها.
نموذج صغير، نتائج كبيرة
معظم نماذج الاستدلال مبنية على رأس LLMs، التي تتنبأ بالكلمة التالية في تسلسل من خلال الاستفادة من مليارات الاتصالات الداخلية المستفادة، والمعروفة باسم المعلمات. إنهم يتفوقون في حفظ الأنماط من مليارات المستندات، مما قد يعرقلهم عندما يواجهون ألغازًا منطقية لا يمكن التنبؤ بها.
وتتخذ آلية TRM نهجا مختلفا. استلهمت جوليكور مارتينو تقنية تُعرف باسم نموذج الاستدلال الهرمي، التي طورتها شركة الذكاء الاصطناعي Sapient Intelligence في سنغافورة. يعمل نموذج الاستدلال الهرمي على تحسين إجابته من خلال تكرارات متعددة وتم نشره في طبعة أولية في يونيو2.
ويستخدم نظام TRM نهجًا مشابهًا، ولكنه يستخدم 7 ملايين معلمة فقط، مقارنة بـ 27 مليونًا للنموذج الهرمي ومليارات أو تريليونات من معلمات LLM. بالنسبة لكل نوع من الألغاز التي تتعلمها الخوارزمية، مثل سودوكو، قامت جوليكور مارتينو بتدريب بنية مستوحاة من الدماغ تُعرف باسم الشبكة العصبية على حوالي 1000 مثال، منسقة على شكل سلسلة من الأرقام.
كيف سيغير عملاء الذكاء الاصطناعي الأبحاث: دليل العلماء
أثناء التدريب، يخمن النموذج الحل ثم يقارنه بالإجابة الصحيحة، قبل تحسين تخمينه وتكرار العملية. وبهذه الطريقة، يتعلم استراتيجيات لتحسين تخميناته. يتبع النموذج بعد ذلك نهجًا مشابهًا لحل الألغاز غير المرئية من نفس النوع، مما يؤدي إلى تحسين إجابتها على التوالي حتى 16 مرة قبل توليد الاستجابة.
نشر لأول مرة على: www.nature.com
تاريخ النشر: 2025-11-13 02:00:00
الكاتب: Elizabeth Gibney
تنويه من موقع “yalebnan.org”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
www.nature.com
بتاريخ: 2025-11-13 02:00:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “yalebnan.org”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.






