علوم وتكنولوجيا

يتفوق نموذج الذكاء الاصطناعي الصغير على ماجستير إدارة الأعمال الضخم في اختبار المنطق

يتفوق نموذج الاستدلال الصغير على النماذج اللغوية الكبيرة في حل الألغاز المنطقية، على الرغم من تدريبه على مجموعة بيانات أصغر بكثير. الائتمان: جيتي

إن نموذج الذكاء الاصطناعي على نطاق صغير، الذي يتعلم من مجموعة محدودة فقط من البيانات، يثير اهتمام الباحثين لقدرته على تعزيز قدرات التفكير المنطقي. وقد تفوق النموذج، المعروف باسم Tiny Recursive Model (TRM)، على بعض أفضل نماذج اللغات الكبيرة (LLMs) في العالم في الملخص والمنطق مجموعة للذكاء العام الاصطناعي (ARC-AGI)، وهو اختبار يتضمن الألغاز المنطق البصري الذي تم تصميمه لإبهار معظم الآلات.

النموذج – تم تفصيله في طبعة أولية على خادم arXiv الشهر الماضي1 – لا يمكن مقارنته بسهولة بـ LLM. إنها متخصصة للغاية، وتتفوق فقط في نوع الألغاز المنطقية التي تم تدريبها عليها، مثل سودوكو والمتاهات، ولا “تفهم” أو تولد لغة. لكن قدرتها على الأداء الجيد باستخدام موارد قليلة جدًا – فهي أصغر بـ 10000 مرة من LLMs الحدودية – يقترح طريقًا محتملاً لتعزيز هذه القدرة على نطاق أوسع في الذكاء الاصطناعي، كما يقول الباحثون.

يقول كونج لو، الباحث في مجال التعلم الآلي الذي كان يعمل سابقًا في جامعة كولومبيا البريطانية في فانكوفر بكندا: “إنه بحث رائع حول أشكال أخرى من الاستدلال، والتي يمكن استخدامها يومًا ما في ماجستير إدارة الأعمال”. ومع ذلك، فهو يحذر من أن هذه التقنيات قد لا تكون فعالة إذا تم تطبيقها على نطاق أوسع بكثير. ويقول: “في كثير من الأحيان تعمل التقنيات بشكل جيد للغاية عند أحجام النماذج الصغيرة ثم تتوقف عن العمل” على نطاق أكبر.

يقول فرانسوا شوليه، المؤسس المشارك لشركة Ndea للذكاء الاصطناعي، والذي ابتكر اختبار ARC-AGI: “إن النتائج مهمة جدًا في رأيي”. ويضيف: نظرًا لأن مثل هذه النماذج تحتاج إلى التدريب من الصفر على كل مشكلة جديدة، فهي “غير عملية نسبيًا”، ولكن “أتوقع ظهور المزيد من الأبحاث التي ستبني على هذه النتائج”.

تقول المؤلفة الوحيدة للورقة البحثية – ألكسيا جوليكور مارتينو، باحثة الذكاء الاصطناعي في معهد سامسونج المتقدم للتكنولوجيا في مونتريال، كندا – إن نموذجها يوضح أن فكرة أن النماذج الضخمة التي تكلف تدريبها ملايين الدولارات هي وحدها القادرة على النجاح في المهام الصعبة “هي فخ”. لقد صنعت رمز النموذج متاح بشكل مفتوح على جيثب ليتمكن أي شخص من تنزيله وتعديله. وكتبت: “في الوقت الحالي، هناك تركيز كبير جدًا على استغلال ماجستير إدارة الأعمال بدلاً من ابتكار وتوسيع خطوط اتجاه جديدة”. على مدونتها.

نموذج صغير، نتائج كبيرة

معظم نماذج الاستدلال مبنية على رأس LLMs، التي تتنبأ بالكلمة التالية في تسلسل من خلال الاستفادة من مليارات الاتصالات الداخلية المستفادة، والمعروفة باسم المعلمات. إنهم يتفوقون في حفظ الأنماط من مليارات المستندات، مما قد يعرقلهم عندما يواجهون ألغازًا منطقية لا يمكن التنبؤ بها.

وتتخذ آلية TRM نهجا مختلفا. استلهمت جوليكور مارتينو تقنية تُعرف باسم نموذج الاستدلال الهرمي، التي طورتها شركة الذكاء الاصطناعي Sapient Intelligence في سنغافورة. يعمل نموذج الاستدلال الهرمي على تحسين إجابته من خلال تكرارات متعددة وتم نشره في طبعة أولية في يونيو2.

ويستخدم نظام TRM نهجًا مشابهًا، ولكنه يستخدم 7 ملايين معلمة فقط، مقارنة بـ 27 مليونًا للنموذج الهرمي ومليارات أو تريليونات من معلمات LLM. بالنسبة لكل نوع من الألغاز التي تتعلمها الخوارزمية، مثل سودوكو، قامت جوليكور مارتينو بتدريب بنية مستوحاة من الدماغ تُعرف باسم الشبكة العصبية على حوالي 1000 مثال، منسقة على شكل سلسلة من الأرقام.

أثناء التدريب، يخمن النموذج الحل ثم يقارنه بالإجابة الصحيحة، قبل تحسين تخمينه وتكرار العملية. وبهذه الطريقة، يتعلم استراتيجيات لتحسين تخميناته. يتبع النموذج بعد ذلك نهجًا مشابهًا لحل الألغاز غير المرئية من نفس النوع، مما يؤدي إلى تحسين إجابتها على التوالي حتى 16 مرة قبل توليد الاستجابة.



■ مصدر الخبر الأصلي

نشر لأول مرة على: www.nature.com

تاريخ النشر: 2025-11-13 02:00:00

الكاتب: Elizabeth Gibney

تنويه من موقع “yalebnan.org”:

تم جلب هذا المحتوى بشكل آلي من المصدر:
www.nature.com
بتاريخ: 2025-11-13 02:00:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “yalebnan.org”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.

ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.

اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى