اجعل عام 2026 هو العام الذي يجتمع فيه العالم من أجل سلامة الذكاء الاصطناعي
AI technologies need to be safe and transparent. There are few, if any, benefits from being outside efforts to achieve this. Credit: George Chan/Getty
يجب أن تكون تقنيات الذكاء الاصطناعي آمنة وشفافة. هناك فوائد قليلة، إن وجدت، من بذل جهود خارجية لتحقيق ذلك. الائتمان: جورج تشان / جيتي
لا تحتاج إلى أن تكون عرافًا لتعرف أن العام المقبل سيشهد المزيد من التقدم في مجال الذكاء الاصطناعي، حيث تواصل النماذج والمنشورات وبراءات الاختراع المحدثة والجديدة ارتفاعها المستمر. وإذا كانت الاتجاهات الحالية دليلا موثوقا به، فإن العديد من البلدان سوف تقوم أيضا بسن المزيد من القوانين واللوائح المتعلقة بالذكاء الاصطناعي. وفي عام 2023، تم إقرار ما لا يقل عن 30 قانونًا من هذا القبيل في جميع أنحاء العالم، وفقًا لـ أتقرير مؤشر الذكاء الاصطناعي 2025، من إنتاج باحثين في جامعة ستانفورد في كاليفورنيا. وشهد العام التالي 40 أخرى.
على مدار العامين الماضيين، كان وضع تشريعات الذكاء الاصطناعي أكثر نشاطًا في منطقة شرق آسيا والمحيط الهادئ، وفي أوروبا وفي الولايات الأمريكية الفردية. فيما بينها، أقرت الولايات الأمريكية 82 مشروع قانون يتعلق بالذكاء الاصطناعي في عام 2024. ولكن هناك بعض نقاط الضعف الملحوظة أيضًا: فقد كان النشاط قليلًا نسبيًا في البلدان المنخفضة الدخل، والبلدان ذات الشريحة الدنيا من الدخل المتوسط (انظر: “اتجاهات سياسة الذكاء الاصطناعي”). وفي الوقت نفسه، تخالف الحكومة الفيدرالية الأمريكية هذا الاتجاه من خلال إلغاء العمل المتعلق بسياسة الذكاء الاصطناعي وتحدي قوانين الذكاء الاصطناعي على مستوى الولاية.
المصدر: الأونكتاد، استناداً إلى بيانات من تقرير مؤشر الذكاء الاصطناعي لعام 2024.
ويجب أن يكون هذا هو العام الذي يبدأ فيه المزيد من البلدان ذات الدخل المنخفض في تنظيم تقنيات الذكاء الاصطناعي، وأن تكون الولايات المتحدة مقتنعة بمخاطر نهجها. وتعد البلاد واحدة من أكبر الأسواق لتقنيات الذكاء الاصطناعي، ويستخدم الناس في جميع أنحاء العالم النماذج التي طورتها الشركات الأمريكية بشكل رئيسي. تحتاج جميع الدول إلى قوانين وسياسات خاصة بالذكاء الاصطناعي، بغض النظر عن موقعها ضمن نطاق المنتجين والمستهلكين. من المستحيل أن نتصور أن التقنيات المستخدمة في الطاقة أو إنتاج الغذاء أو الأدوية أو الاتصالات تقع خارج نطاق قواعد السلامة. وينبغي أن ينطبق الشيء نفسه على الذكاء الاصطناعي.
هناك إجماع دولي متزايد. على سبيل المثال، تأخذ السلطات في الصين تنظيم الذكاء الاصطناعي على محمل الجد، كما هو الحال في العديد من الدول الأوروبية. ومن المتوقع أن تدخل معظم قواعد قانون الذكاء الاصطناعي للاتحاد الأوروبي حيز التنفيذ في أغسطس. في عام 2024، نشر الاتحاد الأفريقي إرشادات على مستوى القارة لوضع سياسات الذكاء الاصطناعي. وهناك أيضًا تحركات لإنشاء منظمة عالمية للتعاون في مجال الذكاء الاصطناعي، ربما من خلال الأمم المتحدة.
هناك مجموعة واسعة من القوانين واللوائح الوطنية والإقليمية المعمول بها أو قيد التطوير. تتطلع بعض البلدان، على سبيل المثال، إلى حظر مقاطع الفيديو “التزييف العميق”. يجب أن يكون هذا هدف عالمي. ويجب على الشركات أيضًا تقديم تفاصيل عن البيانات المستخدمة لتدريب النماذج، ويجب عليها التأكد من احترام حقوق الطبع والنشر في عملية التدريب. ويجب أن يكون الطموح المهيمن هو تحقيق لوائح تنظيمية مماثلة لتلك التي تحكم التقنيات الأخرى ذات الأغراض العامة. يحتاج مطورو الذكاء الاصطناعي – ومعظمهم شركات (انظر “صناعة النماذج”) – إلى شرح كيفية عمل منتجاتهم بشفافية، وإثبات أن نماذجهم قد تم إنتاجها من خلال الوسائل القانونية، وإظهار أن التكنولوجيا آمنة وأن هناك مسؤولية عن المخاطر والأضرار. والشفافية مطلوبة أيضًا من الباحثين، الذين يحتاج عدد أكبر منهم إلى نشر نماذجهم في الأدبيات الخاضعة لمراجعة النظراء.
وفقا للأونكتاد، وكالة الأمم المتحدة المعنية بالسياسة التجارية للبلدان المنخفضة والمتوسطة الدخل، وثلثي البلدان ذات الدخل المرتفع و 30٪ من البلدان المتوسطة الدخل كان لديها سياسات أو استراتيجيات للذكاء الاصطناعي جاهزة بحلول نهاية عام 2023، ولكن ما يزيد قليلاً عن 10٪ من البلدان ذات الدخل المنخفض فعلت ذلك. وتحتاج هذه الدول إلى الدعم في جهودها التنظيمية في مجال الذكاء الاصطناعي.
وهناك أيضاً حاجة إلى التعامل مع الولايات المتحدة. عند توليه منصبه، ألغى الرئيس دونالد ترامب البرنامج الذي أنشأته الإدارة السابقة والذي بدأ من خلاله المعهد الوطني للمعايير والتكنولوجيا في تحديد معايير الذكاء الاصطناعي مع شركات التكنولوجيا. وفي ديسمبر/كانون الأول، صدر أمر تنفيذي يحظر قوانين الولاية التي تتعارض مع سياسة البيت الأبيض بشأن الذكاء الاصطناعي.
ويبدو أن قادة بعض شركات التكنولوجيا راضون عن اتجاه السفر هذا. لكن آخرين يعلمون أن القواعد التنظيمية الجيدة تمنح الشركات الاتساق في المعايير وتسمح لها بالتخطيط بشكل يمكن التنبؤ به على المدى الطويل. إن التنظيم الخفيف، أو عدم وجود تنظيم على الإطلاق، ليس في صالحهم ولا في مصلحة عملائهم.
ويدرك موظفو الخدمة المدنية العاملون في الهيئات التنظيمية أن هناك حاجة إلى تنظيم أفضل، سواء لحماية الناس، وخاصة الأطفال، من الأذى ولطمأنة المستهلكين. ويمكنهم أن يروا أن هناك قدرا كبيرا من القلق العام بشأن مخاطر الذكاء الاصطناعي، والذي يغذيه جزئيا طموح الشركات المعلن للعمل نحو الذكاء العام الاصطناعي. ويمكنهم سماع أصوات العاملين في مجتمع أبحاث الذكاء الاصطناعي، بما في ذلك بعض رواد هذا المجال، الذين يحذرون من المخاطر الوجودية المحتملة من الذكاء الاصطناعي الذي لا يمكن السيطرة عليه.
وقال مسؤولون في إدارة ترامب إن التنظيم سيخاطر بخسارة الولايات المتحدة في سباق الذكاء الاصطناعي مع الصين. ولكن، كما طبيعةأفاد فريق الأخبار (طبيعة 648، 503-505؛ 2025)، تستكشف الصين طريقا بديلا للابتكار. وتعمل شركات الذكاء الاصطناعي التابعة لها على إنشاء منتجات مبتكرة، باستخدام تقنيات أكثر انفتاحاً من تلك التي تستخدمها نظيراتها في الولايات المتحدة، وتعمل وفقاً للوائح التنظيمية الوطنية التي تتطلب المزيد من الإفصاح.
تدرك شركات التكنولوجيا أن نماذج أعمالها تعتمد على التعاون العام، وخاصة عندما يتعلق الأمر بالوصول إلى البيانات. وسوف يتبخر هذا التعاون إذا فقد الناس الثقة في أن بياناتهم آمنة ويتم استخدامها بشكل مسؤول، أو إذا علموا أن منتجات الذكاء الاصطناعي تلحق الضرر بالناس.
من المحتمل أن يكون الذكاء الاصطناعي بمثابة تكنولوجيا تحويلية. ومع ذلك، لا نعرف كيف سيظهر ذلك، أو ما هو التأثير الذي سيتركه. إن العديد من البلدان تتوخى الحذر وتقوم بتقييم المخاطر، ولكن هناك حاجة إلى المزيد من التماسك في عملية صنع السياسات. ويتعين على الدول أن تعمل معاً لتصميم السياسات التي لا تعمل على تمكين التنمية فحسب، بل إنها تشتمل أيضاً على حواجز الحماية. وليكن عام 2026 هو العام الذي يتفق فيه الجميع على ذلك.
تنويه من موقع “yalebnan.org”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
www.nature.com
بتاريخ: 2025-12-29 02:00:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “yalebnan.org”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.






