قد لا تكون المحادثات مع برامج الدردشة الآلية خاصة كما تبدو

قد لا تكون المحادثات مع برامج الدردشة الآلية خاصة كما تبدو
تستخدم شركات الذكاء الاصطناعي الكبرى محادثات المستخدم لتدريب نماذجها. وهذا يثير تساؤلات جدية حول الخصوصية ويسلط الضوء على الحاجة إلى سياسات أكثر شفافية.
في الشهر الماضي، غيرت شركة Anthropic شروط الخدمة الخاصة بها بحيث تصبح المحادثات مع برنامج الدردشة الآلي Claude الخاص بها الآن افتراضيًا للتدريب النموذجي ما لم يقم المستخدم بإلغاء الاشتراك. لكن الأنثروبيك ليس الوحيد. وجدت دراسة أجرتها جامعة ستانفورد أن أكبر ست شركات أمريكية – أمازون، وأنثروبيك، وجوجل، وميتا (منظمة محظورة في روسيا)، ومايكروسوفت، وأوبن إيه آي – استخدام بيانات المستخدم لتحسين النماذج. يوفر البعض فرصة لإلغاء الاشتراك، والبعض الآخر لا يفعل ذلك، ويتم ذلك دون علم المستخدمين. يتم نشر الدراسة على الخادم arXiv.
لماذا هذا مهم للمستخدمين
تقول جينيفر كينج، زميلة البحث في معهد ستانفورد للذكاء الاصطناعي المتمركز حول الإنسان: “بالطبع يجب أن نقلق. إذا شاركت معلومات حساسة في ChatGPT أو Gemini أو نماذج متقدمة أخرى، فمن الممكن استخدامها للتدريب، حتى لو أرسلتها في ملف منفصل”.
قام فريق ستانفورد بمراجعة سياسات خصوصية المطورين ووجد العديد من المشكلات المثيرة للقلق: تخزين البيانات على المدى الطويل، واستخدام المعلومات المتعلقة بالأطفال، والغموض العام وعدم موثوقية الوثائق.
الصورة: Geber86 / شترستوك / فوتودوم
تستخدم شركات الذكاء الاصطناعي الكبرى محادثات المستخدم لتدريب نماذجها
ويضيف كينج: “يجب على المستهلكين التفكير مرتين قبل مشاركة أي شيء شخصي، وتجنب استخدام بياناتهم للتدريب إن أمكن. فكل ذلك يصب في شبكة مشتركة”.
سياسة الخصوصية قديمة
غالبًا ما تتم كتابة قواعد الخصوصية الحديثة التي تنطبق على برامج الدردشة الآلية بلغة قانونية معقدة. من الصعب على المستهلكين فهم ما يقومون بالتسجيل فيه، على الرغم من أن الموافقة مطلوبة لاستخدام الخدمات.
في السنوات الأخيرة، قام المطورون بتدريب النماذج على كميات هائلة من المعلومات من الإنترنت. وهذا يعني أن البيانات الشخصية قد تكون وصلت إلى مجموعات التدريب عن طريق الصدفة.
يوضح كينغ: “يتفاعل مئات الملايين من الأشخاص مع برامج الدردشة الآلية، ولم يتم إجراء سوى القليل من الأبحاث حول تدابير الخصوصية”.
في الولايات المتحدة، تعتبر حماية البيانات معقدة بسبب قوانين الولاية غير المنتظمة والافتقار إلى التنظيم الفيدرالي.
ما أظهرته دراسة ستانفورد
وقارن العلماء سياسات ست شركات، بما في ذلك أمازون (Nova)، وأنثروبيك (Claude)، وجوجل (Gemini)، وميتا (Meta AI) (منظمة محظورة في روسيا)، ومايكروسوفت (Copilot)، وOpenAI (ChatGPT). قاموا بتحليل 28 وثيقة: السياسات الرئيسية، والسياسات الفرعية، وأقسام الأسئلة الشائعة، والأدلة في واجهات الدردشة.
فحص الباحثون:
-
وما إذا كانت بيانات الدردشة تُستخدم لتدريب النماذج؛
-
ما هي فئات البيانات التي يتم جمعها وتخزينها ومعالجتها؛
-
ما إذا كان لدى المستخدمين خيار الاشتراك أو إلغاء الاشتراك.
حدود غير واضحة
تستخدم جميع الشركات الست بيانات الدردشة بشكل افتراضي. يقوم البعض بتخزينها إلى أجل غير مسمى، ويقول البعض الآخر إنهم يقومون بإلغاء تحديد البيانات قبل الاستخدام. يجمع العديد من المطورين بين تفاعلات المستخدم ومعلومات من خدمات أخرى – استعلامات البحث والمشتريات والشبكات الاجتماعية.
تشكل هذه الممارسات مشكلة خاصة إذا شارك المستخدمون البيانات البيومترية أو الصحية. على سبيل المثال، عند طلب وصفة طبية بناءً على مرض السكري أو مشاكل في القلب، قد “تستنتج” الخوارزمية أن المستخدم جزء من مجموعة معرضة للخطر، والتي يمكن أن تؤثر بمرور الوقت على الإعلان والتأمين وجوانب أخرى من الحياة.
يوضح كينغ: “تتغلغل هذه المعلومات في النظام البيئي للمطورين. تبدأ في رؤية إعلانات للأدوية، ومن السهل أن ترى كيف يمكن أن تصل البيانات إلى شركة التأمين”.
خصوصية الأطفال
تختلف الممارسات المتعلقة بالأطفال. تجمع Google البيانات من المراهقين بموافقتهم، وتحظر Anthropic الحسابات التي تقل أعمارهم عن 18 عامًا، ولكن لا يتم التحقق من العمر، أ تقوم Microsoft بجمع بيانات الأطفال، لكنه لا يستخدمها لتدريب نماذج اللغة، بل يستخدمها للإعلان. كل هذا لم يعد خاصا.
كيفية حماية بياناتك
ينصح العلماء المطورين وصانعي السياسات بتنفيذ لوائح الخصوصية الفيدرالية الشاملة، وموافقة المستخدم الطوعية للتدريب، والتصفية التلقائية للمعلومات الشخصية.
ويخلص كينج إلى أنه “يجب على المجتمع أن يقرر ما إذا كانت المكاسب في قدرات الذكاء الاصطناعي تستحق خسارة كبيرة للخصوصية. ويجب تعزيز الابتكار في الذكاء الاصطناعي الذي يحافظ على الخصوصية حتى لا تظل البيانات الشخصية للمستخدمين مجرد فكرة لاحقة”.
اشترك واقرأ “العلم” في
برقية
■ مصدر الخبر الأصلي
نشر لأول مرة على: naukatv.ru
تاريخ النشر: 2025-10-17 18:02:00
الكاتب:
تنويه من موقع “yalebnan.org”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
naukatv.ru
بتاريخ: 2025-10-17 18:02:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “yalebnan.org”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.
