Sorry, you need to enable JavaScript to visit this website.

خبراء يسعون إلى جعل الذكاء الاصطناعي ينسى بعض ما تلقنه

يرى المتخصصون أن مسألة "إلغاء التعلم" ستكون بالغة الأهمية في ضوء التشريعات الأوروبية لحماية البيانات

حماية البيانات تستدعي الوصول إلى طريقة لجعل الذكاء الاصطناعي ينسى بعض ما تعلمه (أن سبلاش)

ملخص

هذه العملية يمكن أن تكون "أداة مهمة جداً" لتمكين أدوات البحث من الاستجابة مثلاً لطلبات الحذف، عملاً بقواعد حماية البيانات الشخصية.

عندما اكتشف براين هود أن "تشات جي بي تي" نسب إليه ماضياً إجرامياً، وجد هذا السياسي الأسترالي نفسه في مواجهة معضلة ينكب المهندسون جاهدين على محاولة حلها وتتمثل في كيفية تعليم الذكاء محو الأخطاء.

فالخيار القانوني المتمثل في تلويح براين هود في أبريل (نيسان) الماضي بإقامة دعوى تشهير على شركة "أوبن أي آي" (منشئة "تشات جي بي تي") لا يبدو حلاً مناسباً، كذلك لا يكمن الحل في إعادة ضبط معايير الذكاء الاصطناعي بالكامل، إذ إن تدريب النموذج مجدداً يستغرق وقتاً طويلاً وهو مكلف جداً.

ويرى المتخصصون أن مسألة "إلغاء التعلم" أي جعل الذكاء الاصطناعي ينسى بعض ما تلقنه، ستكون بالغة الأهمية في الأعوام المقبلة، خصوصاً في ضوء التشريعات الأوروبية لحماية البيانات.

وتؤكد أستاذة علوم المعلومات في جامعة "آر أم أي تي" في ملبورن ليسا غيفن أن "القدرة على محو البيانات الموجودة في قواعد بيانات التعلم هي موضوع مهم جداً"، لكنها ترى أن جهداً كبيراً لا يزال مطلوباً في هذا المجال نظراً إلى النقص الحالي في المعرفة إزاء كيفية عمل الذكاء الاصطناعي.

فوسط الكم الهائل من البيانات التي يدرب الذكاء الاصطناعي عليها، يسعى المهندسون إلى حلول تتيح تحديداً أكبر، بحيث تُزال المعلومات الخاطئة من مجال معرفة أنظمة الذكاء الاصطناعي بغية وقف انتشارها.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

واكتسب الموضوع زخماً خلال الأعوام الثلاثة أو الأربعة الأخيرة، على ما يوضح لوكالة الصحافة الفرنسية الباحث الخبير في هذا المجال مقداد كرمانجي من جامعة وارويك البريطانية.

وعملت "غوغل ديب مايند" المتخصصة في الذكاء الاصطناعي على معالجة هذه المشكلة، إذ نشر خبراء من الشركة الأميركية الشهر الماضي مع كرمانجي، خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة، كنموذجي "تشات جي بي تي" و"بارد" (من "غوغل").

وانكب أكثر من ألف خبير شاركوا في مسابقة أطلقتها الشركة الأميركية على العمل ما بين يوليو (تموز) وسبتمبر (أيلول) الماضيين لتحسين أساليب "إلغاء تعلم" الذكاء الاصطناعي.

وتتمثل الطريقة المستخدمة المشابهة لما توصلت إليه أبحاث أخرى في هذا المجال، في إدخال خوارزمية تأمر الذكاء الاصطناعي بعدم أخذ بعض المعلومات المكتسبة في الاعتبار ولا تتضمن تعديل قاعدة البيانات.

ويؤكد مقداد كرمانجي أن هذه العملية يمكن أن تكون "أداة مهمة جداً" لتمكين أدوات البحث من الاستجابة مثلاً لطلبات الحذف، عملاً بقواعد حماية البيانات الشخصية.

ويشدد على أن الخوارزمية التي تم التوصل إليها أثبتت فاعليتها أيضاً في إزالة المحتوى المحمي بموجب حقوق المؤلف أو في تصحيح بعض التحيزات.

لكن آخرين مثل مسؤول الذكاء الاصطناعي في "ميتا" ("فيسبوك" و"إنستعرام") يان لوكان، يبدون أقل اقتناعاً بهذه الفاعلية.

ويوضح لوكان لوكالة الصحافة الفرنسية أنه لا يقول إن هذه الخوارزمية "غير مجدية أو غير مثيرة للاهتمام أو سيئة"، بل يرى أن "ثمة أولويات أخرى".

ويعتبر أستاذ الذكاء الاصطناعي في جامعة إدنبره مايكل روفاتسوس أن "الحل التقني ليس الحل الناجع"، شارحاً أن "إلغاء التعلم" لن يتيح طرح أسئلة أوسع مثل كيفية جمع البيانات ومن المستفيد منها، أو من يجب أن يكون مسؤولاً عن الضرر الذي يسببه الذكاء الاصطناعي.

ومع أن قضية براين هود عولجت من دون تفسير بعدما حظيت باهتمام إعلامي واسع أثمر عن تصحيح البيانات التي تعالجها "تشات جي بي تي"، فإنه يعتبر أن الأساليب التي ينبغي استخدامها في الوقت الراهن يجب أن تبقى يدوية.

ويقول "يجب أن يتحقق المستخدمون من كل شيء، في الحالات التي تعطي فيها روبوتات الدردشة معلومات خاطئة".

المزيد من علوم