Sorry, you need to enable JavaScript to visit this website.

التحيز في الذكاء الاصطناعي ومحاولات التصحيح الذاتي

تصدر عن الخوارزميات نتائج تتسم بالتمييز سواء على أساس العمر أو العرق أو الجنس

تطرح اليوم فرضية قدرة النماذج اللغوية على التصحيح الذاتي (أن سبلاش)

تخضع النماذج اللغوية الخاصة بالذكاء الاصطناعي لتدريبات مكثفة على مجموعة بيانات، تعود إلى قائمة كبيرة من المصادر المتنوعة أبرزها وسائل الإعلام الرقمية ووسائل التواصل الاجتماعي، التي تضخ في كل منهما آراء ووجهات نظر حول قضايا عالمية كبرى مثل تغيير المناخ والحروب والتسليح، والقضايا الاجتماعية مثل الإجهاض وزواج المثليين والجرائم والعقوبات، وحتى تلك المتعلقة بالعمل مثل الفجوات الكبيرة بين الأجور والضرائب وغيرها، وتتشبع هذه الآراء بالديمقراطية وتنوع الأفكار من جهة، وقد تكون ذاخرة بالتعميمات النمطية والتحيزات الاجتماعية من جهة أخرى.

خطاب الكراهية

وفي الوقت الذي نطمح فيه للوصول إلى نماذج تملك قدراً جيداً من العدالة، يجب التنبه إلى سلوكيات مثل بث خطاب الكراهية وكشف المعلومات الخاطئة والأخبار المضللة. ففي وقت تتعالى الأصوات من أجل فرض المزيد من الإجراءات على منصات التواصل الاجتماعي للتعامل مع خطاب الكراهية، يتضح لنا تدريجاً أن الأمر ليس بهذه السهولة، فتقييم اللغة على أساس الإساءة، يعتمد بالأصل على هوية القائل نفسه، إذ إن استخدام شخص ما لمصطلح يصفه هو نفسه لا يعتبر إساءة، أي أن يتحدث رجل أسمر عن ذوي البشرة الداكنة يصنف في إطار التعبير الطبيعي، بينما لا يعد كذلك في حال صدر عن رجل أبيض. ولكن بعد إخضاع بعض هذه الأنظمة لاختبارات على مجموعة كبيرة من البيانات، تبين أن أنظمة الذكاء الاصطناعي بصيغتها الحالية لا تستطيع أن تفهم وتميز هذه الفروق الدقيقة، بالتالي لا تستطيع أن تصنف المحتوى بشكل صحيح من هذه الناحية، الأمر الذي من الممكن أن يعرض فئات معينة مثل الأقليات لمزيد من ممارسات التحيز السلبية.

التحيز

إضافة إلى ضرورة التنبه إلى أخطار التحيز في السياسة والمراقبة الأمنية والطب والقضايا الاجتماعية، فعلى رغم ما يمتلكه الذكاء الاصطناعي من قدرات تثبتها النتائج كل يوم، إلا أن هناك العديد من التحديات الناتجة من التحيز، والتي يعد أغلبها غير مقصود بل ناتج من مراقبة النماذج للأنماط السلوكية للبشر وتكرار ردود الفعل لمجموعة جندرية أو عرقية معينة.

ويشير التحيز إلى نتائج تصدر عن خوارزميات الذكاء الاصطناعي تتسم بالتمييز سواء على أساس العمر أو العرق أو اللون أو الجنس وغيرها. وغالباً ما يرتبط التحيز بالخوارزميات المعتمدة على التعلم العميق أو نماذج تعلم الآلة، إذ تكتسبه من بيانات تدريب متحيزة أو غير دقيقة أو بعيدة من الواقع، فتقوم بتجاهل بيانات وترشيح بيانات أخرى تبعاً لما تعلمته أثناء عمليات التدريب، كما تقوم بمحاكاة الطريقة البشرية في القيام بالمهمة.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

التصحيح الذاتي

وفي فترة سابقة، طرحت مجموعة من المتخصصين في ورقة بحثية، تناولت موضوع قدرة النماذج اللغوية الكبيرة على التصحيح الذاتي، الفرضية تقول إن النماذج اللغوية التي تم تدريبها على التعلم المعزز من ردود الفعل البشرية RLHF لديها القدرة على التصحيح الذاتي، الذي من الممكن أن يؤدي إلى تفادي إنتاج مخرجات مؤذية أو ضارة، في حال طلب منها القيام بذلك.

ووجد العلماء أدلة قوية تدعم هذه الفرضية عبر ثلاث تجارب مختلفة، تكشف كل منها عن جوانب مختلفة من التصحيح الذاتي الأخلاقي. وبحسب الورقة، وجدنا أن القدرة على التصحيح الذاتي الأخلاقي تظهر عند معلمات النموذج B22، وتتحسن مع زيادة حجم النموذج والتدريب على ردود الفعل البشرية. وعلى هذا النحو، يمكنهم اتباع التعليمات وتوجيه النماذج الكبيرة لتجنب أنواع معينة من المخرجات والنتائج الضارة والمسيئة أخلاقياً.

إذ تُظهر النماذج اللغوية الكبيرة تحيزات اجتماعية مسيئة، قد تزداد سوءاً في بعض الأحيان مع النماذج الأكبر حجماً، وفي الوقت ذاته يمكن أن يؤدي تغيير حجم النموذج إلى زيادة في أداء النموذج في ما يتعلق بمجموعة واسعة من المهام. ومن هنا قد تتمتع النماذج الأكبر حجماً بالقدرة على التصحيح الذاتي أخلاقياً لتجنب إنتاج نتائج مسيئة، إذا طُلب منها القيام بذلك.

ولكن مع ذلك، لا يخلو الأمر من بعض الأخطار إذا ما أخذنا في الاعتبار حجم المشكلة واتساع نطاقها. فكل ما يطرح اليوم لا يعدو كونه تجارب تبنى على فرضيات وتحاول إيجاد حلول، لذا ما زال أمام العلماء والمتخصصين في هذا المجال شوط طويل من الأبحاث والتطبيقات للوصول إلى نتائج محكمة علمياً.

اقرأ المزيد

المزيد من علوم