Sorry, you need to enable JavaScript to visit this website.

هل يورث البشر عنصريتهم للذكاء الاصطناعي؟

الخوارزميات تحكم على سود البشرة بأنهم أشخاص مجرمون

عنصرية الآلة تكمن في البيانات المنحازة التي تكون من الإنسان وليست الأجهزة نفسها (أ ف ب)

تخيل عند ذهابك في إجازتك الأسبوعية لأحد المراكز التجارية الكبرى التي تعتمد في نظامها الأمني على الذكاء الاصطناعي، فتتفاجأ بأن بوابات الدخول لا تسمح لك وتعرض رسالة مفادها "نعتذر لك"، نتيجة تحليل أنظمتها لملامح وجهك التي أظهرت احتمالية قيامك بجريمة داخل المركز، وأن تحرشك بمرتاديه حدث متوقع بسبب أن ملامحك تنتمي لعرق معين أو أن ملابسك تدل على مذهب ديني.

وراثة العنصرية

حادثة من الممكن أن تكون غريبة، لكن مع ما يشهده العالم حالياً من ثورة تقنية لا تهدأ بسبب دخول خوارزميات الذكاء الاصطناعي في كل شيء، مما جعلها جزءاً لا يتجزأ من حياتنا اليومية بداية من التشخيص الطبي ووصولاً إلى الهاتف الذكي، فإن واحدة من أهم الإشكاليات التي بدأت تظهر هي عنصرية بعض تطبيقات الذكاء الاصطناعي، فعادة ما يصنف الناس الآخرين ممن يتعاملون معهم وفقاً لعدد من المحددات على أساس الجنس أو العرق أو الدين، وهذه الأنظمة هي من صنع الإنسان الذي لا يمكن أن يكون غير منحاز أو بعيداً من الأحكام المسبقة، فهل تصبح الآلة جزءاً منعكساً من هذا الشخص؟ وهل يورثها تحيزه؟

المبرمجون منغمسون في ثقافاتهم السائدة ويعتقدون أن التحيز غير موجود في خوارزمياتهم التي حولت الذكاء الاصطناعي إلى وحش عنصري يتصرف بطرق تعكس عدم التسامح والتمييز الموجود في المجتمع، ما جعل بعض المطورين والباحثين يركزون على الوجه الآخر لتلك الخوارزميات التي باتت تتحيز تجاه بعض الناس، وربما يؤدي تحيزها هذا إلى اتهام شخص بجريمة لم يرتكبها لمجرد أنه يتبع عرقاً معيناً، وببحث بسيط في محرك البحث الشهير "غوغل" تجد الآلاف من القصص التي يحكي أصحابها عن تعرضهم للتمييز من قبل الذكاء الاصطناعي إما بسبب اللون أو العرق أو الجنس أو الدين.

المحاكم الأميركية

أدى خطأ في ترجمة "فيسبوك" إلى قيام الشرطة الإسرائيلية باعتقال عامل بناء فلسطيني كان قد نشر صورة لنفسه متكئاً على جرافة مع جملة توضيحية باللغة العربية "صباح الخير"، فترجمها "فيسبوك" بالخطأ للغة العبرية على أنها "يهاجمهم" تم اكتشاف الخطأ بسرعة وإطلاق سراح الرجل، وفقاً لتقرير نشر في صحيفة "هآرتس".

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وفي مثال آخر يوضح عنصرية الذكاء الاصطناعي الذي استخدم في محاكم أميركا في قضايا الإفراج عن سجناء، حيث تبين بعد فترة أن الخوارزمية تحكم على سود البشرة على أنهم أشخاص من الممكن أن يكرروا ارتكاب جرائمهم، وجاء ذلك بسبب إدخال المعلومات المتحيزة لطرف دون آخر أثناء بنائه.

هذه التجارب والقصص جعلت عقول المهتمين لا تهدأ حول فكرة عنصرية الذكاء الاصطناعي، وكيف يمكن التأكد من أن الخوارزميات لا تنتهك الحقوق، وكيف يمكن ضمان عدم تكرار الصور النمطية الاجتماعية والثقافية في تلك البرامج لا سيما عندما يتعلق الأمر بالعنصرية.

البيانات المنحازة

الباحث المتخصص في الذكاء الاصطناعي إبراهيم المسلم يرى أن عنصرية الآلة تكمن في البيانات المنحازة التي تكون من الإنسان وليست الأجهزة نفسها، ويبدو الأمر كأن البشر يعلمون التقنية أن تكون عنصرية، فإذا كان ثمة قسم علمي في إحدى الكليات يتم ملؤه ببيانات للرجال فقط أو تجري فلترة المتقدمين وفق الجنس ويتم رفض النساء معظم الوقت، فهو يستنتج من البيانات السابقة أن النساء لا يعملن في ذلك القسم لذا إذا تقدمت إحداهن فبنسبة كبيرة سترفض.

وقال المسلم "إذا كانت البيانات فيها عنصرية أو طبقية أو تمييز جنسي فهذه الأنظمة ستكرس هذه الأفكار، والأسوأ من ذلك ستعطي المنفذين سبباً يحتمون ويحتجون به، فكما تذرعوا بأن النظام عطلان نعتذر عن خدمتك"، سيتطور الموضوع إلى أن "النظام يرفض طلبك، نعتذر عن تقديم الخدمة".

 

عن أثر عنصرية الذكاء الاصطناعي على الهوية العربية، أضاف أن "تبعات وضرر عنصرية الروبوتات عالية مما يجعلها هدامة للمجتمعات". وأشار إلى أن "التاريخ يعيد نفسه في نقل العلوم الغربية للعالم العربي من دون مراعاة الهوية، فالعلم في البلاد العربية أسير للغات أجنبية تفكيراً وتناولاً وتحصيلاً حتى هذه اللحظة مثله مثل بقية العلوم الأخرى ما أدى إلى خلق جو علمي ثقافي مضطرب لا هو إلى الأجنبي ينتمي ولا إلى العروبة ينتسب".

ويرى المسلم أننا حتى نستطيع الوصول إلى ذكاء اصطناعي منصف بحق جميع المستخدمين يجب على العاملين في المجال الإدراك بأن العالم متنوع مبني على خلفيات وأعراق مختلفة، وعلى المبرمجين مراعاة هذه الفروق والخلفيات وإعداد بيانات الآلة وتعديلها وفقاً للثقافة والهوية العربية.

أخلاقيات الذكاء الاصطناعي

هذا التحيز في اللغة جعل أكثر من 1000 باحث من 60 دولة وأكثر من 250 مؤسسة مقرها فرنسا يعملون من أجل مساعدة الذكاء الاصطناعي على التخلص من الكلمات العنصرية، والتعامل مع بيانات صحيحة يتم تنسيقها من قبل بشر من ثقافات مختلفة بدلاً من البيانات المتاحة بسهولة المقتطعة من الإنترنت والمكتوبة في الغالب باللغة الإنجليزية ومليئة بالكلام العنصري، سواء على أساس العرق أو الجنس أو الدين لكي تستخدم بالفعل لإكمال الجمل تلقائياً وتشغيل روبوتات الدردشة وتعديل المحتوى وتلخيص المقالات الإخبارية، وبحسب صحيفة "واشنطن بوست" حقق هذا النوع من الذكاء الاصطناعي تقدماً سريعاً في السنوات الأخيرة.

ولا يزال موضوع أخلاقيات الذكاء الاصطناعي محل جدل في حقول الفلسفة والتكنولوجيا، وأوضح المسلم أن السيارات الذكية ذاتية القيادة تأخر انتشارها بسبب العقدة الأخلاقية للروبوتات التي تعد السيارات الذكية أحد نماذجها فإذا تعرضت السيارة فجأة لموقف تكون فيه مضطرة للاختيار بين صدم سيارة أخرى أو أحد المشاة فما القرار الذي ستتخذه؟ لذلك يتوجب على الروبوتات المستقبلية أن تتمتع بصفات أخلاقية وإنسانية.

من الممكن اختصار الحديث في أن عنصرية الذكاء الاصطناعي أمر يمكن التغلب عليه عندما نتغلب كمستخدمين على عنصريتنا.

المزيد من منوعات