Sorry, you need to enable JavaScript to visit this website.

"تيك توك" يصنف تأييد السود في خانة التهديد

الخطأ لاحظه ناشط لكن الموقع نسبه إلى خوارزمية تجريبية تربط صناع المحتوى بالمعلنين

أثار خلل تقني في "تيك توك" القلق من وجود عنصرية فيه (غيتي)

منع "تيك توك" مستخدمي صفحة "سوق صُنّاع المحتوى" Creator Marketplace في ذلك التطبيق، من استعمال كلمة "أسود" black وعبارات من قبيل "حياة السود مهمة" Black Lives Matter في سيرهم الذاتية، إذ اعتبرتها خوارزمية التحقّق من المحتوى بأنها "غير لائقة". [يشير مصطلح خوارزمية إلى معادلة رياضيات ضمن شيفرة برنامج ما في الكمبيوتر].

اكتشف زيغي تايلر، وهو أحد صُنّاع المحتوى، تلك المشكلة أثناء محاولته تحديث سيرته الذاتية على التطبيق. رفضت تلك الخوارزمية كلمات "أسود" و"حياة السود مهمة" و"السود" Black people و"نجاح أسود" Black success و"مؤيد للسود" Pro-Black و"أنا رجل أسود" I am a Black man. وفي المقابل، تقبّلت خوارزميات "تيك توك" عبارات كـ"مؤيد للعرق الأبيض" Pro-white و"دعم تفوّق العرق الأبيض" supporting white supremacy، من دون أي مشكلة.

حالياً، يدار قسم "سوق صُنّاع المحتوى" في تطبيق "تيك توك"، في نسخة تقنية تجريبية ويقتصر استخدامه على أفراد يرسل التطبيق دعوة إليهم كي يستعملوها في صناعة ما يرغبون من محتوى. وتسعى تلك النسخة التجريبية إلى ربط صُنّاع الفيديوهات بالعلامات التجارية بهدف عقد صفقات إعلانية معهم.

وذكر "تيك توك" أن التطبيق حدّد على نحو غير صحيح العبارات المذكورة آنفاً ومنع استعمالها بوصفها محتوى غير لائق لأن الخوارزمية المنوط بها الكشف عن خطاب الكراهية على المنصة ربطت بين الكلمتين "أسود" black و"جمهور" audience التي تحتوي على كلمة "يموت" die.

وفي هذا الصدد، صرح متحدث باسم "تيك توك" أن "إجراءات الحماية المتّبعة في سوق صُنّاع المحتوى على المنصة، تعمل على تحديد وحظر العبارات المرتبطة عادة بخطاب الكراهية، لكنها [الإجراءات] صُمّمت عن طريق الخطأ كي تصنف العبارات من دون مراعاة تسلسل الكلمات".

وأضاف، "ندرك خيبة الأمل الكبيرة التي تسبب بها هذا الخطأ ونقدم اعتذارنا إلى المستخدمين، وقد أصلح فريقنا هذا الخطأ الفادح. للتوضيح، لا تنتهك حركة ’حياة السود مهمة‘ سياساتنا ولديها حالياً أكثر من 27 مليار مشاهدة على منصتنا".

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

في الواقع، تعتبر هذه المشكلة الأحدث ضمن سلسلة أمثلة حول نظم رقمية مؤتمنة تمارس التمييز ضد الأقليات. في يونيو (حزيران) من العام الماضي، ذكر آدم موسيري، الرئيس التنفيذي في تطبيق التواصل الاجتماعي "إنستغرام"، أن على الشركة تقديم دعم أفضل إلى مجتمع أصحاب البشرة السمراء، وأنها تدرس كيفية تأثير "سياساتها وأدواتها وعملياتها في أولئك الأشخاص"، بما في ذلك التحيّز الذي يشوب خوارزمياتها.

كذلك تسببت الرقابة التي تعمل بواسطة خوارزميات في أنظمة الكمبيوتر، في حذف منشورات فلسطينيين على "فيسبوك" و"إنستغرام" و"تويتر" تكشف عن العنف الذي يتعرّض له قطاع غزة، ما أدى إلى انتقادات طاولت طبيعة "الصندوق الأسود" (أنظمة نجهل نموذجها وطريقة عملها الداخليين) التي تتسم بها تلك الأنظمة.

بعيداً من وسائل التواصل الاجتماعي، تخفق خوارزميات أخرى عادة، من بينها خوارزميات التعرف إلى الوجوه، في أن تحدد على نحو صائب هوية الأشخاص الملونين، الذين تستهدفهم الشرطة أصلاً أكثر من غيرهم. في فبراير (شباط) 2019، أمضى نجير باركس 10 أيام في السجن، ودفع خمسة آلاف دولار (ثلاثة آلاف و627 جنيهاً استرلينياً) للدفاع عن نفسه بعدما أجرى أحد برامج التعرف إلى الوجوه مطابقة غير صحيحة لوجه ذلك الشاب الأسود، فاعتقلته الشرطة لاحقاً.

واستكمالاً، ذكر تايلور في مقابلة مع موقع "ريكود" Recode إنه بغض النظر عن ماهية الخوارزمية وطريقة تطويرها، لا بد من أن شخصاً ما تولّى برمجيتها (على تلك الشاكلة). "وإذا تمثّلت المشكلة في الخوارزمية، مع ملاحظة أن قسم ’سوق صُنّاع المحتوى‘ متاح منذ 2020، فلماذا لم تَخُض (مطوّر الخوارزمية) مع فريقك نقاشاً بشأن هذه المسألة، علماً أننا شهدنا جدالات عرقية؟".

© The Independent