Sorry, you need to enable JavaScript to visit this website.

كيف نوقف معلومات الذكاء الاصطناعي المضللة خلال الحروب والكوارث؟

دق علماء ذرة أميركيون وصحافيون ناقوس الخطر وحذر بعضهم من تفاقم الظاهرة على اتصالات الطوارئ

تتوالى تحذيرات المتخصصون من تفاقم ظاهرة المعلومات المضللة المستخدمة من الذكاء الاصطناعي (مواقع التواصل)

 

ملخص

خلال مواجهة متوترة بين الهند وباكستان غمرت منصات التواصل الاجتماعي بصور أقمار اصطناعية منتجة بواسطة الذكاء الاصطناعي، ولقطات مفبركة أخرى.

تهدد المعلومات المضللة المستخدمة من الذكاء الاصطناعي اتصالات الطوارئ، في ما يتعلق بالأسلحة والطاقة النووية، وحياة ملايين الأشخاص، وذلك بحسب مواقع علمية مهتمة في هذا المجال. في الوقت ذاته لا يمكن للناس أن يعيشوا في حالة تأهب قصوى دائمة، لذلك لا بد من اتخاذ التدابير والاحتياطات كافة التي من شأنها أن تسهم في ترسيخ الثقة بعد وقوع كارثة وقبل حدوث أخرى.

في هذا السياق دق علماء ذرة أميركيون وصحافيون مهتمون باتصالات الطوارئ وإدارتها ناقوس الخطر، وحذر بعضهم من تفاقم ظاهرة المعلومات المضللة المستخدمة من الذكاء الاصطناعي في اتصالات الطوارئ، خصوصاً في ما يتعلق بالأسلحة والطاقة النووية، وأثناء وقوع كوارث طبيعية كبرى مثل الزلازل وتلوث المياه بالإشعاعات وحرائق الغابات وغيرها.

مواجهة متوترة

في مايو (أيار) الماضي، وخلال مواجهة متوترة بين الهند وباكستان، غمرت منصات التواصل الاجتماعي بصور أقمار اصطناعية منتجة بواسطة الذكاء الاصطناعي، ولقطات مفبركة لضربات جوية، وحتى مقطع صوتي مزيف لقائد باكستاني يعلن حالة تأهب نووي، وكان لهذه المنشورات القدرة على تشكيل الرأي العام وزيادة خطر التصعيد قبل أن يتم دحضها.

كارثة فوكوشيما

وسبق ذلك في عام 2023، عندما بدأت اليابان في تصريف مياه الصرف الصحي المعالجة من عملية تنظيف كارثة فوكوشيما النووية، فانتشرت على وسائل التواصل الاجتماعي معلومات مضللة حول سلامة المياه، إضافة إلى مقاطع فيديو منسوبة بصورة خاطئة وشهادات كاذبة، نشرت صور منتجة بواسطة الذكاء الاصطناعي لحيوانات بحرية متحولة كدليل على الضرر الإشعاعي.

 

أمام هذه الوقائع قدم هنا نشر موقع نشره علماء الذرة الأميركي في السابع من سبتمبر (أيلول) الجاري مقالة بقلم الصحافي إيثان بيتي، المتخصص في اتصالات الطوارئ وإدارتها، ويعمل حالياً مع جمعية فرق الإنقاذ وهيئة الإغاثة من الكوارث التابعة لمجلس البعثة المعمدانية في تينيسي، حملت عنوان "المعلومات المضللة المستخدمة من الذكاء الاصطناعي تهدد اتصالات الطوارئ وإليك كيفية إصلاح ذلك".

تضخيم حجم الأضرار

في مقالته يقول إيثان بيتي إن التضليل الإعلامي انتشر في جميع أنواع الكوارث، "إذ تصاحب أية ظاهرة جوية أو طبيعية كبرى الآن صور مولدة بالذكاء الاصطناعي تضخم حجم الأضرار وتشوش الجداول الزمنية"، وشهدت حرائق الغابات في لوس أنجلوس خلال يناير (كانون الثاني) الماضي مشاهد "كارثية" مولدة بالذكاء الاصطناعي.

وأدت فيضانات تكساس في يوليو (حزيران) الماضي إلى بث "منتجات" بالذكاء الاصطناعي تقدم على أنها تقارير حقيقية، وخلال إعصاري ميلتون وهيلين في أكتوبر (تشرين الأول) 2024، تداول الناس عدداً لا يحصى من مقاطع الفيديو المولدة بالذكاء الاصطناعي على أنها لقطات أصلية.

في الحروب

بحسب هذا الصحافي فإنه لم يقتصر التضليل الإعلامي بالذكاء الاصطناعي على الأخطار الطبيعية فحسب، بل أدت الحرب الأخيرة بين إسرائيل وإيران إلى موجة من الصور المولدة بالذكاء الاصطناعي، التي تظهر الأضرار والقدرات الهجومية، مما صعب تحديد حقيقة ما كان يحدث أثناء الصراع.

ويعيد بيتي التذكير بالحادثة الأشهر التي وقعت في حرب روسيا مع أوكرانيا، إذ ظهر مقطع مزيف للرئيس فولوديمير زيلينسكي يدعو فيه إلى الاستسلام بعد اختراق موقع "أوكرانيا 24" الإخباري. كما أنه وفي عام 2023، بث إعلان زائف عن الأحكام العرفية للرئيس الروسي فلاديمير بوتين في المناطق الحدودية بعد اختراقات إذاعية.

الأكاذيب أكثر انتشاراً

يرى اختصاصيون في الإعلام الرقمي أنه وخلال الأزمات تميل الأكاذيب إلى الانتشار لمسافات أبعد وأسرع من التصحيحات، إذ أظهرت دراسة شهيرة أجراها معهد ماساتشوستس للتكنولوجيا عام 2018 أن الأخبار الكاذبة على منصة "إكس" أو "تويتر" سابقاً تنتشر "أبعد وأسرع وأعمق وأوسع نطاقاً" من التقارير الدقيقة، إذ تصل إلى الناس أسرع بست مرات، ويعاد تغريدها بنسبة 70 في المئة.

ماذا عن عام 2022؟

وتفاقم أدوات الذكاء الاصطناعي المولدة سهلة الاستخدام، التي بدأت بالظهور عام 2022 المشكلة، وتشير الأبحاث حول التحقق من الحقائق من مصادر جماعية إلى أن التصحيحات غالباً ما تصل بعد أن تبلغ المنشورات ذروتها. ويمكن أن يكون متوسط عمر النصف للتفاعل مع المنشورات الفيروسية أقل من ساعتين، وهو أسرع من معظم دورات التحقق والتعديل.

مشكلة عويصة فعلاً

يؤكد هؤلاء العلماء أنه في الوقت الذي نلهث فيه من أجل وضع حلول لهذه المشكلة العويصة، فإنه علينا ألا ننسى أنه وعلى رغم الضرر الجسيم الذي ألحقته وسائل التواصل الاجتماعي، إلا أنها تنقذ الأرواح أيضاً، إذ ساعدت المنشورات الفورية فرق الاستجابة في تحديد الحاجات والعثور على العالقين وتحديد الأضرار.

 

ولذلك لا ينبغي أن يكون الهدف سد فيضان المعلومات بأكمله، بل تحويل مسار سيول المعلومات مع تعزيز قنوات لها تساعد بصورة واضحة في تصحيح المعلومة.

لا مجال للخطأ

يتمتع معظم منصات التواصل الاجتماعي الكبرى الآن بميزات إدارة وتنسيق المحتوى التي يمكن التحكم بها في كثير من الأحيان من المستخدمين، وتشير الأبحاث إلى أن أدوات مثل "ملاحظات مجتمع إكس" و"لوحات المعلومات" على "يوتيوب"، ساعدت في الحد من مشاركة المعلومات المضللة، ولكن في حالات الطوارئ عموماً وفي حالات الكوارث النووية لا يحتمل الأمر الوقوع في الخطأ.

مفارقة مكافأة المحتوى

يوضح بيتي في مقالته أيضاً أنه حتى لو عملت هذه الأدوات بكفاءة، فإنها لا تغير الخوارزميات التي تكافئ المحتوى اللافت للانتباه والمثير للجدل. "فاليوم تدفع جميع منصات التواصل الاجتماعي الرئيسة لمنشئي المحتوى بناء على التفاعل ومشاركة عائدات الإعلانات، مما يحول هذه المساحات إلى حاضنات خصبة للمعلومات المضللة". وينطبق هذا بصورة خاصة في حالات الطوارئ، عندما يبحث مزيد من الناس عن أحدث المعلومات، ويكون موظفو الإدارة وأدواتها منهكين.

هاجس التأثير في حرية التعبير

ومن المهم أيضاً التأكيد أن تكون الحماية من المعلومات المضللة التي ينشرها الذكاء الاصطناعي غير مقيدة لحرية التعبير، بل تشمل نشر معلومات موثوقة ومنقذة للحياة بسرعة، مع الحفاظ على حرية التعبير في جميع الأوقات.

الحل؟

لمعرفة الحل لجأ علماء وصحافيون إلى استقاء بعض المعلومات، من خلال بعض أدوات البحث بواسطة الذكاء الاصطناعي. ووجد هؤلاء أن تفنيد المعلومات المضللة التي ينشرها الذكاء الاصطناعي مفيد، لكن "التضليل المسبق" قد يكون أكثر فاعلية. فكما يكافح التطعيم الميكروبات الفيروسية، فإن التضليل المسبق الذي يعرض الجمهور لممارسات التضليل الشائعة يمكن أن يمنع انتشار محتوى الذكاء الاصطناعي الفيروسي.

استراتيجيات عدة

وفق "بيتي" فإن هناك استراتيجيات عدة يمكن أن تساعد في تحقيق حل ناجع لهذه المشكلة، لعل أولها وأهمها تفعيل استراتيجية التضليل الاستباقي، فتفنيد المعلومات المضللة التي ينشرها الذكاء الاصطناعي مفيد، لكن "التضليل المسبق" قد يكون فعالاً أيضاً.

وتمكن معايير اعتماد المحتوى، مثل ميزة (C2PA) الكاميرات والبرامج من تضمين "توقيعات" رقمية تخبر المستخدمين عند التقاط صورة أو تعديلها أو إنشاؤها بواسطة الذكاء الاصطناعي.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

على رغم ذلك، تظل إتاحة هذه الميزة محدودة للغاية عبر منصات التواصل الاجتماعي، بخاصة خلال الأزمات، إذ يجب أن تظهر المنشورات بيانات الاعتماد بصورة بارزة، ويجب على الجهات الحكومية الالتزام بنشر صور معتمدة تمكن الجمهور من تحديد المعلومات الأصلية.

أوقفوا تمويل آلات التضليل

يدعو علماء الذرة وخبراء المحتوى الرقمي في هذه المقالة ومقالات عديدة أخرى على شبكة الإنترنت إلى التوقف فوراً عن تمويل آلات التضليل، لأن فكرة تحقيق الربح من المنشورات خلال حالات الطوارئ تستدعي بصورة آلية جمع التفاعلات أولاً، ثم تقوم بإجراء التدقيق اللازم لاحقاً.

قائمة أولويات المراجعة

وفي حالات الطوارئ المعلنة، ينبغي على المنصات تحديد أولويات واضحة لمدققي الحقائق وفرق الإشراف عند مراجعة المنشورات وتصنيفها. وعندما يتجاوز المنشور بسرعة حداً معيناً، يجب نقله إلى قائمة أولويات المراجعة، فإذا كانت المعلومات خاطئة بصورة يمكن التحقق منها، فيجب على المنصة إخطار الحسابات التي شاهدتها بالفعل وإضافة ملاحظة موقتة إلى المنشور، وتحديثها عند ورود حقائق جديدة.

 

المزيد من علوم