Sorry, you need to enable JavaScript to visit this website.

كيف نكشف المقاطع المزيفة بالذكاء الاصطناعي؟

تستطيع النماذج الذكية توليد كميات هائلة من المحتوى بصورة فورية تقريباً، مما يملأ صفحاتنا على مواقع التواصل الاجتماعي بمقاطع فيديو تراوح ما بين الغريبة والمروعة، والخبراء يحذرون أن هذه الظاهرة تسمم الإنترنت الذي يعج أصلاً بالمعلومات المضللة

صورة مولدة بالذكاء الاصطناعي لنيكولاس مادورو وانتشرت بصورة واسعة عقب الإعلان عن اعتقاله (مواقع التواصل/اندبندنت)

ملخص

تغزو المقاطع المزيفة بالذكاء الاصطناعي منصات التواصل بوتيرة غير مسبوقة، مسببة فوضى معلوماتية تربك الجمهور وتمنح الجهات المضللة مساحة للمناورة. وبين صور مفبركة وفيديوهات محكمة، يحذر الخبراء من عصر جديد يصبح فيه التمييز بين الحقيقة والزيف معركة يومية.

نادراً ما يحتاج الأمر إلى أكثر من بضعة تمريرات على الشاشة لمشاهدة فيديو مولد بالذكاء الاصطناعي عام 2026.

من مشاهد مزعومة لاعتقال نيكولاس مادورو على أيدي قوات أميركية في فنزويلا، إلى لقطات تدعي إطلاق عناصر من وكالة الهجرة والجمارك الأميركية (آيس) النار على مدنيين في مينيابوليس، يستهلك ملايين الأشخاص مقاطع فيديو وصوراً مولدة بالذكاء الاصطناعي حول بعض أبرز الأحداث الإخبارية في العالم، بما يجعل التمييز بين الحقيقي والمفبرك أمراً شبه مستحيل.

وحذر خبراء صحيفة "اندبندنت" من أن المحتوى المنتج بالذكاء الاصطناعي ينتشر بوتيرة متسارعة إلى درجة يملأ فيها الفراغ المعلوماتي قبل ظهور الحقائق، مما يفضي إلى تشكل سرديات مضللة بينما تكافح المؤسسات الإعلامية للتحقق من التفاصيل.

تقول صوفيا روبنسون، المحررة البارزة في قسم التثبت من الحقائق في موقع "نيوزغارد" Newsguard، "مع استمرار تحسن فيديوهات الذكاء الاصطناعي، بات من الصعب الثقة بما نراه أثناء تصفح وسائل التواصل الاجتماعي".

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وتضيف "الإشارات البصرية التي كانت تساعدنا سابقاً في رصد المحتوى المزيف لم تعُد موثوقة، مما يزيد خطر انتشار المعلومات المضللة على نطاق واسع، ولا سيما حين تضخم المقاطع المفبركة عبر حسابات معروفة أو موثقة".

وفي فضاء معلوماتي غير منظم كهذا، بات في وسع أطراف سياسية خبيثة الادعاء بأن مقاطع حقيقية هي في الواقع مزيفة.

ويحذر البروفيسور آلان جاغولينزر، الرئيس المشارك لقمة "كامبريدج لمكافحة التضليل"، قائلاً: "ما قد نشهده الآن هو الزعم بأن الفيديو الحقيقي المتداول هو تزييف عميق بالذكاء الاصطناعي، مما يمنحهم [الأطراف الخبيثة] إنكاراً معقولاً".

ويتابع "هذا بحد ذاته جزء من مكمن الخطر هنا، وربما يكون أكثر خبثاً من مجرد تصديق الناس لفيديو مفبرك".

حتى البيت الأبيض أثار أخيراً موجة غضب بعدما نشر صورة معدلة رقمياً لناشطة أوقفت بسبب تنظيم احتجاج مناهض لوكالة الهجرة والجمارك في كنيسة بولاية مينيسوتا، إذ جرى تعديل الصورة لتبدو وكأنها تبكي.

وبحسب تحليل خبير الأدلة الجنائية الرقمية هاني فريد، الأستاذ في جامعة كاليفورنيا – بيركلي، فإن الصورة على الأرجح عدلت باستخدام تقنيات الذكاء الاصطناعي.

وقال فريد لشبكة "سي بي أس نيوز": "ليست هذه المرة الأولى التي يشارك فيها البيت الأبيض محتوى معدلاً أو مولداً بالذكاء الاصطناعي. هذا التوجه مقلق على مستويات عدة. فهم لا يكتفون بنشر محتوى خادع، بل يجعلون من الصعب أكثر فأكثر على الجمهور الوثوق بأي شيء يشاركونه معنا".

وعندما سئلت إدارة ترمب عما إذا كانت برامج تحرير صور أخرى استخدمت، أحالت صحيفة "اندبندنت" إلى تغريدة نشرها كايلان دور، نائب مدير الاتصالات في البيت الأبيض، جاء فيها ببساطة: "ستستمر الصور الساخرة. شكراً لاهتمامكم بهذا الأمر".

وفي سياق متصل، زعم فيديو آخر مولد بالذكاء الاصطناعي إظهار امرأة صومالية ضبطت في مطار مينيابوليس – سانت بول أثناء محاولتها تهريب 800 ألف دولار من أموال المساعدات الاجتماعية إلى خارج البلاد. وحصد المقطع ملايين المشاهدات عبر منصات متعددة، وبدا وكأنه يحيل إلى مزاعم بمشاركة الجالية الصومالية في مينيسوتا في عمليات احتيال واسعة النطاق على برامج الخدمات الاجتماعية، مما دفع عناصر وكالة الهجرة والجمارك إلى الانتشار بكثافة في الولاية.

وتظهر اللقطات امرأة ترتدي حجاباً وتبدو غاضبة أمام حقيبة مليئة برزم نقدية مرتبة بعناية، وهي تصرخ: "ليس لكم حق! هذا ملكي، كله"، بينما يرد أحد عناصر أمن المطار: "أنا أعرف حقوقي".

وقال جيريمي كاراسكو، المستشار الإعلامي المتخصص في محو الأمية المتعلقة بالذكاء الاصطناعي، لصحيفة "اندبندنت" إنه "واثق بنسبة 95 في المئة" من أن المقطع أنتج باستخدام أداة "سورا 2" التابعة لشركة "أوبن أي آي"، من دون علامة مائية. وأشار إلى أن الدليل الأبرز بالنسبة إليه كان الحقيبة.

وأوضح: "تبدو بحجم حقيبة أوراق. ولا يشبه أي حجم معتاد للأمتعة في الولايات المتحدة"، مضيفاً أن هيكلها الخارجي بدا كبيراً على نحو غير اعتيادي. "لو كانت تسير بها، لكانت النقود تزعزعت في الداخل لأن المساحة في الحقيبة أكبر مما ينبغي".

وامتلأت التعليقات أسفل الفيديو بأشخاص يؤيدون تصرفات العناصر الأمنية من قبيل: "أحسنتم يا إدارة أمن النقل. أوقفوا السرقة".

وتواصلت "اندبندنت" مع شركة "ميتا" للتعليق على المنشور.

تحقق من المصدر

وخارج الولايات المتحدة، قام المحتوى المولد بالذكاء الاصطناعي بدور أيضاً في الترويج لسرديات مضللة حول أحداث عالمية كبرى، من بينها اعتقال مادورو والاحتجاجات في إيران والهجوم الإرهابي المعادي للسامية الأخير على شاطئ بونداي في سيدني، أستراليا.

وبحسب كاراسكو، فإن أهم خطوة يمكن للأفراد اتخاذها للتمييز بين الحقيقي والمزيف هي خطوة بسيطة: إسأل نفسك، هل أثق بهذا المصدر؟

ويقول: "إذا كنت لا تثق بالمصدر، أو خلصت إلى أنك لا تستطيع الوثوق به، فامضِ في يومك. هناك مؤشرات كثيرة. فعلى سبيل المثال، صفحة تعيد نشر كم هائل من المواد العشوائية من كل مكان لن تكون قادرة على التمييز بدورها بين فيديو مولد بالذكاء الاصطناعي وآخر حقيقي".

ويضيف: "عليك البحث عن المصدر الأصلي، أو استهلاك المحتوى عبر مؤسسة إعلامية معتمدة لديها قسم مختص بالتحقق. تأكد فقط من أنها استبعدت أن يكون الفيديو الحقيقي قد عدل".

ويشرح كاراسكو أن محاولة العثور على المصدر الأصلي تتيح أيضاً الحصول على أفضل جودة ممكنة للمحتوى. فالمقاطع التي يعاد تداولها أو تحميلها قد تخضع لعمليات تحسين تلقائي بواسطة خوارزميات تعلم آلي تسعى إلى رفع دقتها، مما قد يكسب فيديوهات مشروعة تماماً خصائص بصرية شبيهة بتلك الموجودة في المقاطع المولدة بالذكاء الاصطناعي.

أنظر إلى الخلفية

وعلى رغم أن الصور المولدة بالذكاء الاصطناعي قد تبدو مقنعة للغاية في مقدمة المشهد، فإن كاراسكو يقول إن الخلفية "غالباً ما تكون المكان الذي تخفى فيه التفاصيل الحاسمة".

ويشير إلى فيديو مولد بالذكاء الاصطناعي جرى دحضه، يزعم إظهار فنزويليين يبكون احتفالاً باعتقال مادورو.

ويقول: "أعتقد بأن أي شخص يمكنه ملاحظة أن الرجل في الخلف كان يمسك علماً في البداية، ثم بعد أن مر خلف رأسها لم يعُد يمسك بالعلم".

ومن خلال التدقيق في أطراف الإطارات ضمن المقاطع المولدة بالذكاء الاصطناعي، يمكن رصد عناصر تدخل المشهد على نحو غير منطقي مثل أيادٍ تظهر فجأة أو ملامح وجه تتغير.

ويرى خبراء أن التعامل مع تداعيات المحتوى المولد بالذكاء الاصطناعي وتأثيره في السياسة والمجتمع سيتطلب "الصبر والأدلة". لكن يمكن للأفراد أيضاً حماية أنفسهم من خلال طرح أسئلة بسيطة تنطلق من التفكير النقدي.

ويقول البروفيسور جاغولينزر: "حاول تقييم ليس فقط الرسالة، بل الدوافع الكامنة وراءها. من الذي يوجه الرسالة؟ وماذا يريد أن يجني منها؟"

ويضيف: "ما مصلحتهم في نشر هذه الرسالة؟ كثرٌ ينسون أننا حين نتواصل تكون لدينا حوافز وأسباب لذلك. لذا أحاول دفع الناس إلى التفكير: لماذا يخبرونني بهذا؟ وما الذي سيكسبونه من ذلك؟".

ويخلص كاراسكو إلى أن حجم المعلومات المضللة اليوم "أسوأ من أي شيء شهدناه من قبل"، نظراً إلى سهولة الوصول إلى تطبيقات الذكاء الاصطناعي التوليدي.

ويقول "المسألة لا تتعلق فقط بكيفية اكتشاف كل حالة على حدة، بل أيضاً بكيفية استيعاب المجتمع لهذه الموجة الجديدة، هذا السيل من الصور والفيديوهات المزيفة التي يراها يومياً".

© The Independent

المزيد من علوم