أثارت سلسلة مقاطع فيديو مزيفة حققت انتشاراً واسعاً تظهر الممثل توم كروز وهو يلعب الغولف ويقوم ببعض ألعاب الخفة، مخاوف بشأن إمكانية أن تنشر تقنية التزييف العميق، أو ما يعرف بـ deepfake، نظريات المؤامرة ومعلومات مضللة عبر الإنترنت.
تبدو مقاطع (نجم هوليوود الشهير) كروز شديدة الواقعية لدرجة أنها خدعت بعض الأشخاص في البداية وجعلتهم يعتقدون أن النجم الهوليوودي قد انضم فعلاً إلى منصة "تيك توك" TikTok، حيث جذب الحساب مئات الآلاف من المتابعين بعد نشر بضعة مقاطع فيديو.
وأشار عدد ممن اكتشفوا أن الحساب الذي يحمل اسم @deeptomcruise مزيف، إلى المدى الذي وصلت إليه التكنولوجيا خلال عدد قليل من السنوات. وعلّق أحد المستخدمين قائلاً: "لقد تحول هذا الأمر من كونه ظريفاً إلى البدء بإخافتني".
لكن في حين أن تقنية التزييف العميق أصبحت منتشرة ومتقدمة أكثر، إلا أن تركيب مقاطع فيديو فائقة الواقعية لا يزال بعيداً من قدرات الأشخاص العاديين.
وكشف فنان المؤثرات البصرية كريس أوم Chris Ume عن كيف استخدم شخصاً يقلّد توم كروز إلى جانب برمجية للتعلم الآلي من أجل الوصول إلى الخدع التكنولوجية.
تُستخدم التكنولوجيا بالفعل لأغراض تجارية في عدد من الصناعات: من مقاطع الفيديو التدريبية للشركات في الولايات المتحدة إلى التقارير الإخبارية التلفزيونية في كوريا الجنوبية.
كما استخدمت التقنية في عدد من الخدع المصورة أو المقاطع الساخرة، مثل تزييف مقطع تظهر فيه الملكة (إليزابيث الثانية) في خطاب بديل نشرته القناة الرابعة البريطانية Channel 4 بمناسبة أعياد الميلاد، ونسخة مزيفة يظهر فيها الرئيس الأميركي الأسبق دونالد ترمب وهو يشاهد "نساء هوى" يقمن بالتبول في ما عرف بفضيحة "شريط التبول" Pee Tape.
اقرأ المزيد
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
تعتبر هذه التقنية فاعلة من حيث التكلفة وسهلة الاستخدام نسبياً بفضل ظهور شركات مثل سينثيزيا Synthesia التي تكرس خدماتها لتركيب مقاطع فيديو منشأة بواسطة الذكاء الصناعي لعملاء الشركات.
على كل حال، أدت السرعة التي تتقدم بها التكنولوجيا إلى بروز مخاوف بشأن وصول المستخدمين السيئين إلى برامج التزييف العميق بغية تركيب مقاطع من نمط الدعاية الخطيرة أو الانتقام عن طريق الفيديوهات الإباحية.
وفقاً للخبراء الأمنيين، يمكن أيضاً استعمال تقنية التزييف العميق الواقعية لتنفيذ هجمات إلكترونية في المستقبل.
قال نير تشاكو، اختصاصي الأبحاث السيبرانية في شركة سايبر آرك CyberArk المتخصصة بأمن الهويات لـ"اندبندنت": "نرى إمكانية تحول تقنية التزييف العميق إلى ميزة لهجمات على المؤسسات، حيث تضخم تقنيات الهندسة الاجتماعية الحالية من خلال جعلها تبدو أكثر مصداقية... ليس بعيداً من المهاجمين أن يقوموا بتحميل مقاطع فيديو وتسجيلات لكبار قادة قطاع الأعمال... واستخدامها لإنشاء مقطع مزيف بشكل عميق يكون بمثابة متابعة استراتيجية لمحاولات الخداع الإلكتروني".
يمكن أن تتفاقم أساليب الهجوم هذه بسبب اتجاه متزايد آخر متمثل في العمل عن بعد، ما يعني أن بعض العاملين لا يلتقون فعلياً بزملائهم في الحياة الواقعية.
قال بيتر سومول، مدير أبحاث قسم الذكاء الصناعي في شركة آفاست Avast للأمن السيبراني: "من المرجح أن يؤدي الوباء، وما نتج منه من زيادة في عدد الأشخاص الذين يعملون من المنزل، والاعتماد الأكبر على الاتصال عبر الإنترنت، إلى جانب حالة عدم اليقين المنتشرة بين الناس، إلى تعزيز فاعلية استخدام تقنية التزييف العميق لنشر المعلومات المضللة".
يحتمل أن تصل تقنية التزييف العميق إلى مستوى من الجودة هذا العام تمكّن من استخدامها بشكل فاعل في حملات التضليل. يمكن إعادة تعزيز نظريات المؤامرة حول فيروس كورونا، مثل زعم انتشاره عبر شبكات الخليوي من الجيل الخامس، من خلال مقاطع الفيديو المزيفة - وعلى سبيل المثال، القيام بشكل خاطئ بإظهار السياسيين في مظهر المتآمرين".
معظم المنصات الرئيسة لمشاركة مقاطع الفيديو تمتلك للتو سياسات لمنع خداع مستخدميها عن طريق التزييف العميق، لكن كي تتمكّن المنصات من تطبيق تلك السياسات، يتوجب عليها أن تكون قادرة أولاً على معرفة أن الفيديو مزيف. وبحلول الوقت الذي تدرك فيه ذلك، قد يكون المقطع انتشر بشكل كبير والضرر قد حدث بالفعل.
مثلاً، تنص قواعد "تيك توك"، على أنه ستتم إزالة التعديلات الرقمية في حال أنها "تضلل المستخدمين من خلال تشويه حقيقة الأحداث وإلحاق الضرر بالشخص الذي يتناوله الفيديو أو أشخاص آخرين أو المجتمع".
كما هي الحال مع نسبة كبيرة من الجهات التي تشرف على المحتوى المنشور عبر الإنترنت، فإن هذا الأمر يترك مساحة كبيرة غير واضحة تسمح باستغلال القواعد أو تجاهلها. على الرغم من سياسات "تيك توك"، تدّعي شركة التواصل الاجتماعي أن اسم الحساب كان كافياً لتعريف المستخدمين بأن مقاطع الفيديو التي تظهر توم كروز ليست حقيقية. لكن المقاطع، إلى جانب مئات المقاطع الأخرى، ما زالت موجودة على الإنترنت.
© The Independent