ملخص
الذكاء الاصطناعي التوليدي بلغ مرحلة مذهلة من القدرة على إنتاج محتوى مزيف عالي الواقعية، ما يفتح الباب أمام موجات من التضليل السياسي والشخصي يصعب كشفها، خاصة عبر الصوت والفيديو. وبينما يواجه العالم تهديدات حقيقية من الاستخدامات الخبيثة لهذه التقنيات، يبقى الخطر الأكبر في ثقتنا العمياء بها، وفي قدرتها على إعادة تشكيل الواقع من دون أن ننتبه.
بدا المشهد فوضى بصرية عارمة، كثير من المعكرونة وأطراف بشرية مشوهة لتكوين غامض يحاول أن يشبه شخصاً ما، ولكنه بدا أقرب إلى لوحة فوضوية وغير ملهمة من أعمال فنسنت فان غوغ.
كان في المستطاع تمييز النجم الأميركي ويل سميث، "ذا فريش برنس" نفسه، إنما فقط من خلال تسريحة شعره المرتفعة التي طبعت تسعينيات القرن الـ 20 ولحيته العصرية اللافتة، ولكن لم يبد ما ظهر في المقطع المصور شخصاً حقيقياً، ولم يكن ذلك الشكل ما يبدو عليه سميث عندما يتناول السباغيتي، ليس فعلاً.
في الواقع لم يكن المقطع سوى فيديو قصير يستعرض ذروة برمجيات الذكاء الاصطناعي التوليدية المتاحة للعامة في عام 2023، صمم باستخدام أداة "تكست 2 فيديو" Text2Video من منصة "مودل سكوب"، ونشر أولاً على الموقع الإلكتروني "ريديت"، وقد أثار المشهد ضحكاً واسعاً وسخرية بين معظم الناس، وتساءل بعضهم مستهزئاً عما إذا كنا إزاء الابتكار التكنولوجي المقبل الذي سيخترق الاتجاه العام، وكان العالم الرقمي الافتراضي الثلاثي الأبعاد (ميتافيرس) قد صار مهجوراً إلى حد كبير، وأصبحت "الرموز غير القابلة للاستبدال" (Non-Fungible Tokens -NFTs) عديمة القيمة عملياً.
وبالانتقال سريعاً إلى يومنا هذا يظهر ويل سميث مجدداً في فيديو من إنتاج الذكاء الاصطناعي باستخدام برنامج "في إي أو 3" VEO3 الجديد من "غوغل"، وقد أخذ يتناول السباغيتي أيضاً، وتبدو المعكرونة مقرمشة بعض الشيء، ولكن لا شك في أن المقطع صادم في مدى واقعيته.
يجسّد الفيديو بوضوح الوتيرة المتسارعة التي يشهدها تطور تكنولوجيا الذكاء الاصطناعي التوليدي [القادر على إنتاج محتوى جديد من نصوص وصور وأصوات]. فقد تطور إنتاج النصوص، وتوليد الفيديوهات والصور والصوت، وتقنيات التزييف العميق بسرعة مذهلة، على نحو يخدم شركات التكنولوجيا ومساهميها، إلى جانب الجهات الخبيثة التي وجدت في هذه التقنيات أدوات جديدة للاحتيال. أصبح استخدام هذه الأدوات في التضليل السياسي أمراً شائعاً الآن وإن كان مدى تأثيرها لا يزال محل نقاش. لكن يجري الآن استخدام أشكال أكثر خبثاً من التضليل، تتجاوز الاحتيال السياسي التقليدي. وباختصار، فإذا كانت هذه التكنولوجيا قادرة على جعل سميث يأكل السباغيتي، أفلا يسعها أن تجعلك أنت أو رئيسك أو عائلتك تفعل ذلك أيضاً؟
تزييف عميق لحظي بضغطة زر
منذ أواخر عام 2018 تراقب "سينسيتي" [الشركة الهولندية المتخصصة برصد وتتبع تقنيات التزييف العميق والتلاعب الإعلامي البصري] عن كثب صعود ظاهرة التزييف العميق، وتنكب على التصدي لاستخدامها في عمليات الاحتيال والنصب، سواء من جهات حكومية أو مجرمين إلكترونيين منفردين، وفي تقرير لها رصدت "سينسيتي" وجود 2298 أداة متاحة لتبديل الوجوه في الصور والفيديوهات، أو مزامنة حركة الشفتين مع صوت مسجل [سواء كان حقيقياً أو مولداً بالذكاء الاصطناعي]، أو إعادة تمثيل تعابير الوجه باستخدام الذكاء الاصطناعي [بمعنى نقل تعابير معينة مثل الابتسام أو العبوس أو حركات العينين إلى وجه ما بدقة لحظية، مما يمنح الفيديو المزيف واقعية فائقة]، وكثير من هذه الأدوات مفتوحة المصدر، مما يضع بين أيدي صانعي هذا النوع من المحتوى "أدوات متطورة" يسخرونها في أعمالهم "بسهولة غير مسبوقة".
"كنت أنصحهم بوضع يدهم أمام وجههم بغية إبطال عمل تقنية التزييف العميق، ولكن الآن تتوفر نماذج متطورة تسمح بلمس الوجه بل وحتى تسليط ضوء عليه، من دون أن يتعطل التزييف"، على ما أخبرني الشريك المؤسس والرئيس التنفيذي لقسم العمليات في "سينسيتي" فرانشيسكو كافالي.
وعلى منصة مطوري البرمجيات الحديثة "غيت هاب"Github برز تطبيق للتزييف العميق ضمن أدوات عدة شهدت رواجاً كبيراً خلال العام الماضي، وذلك عقب الانتشار الواسع لفيديوهات ظهر فيها مستخدمون وقد حولوا وجوههم بواقعية مدهشة إلى وجه النجم الأميركي روبرت داوني جونيور أو الرئيس التنفيذي لشركة "ميتا" مارك زوكربيرغ، إذ يعلن البرنامج أن في المستطاع إنشاء "فيديوهات مزيفة بتقنية التزييف العميق مباشرة وسريعاً، وبثلاث نقرات فقط" من دون الحاجة إلى مهارات إلكترونية معقدة، ويحث المستخدمين المحتملين على صنع فيديوهات مرحة أو مفاجأة الآخرين أثناء المحادثات الحية.
ليس من الصعب التعرف إلى استخدامات أخرى أكثر ضرراً لهذه التكنولوجيا، ففي العام الماضي خسر موظف في شركة مالية نحو 25 مليون دولار بعدما وقع ضحية عملية احتيال عبر مكالمة فيديو، وبدا له أنه في اجتماع افتراضي معتاد مع زملائه في العمل، إذا ظهرت أمامه وجوههم المألوفة وسمع أصواتهم المعتادة، ولكن كل من شاركوا في الاتصال كانوا في الحقيقة نسخاً مزيفة مصنوعة بالتزييف العميق.
تلك القصة والحوادث المشابهة لها تركت تأثيراً واضحاً في وعي الناس، فمثلاً كشف تقرير صادر عن معهد "آلان تورينغ" عام 2024 أن الجمهور بات يدرك فعلاً حجم المشكلة، إذ عبر 90 في المئة منهم عن قلقهم من هذه الظاهرة، غير أن معظم المشاركين لم يبدوا ثقة كافية في قدرتهم على التمييز بين المحتوى الحقيقي من جهة والمحتوى المصنوع بتكنولوجيا التزييف العميق من جهة أخرى، وبالنسبة إلى سهولة التنفيذ فقد أخبرني كافالي أن معظم برامج التزييف العميق المتاحة عبر الإنترنت تحتاج إلى صورة واحدة فقط لإنشاء نموذج وجه يكاد يطابق الحقيقة، ولا شك في أنك تملك حساباً شخصياً على وسائل التواصل الاجتماعي يفيض بهذه الصور، وليس مستبعداً أن تكون صورك قد استخدمت فعلاً في تدريب نظام الذكاء الاصطناعي الخاص بشركة "ميتا".
من جهتها تساعد"سينسيتي" الشركات في مواجهة هذه الحالات عبر مسح وجوه وأصوات المشاركين في مكالمات الفيديو كل بضع ثوان للكشف عن أي تلاعب، ويعرب كافالي عن ثقته في أنهم قادرون على مواكبة صعود وتطور تكنولوجيا التزييف العميق، ولكنه يقر بأن المهمة ستكون صعبة، أما بالنسبة إلى الأشخاص الذين يأملون في كشف المحتوى المزيف بأنفسهم فيقول إن "الأمر يكاد يكون مستحيلاً".
الصوت... سلاح التضليل الجديد
ليليان إدواردز، أستاذة زائرة في "مركز تنظيم الاقتصاد الإبداعي" (اختصاراً CREATe) في "جامعة غلاسكو" الإسكتلندية ومديرة شركة "بانغلوس كونسلتينغ"، لا تبدو مقتنعة كثيراً بقدرة التزييف العميق والفيديوهات المصنوعة بالذكاء الاصطناعي على نشر التضليل المصمم خصوصاً وفق معلومات الفرد وسلوكياته، مقارنة بتقنيات أخرى قائمة على الذكاء الاصطناعي، وتقول "يبقى التزييف الصوتي المشكلة الأهم الآن"، مضيفة أن " فرص كشف الاحتيال بالفيديو أعلى منها في الصوت وحده".
وحين يكون الصوت الأداة المستخدمة تصبح المشكلة أكثر التصاقاً بخصوصية الأفراد وتأخذ طابعاً شخصياً مباشراً.
عمليات الاحتيال عبر الرسائل النصية، التي ينتحل فيها المحتالون صفة أحد الأقارب، بدأت تأخذ منحى جديداً أكثر تطوراً، فخلال الشهر الماضي أصدرت المجموعة المصرفية "سانتاندير" تحذيراً من أسلوب احتيالي معروف بخدعة "مرحباً أمي" Hi Mum، وفيه يتلقى الضحايا رسائل احتيالية يدعي مرسلوها أنهم أحد "الأقارب المقربين" وأنهم يواجهون موقفاً طارئاً ويطلبون المال أو معلومات شخصية، والجديد والمقلق أن هؤلاء بدأوا يستخدمون تقنية التعرف إلى الصوت بغية جعل الرسائل أكثر واقعية وإقناعاً بالنسبة إلى الضحايا.
تلقت امرأة من مانيتوبا مكالمة من شخص بدا لها أنه ابنها، وطلب أن يبوح لها باعتراف ما، فشعرت السيدة بالحيرة والارتباك، وحسناً فعلت عندما أغلقت الهاتف فوراً واتصلت بابنها مباشرة لتوقظه من النوم، فأكد لها أنه لم يتصل بها، وفي تصريح إلى شبكة "سي بي سي نيوز" لاحقاً قالت المرأة "كان صوت ابني بلا شك".
وكما هو الحال مع التزييف العميق فإذا توفرت أية تسجيلات بصوتك فمن المستطاع حينها صنع تسجيل مزيف يبدو فيه أنك المتحدث بالفعل، ولا يقتصر هذا الشكل من التزييف على مقدمي البرامج الصوتية (بودكاست) أو المحاضرين، فمثلاً تتفاخر شركة "إليفن لابس" الرائدة في مجال الذكاء الاصطناعي الصوتي بقدرتها على إنشاء أصوات "لا يمكن تمييزها عن الأصوات الحقيقية" بـاستخدام "دقائق قليلة فقط من التسجيلات الصوتية"، ولذا اقترح "التحالف الوطني للأمن السيبراني" (اختصاراً NCA) استخدام "كلمات سرية" للتحقق من هوية الأشخاص عند التعامل مع زملاء العمل وأفراد العائلة.
ولكن إدواردز تسارع إلى تسليط الضوء على الاستخدام الحالي للذكاء الاصطناعي في إنتاج محتوى إباحي غير مشروع للبالغين، وتقول إن 90 أو 95 في المئة من مقاطع الفيديو المصنوعة بتقنية التزييف العميق عبارة عن مقاطع فيديو جنسية منشورة دون موافقة أصحابها، إذ تمس هذه المشكلة النساء بخاصة وتعد شكلاً صارخاً من التمييز الجندري".
في هذه الزوايا المظلمة من الإنترنت تتعرض النساء على منصات من قبيل "أونلي فانز" OnlyFans لسرقة هوياتهن واستخدام صورهن في فيديوهات مولدة بتقنية التزييف العميق، وتباع مقاطع فيديو مماثلة تظهر فيها نجمات شهيرات، إضافة إلى صور تنطوي على إساءات جنسية بحق أطفال، ولكن هذه المشكلة لم تعد موجودة على هامش الشبكة وحسب، بل أخذت تنتشر في الفضاء الرقمي الأوسع وعلى المنصات السائدة أيضاً.
في الواقع تزداد شهرة تطبيقات التعري Nudify، علماً أنها برامج تعتمد على الذكاء الاصطناعي لتوليد صور عارية مزيفة لأشخاص، انطلاقاً من صورهم الأصلية ومن دون موافقتهم، وقد بدأت هذه الصور بالظهور على وسائل التواصل الاجتماعي أيضاً، فيما تواجه المنصات صعوبة بالغة في احتواء هذا السيل المتصاعد من المحتوى، وفي تصريح إلى "سي بي أس نيوز"، قال متحدث باسم شركة "ميتا" إن الأشخاص الذين يقفون وراء هذه التطبيقات الاستغلالية لا ينفكون يطورون أساليبهم للإفلات من الرصد والتعقب.
ولكن لحسن الحظ في جعبة إدواردز أخبار مطمئنة، وتقول إن "المملكة المتحدة تندرج ضمن الدول الرائدة في سن التشريعات المتعلقة بالتزييف العميق، فقد شهدنا سلسلة طويلة من التعديلات القانونية التي تهدف إلى تجريم إنتاج الصور أو مقاطع الفيديو المولدة بهذه التقنية، ولا تقتصر التشريعات على تجريم صناعة المحتوى المزيف وحسب بل تمتد لتشمل تداوله أيضاً، سواء أكانت الصور والفيديوهات حقيقية أو مزيفة".
يبعث هذا الكلام على الارتياح، ولكن ماذا عن تلك الفئات من مجتمعنا التي تفتقر إلى المعرفة والوسائل اللازمين للتمييز بين المحتوى الحقيقي ونظيره المزيف؟
"مثلاً في الخلافات المتعلقة بحركة المرور ووقوف السيارات، ما الذي يمنع أحدهم من تزوير صورة تبدو حقيقية وتظهر أن سيارته لم تكن متوقفة على الخط الأصفر؟"، أو أن يعمد شخص إلى تزييف لقطات من كاميرا السيارة (داش كام) تبين زيفاً أنك أنت المسؤول عن هذا الخطأ أو ذاك؟ في مثل هذه الحالات يكون المال والسمعة وحتى الحرية على المحك"، توضح إدواردز.
أما ما إذا كانت هذه الحيل ستنجح فعلاً أم لا فهذه مسألة أخرى، ولكن من الطبيعي الافتراض بأن المحاكم والشركات غير مستعدة في الوقت الراهن لمواجهة هذا النوع من الاحتيال، وأن هذه المعلومات الشخصية المضللة من شأنها أن تفاقم الضغوط على نظام مثقل أصلاً بالأعباء، مما يعوق سير الأعمال.
وتقول إدواردز إن "شركات التأمين تواجه أساساً كثيراً من البلاغات الكاذبة بغية الحصول على تعويضات، لذا لا بد من أنها بدأت تفكر في كيفية التعامل مع عمليات الاحتيال القائمة على التزييف العميق".
حين ينقلب الذكاء الاصطناعي ضدنا
في الحقيقة أصبح وجود الفاعلين الخبيثين جزءاً لا يتجزأ من حياتنا اليومية في عالم تحركه ديناميكية التداخل المتزايد بين الواقع المادي والعالم الرقمي الافتراضي، ومع ذلك ربما يكمن الضرر الأكبر الذي جلبه تطور الذكاء الاصطناعي التوليدي في تضليل نمارسه نحن على أنفسنا، تضليل بالغ الخصوصية يحدث في صمت بينك وبين هاتفك، وبين خوارزمية تعرفك أكثر مما تظن.
البروفيسورة في التكنولوجيا والتنظيم في "جامعة أكسفورد"، ساندرا واتشر، تكرس وقتها لدرس ما يسمى "الهلوسات" في روبوتات الدردشة مثل "تشات جي بي تي" ChatGPT الشهير، وفي هذه الحال ينتج الروبوت معلومات خاطئة تماماً ولكن من دون أي نية متعمدة للإيذاء أو التضليل.
نعلم أن مندوبي المبيعات قد يحاولون خداعنا بأساليب ملتوية لإقناعنا بالشراء، لذا نكون عادةً على حذر. أما مع "تشات جي بي تي"، فنحن نفترض أن أحداً لا يحاول خداعنا – وهذا صحيح، لا أحد يحاول ذلك بالفعل – لكن هذه الثقة التلقائية هي بالضبط ما يشكل المشكلة، كما تقول البروفيسورة واتشر.
لا توجد براكين نشطة في إنجلترا، لكن ذلك لم يمنع "تشات جي بي تي" من ذكر جبل "سنودون" عندما طرحت ساندرا وفريقها عليه هذا السؤال. تقول: "النظام ليس مصمماً ليخبرك بالحقيقة، بل صُمم – كما هو الحال دائماً – ليُبقيك منشغلاً ومتفاعلاً معه لأطول فترة ممكنة". ورغم أن هذه الروبوتات تخضع لتحديثات مستمرة، من المرجح أن هذا الميل لتفضيل التفاعل على الحقيقة هو أيضاً ما يجري تحسينه معها.
خلال العام الماضي ترددت تقارير متفرقة عن محادثات مع "تشات جي بي تي" أدت إلى حالات طلاق وحتى انتحار، ولكن تحت ظاهر هذه القصص الصادمة يكمن خطر أكبر يتمثل في الانتشار المحتمل الواسع النطاق للمعلومات المضللة، فقد أصبح عدد هائل من المستخدمين يعتمد على هذه التكنولوجيا في حياتهم اليومية، سواء في أعمالهم أو حتى كرفيق لهم في حياتهم العامة، ويذكر المدير التشغيلي في "أوبن أي آي"، الشركة المطورة للروبوت الشهير، براد لايتكاب، أن عدد المستخدمين النشطين أسبوعياً بلغ 400 مليون شخص، مع هدف الوصول إلى مليار مستخدم بحلول نهاية العام، ويتفاعل جميع هؤلاء مع برنامج يستخدمه كثيرون كبديل لمحركات البحث، ولكنه يجنح أحياناً إلى تقديم معلومات غير دقيقة أو خاطئة مما يضلل المستخدمين.
اقرأ المزيد
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
لا تختلف الحال مع الفيديوهات أو الصور المولدة بالذكاء الاصطناعي والتي تظهر أمامنا باستمرار في التطبيقات الرقمية التي تعتمد التمرير العمودي ["تيك توك" "إنستغرام" "فيسبوك"] وأخيراً انتشر فيديو يظهر فيه "كنغر مخصص للدعم العاطفي" [مثلما يستخدم البعض الكلاب أو القطط لمساعدتهم في التكيف مع التوتر والقلق] تحاول صاحبته إدخاله إلى الطائرة ولكن موظفة الطيران منعت صعوده، فيديو ساخر وغير مؤذ، ومع ذلك سارع كثيرون إلى تصديقه قائلين إنها المرة الأولى التي يتعرضون فيها للخداع.
ربما ساعدت طبيعة الفيديو الطريفة وغير الضارة في مروره من دون أن يتأكد أحد من صحته، ولم لا؟ فنحن نشاهد خلال تصفحنا هواتفنا المحمولة شتى المشاهد المروعة والعبثية، إنه ما أشارت إليه إدواردز منذ فترة بـ "اللاواقعية"، عالم افتراضي هلوسي يفرض واقعه الذاتي الجديد.
في النهاية لطالما استغلت خوارزميات وسائل التواصل الاجتماعي مشاعرنا بغية إبقائنا منغمسين فيها لفترات أطول، ولكننا الآن إزاء سيل محتمل لا ينضب من المحتوى المولد بالذكاء الاصطناعي والمصمم لإثارة الغضب، أشخاص مزيفون باستخدام تقنية التزييف العميق يعبرون عن آراء مثيرة للجدل، أو مقابلات وهمية مع نساء عشوائيات في الشارع، هدفها تأجيج الكراهية ضد النساء أو تغذية مشاعر العنصرية، ومعها يظهر حيوان "والابي" في المطار ليدفعك أكثر فأكثر نحو عالم اللاواقع، وإذا كنت تشاهد هذا المحتوى وتستهلكه [ذهنياً أو عاطفياً]، فهل يهم حقاً إن كان حقيقياً أو مزيفاً؟
في عصر "التضليل الشخصي"، حيث تُفصَّل المعلومات المضللة بحسب بيانات كل فرد وسلوكياته، نحتاج دون شك إلى طبقات جديدة بالكامل من الدفاعات القانونية والتقنية. لكن ربما الأهم من ذلك هو حاجتنا إلى دفاعات نفسية تُذكّرنا بأن ما نراه ليس دائماً بالحقيقية التي يبدو عليها. وإن خُدعنا؟ لا بأس... فنحن في النهاية بشر.
© The Independent