Sorry, you need to enable JavaScript to visit this website.

تقنية ضد تعديلات الذكاء الاصطناعي على الصور فهل تنقذنا من التزييف؟

نشرها معهد ماساتشوستس وتعطل بشكل فعال قدرة النموذج التوليدي على التلاعب

التقنيات المدعومة بالذكاء الاصطناعي تهدد بتشويه الصور (آن سبلاش)

ملخص

هل أصبحت صورنا اليوم عرضة بشكل أسهل للتلاعب والاستخدام المسيء؟

لطالما كان تحميل الصور من شبكة الإنترنت والتعديل عليها ممكناً وفي متناول يد الغالبية ممن يملكون بعض المهارات في التعامل مع برامج التعديل على الصور، لكن ظلت إمكانية كشف هذا النوع من التدخل ممكنة طوال الوقت، نظراً إلى أن البرامج تعمل على بيكسلات الصور (وحدة البناء) مباشرة بأدوات بسيطة وبعين إنسان يعاين الصورة من وراء شاشة، باستخدام مجموعة تقنيات وفلاتر بسيطة.

أما اليوم، في ضوء إتاحة بعض التقنيات المدعومة بالذكاء الاصطناعي التوليدي للعامة، أصبح الموضوع مختلفاً تماماً، فنحن أمام آلة تتحكم بعمق في نوع التعديلات ودرجتها بدقة فائقة تكاد لا نميز معها بين المعدلة والأصل، إذ تعاين نماذج الذكاء الاصطناعي الصورة بشكل مختلف عن الطريقة المتبعة من قبل البشر، وتراها كمجموعة معقدة من نقاط البيانات الرياضية التي تصف لون كل بكسل وموضعه، وهذا ما يسمى "التمثيل الكامن للصورة latent representation".

وانطلاقاً من هنا بدأ شبح إساءة الاستخدام يلوح في الأفق، مع مخاوف متزايدة من طمس الحد الفاصل بين الواقع والتلفيق.

صور فائقة الواقعية

وبوجود نماذج توليدية متقدمة على شاكلة دال-إي  DALL-E وميدجورني Midjourney، تتميز بدقة مذهلة وواجهة سهلة الاستخدام، أصبح إنتاج صور فائقة الواقعية أمراً يسيراً نسبياً، ومع التسهيلات الحالية أصبح بإمكان حتى المستخدم غير المتمرس إنشاء صور عالية الجودة ومعالجتها باستخدام أوصاف نصية بسيطة والحصول على نتائج تبدأ بتعديلات بسيطة للصور تصل إلى تغييرات كبيرة لحد الإساءة.

وفي حين تشكل تقنيات مثل وضع علامة مائية لدمغ الصورة باسم البرنامج الذي تم التعديل بواسطته، حلاً واعداً، إلا أن إساءة الاستخدام تتطلب إجراء وقائياً أشد تأثيراً يبدأ من الصور نفسها ولا يقتصر على المرحلة اللاحقة للتلاعب، أي يستهدف الصور قبل التعديل وليس بعده.

وفي إطار السعي لإنشاء مثل هذا الإجراء، طور باحثون من مختبر علوم الكمبيوتر والذكاء الاصطناعي CSAIL التابع لمعهد "ماساتشوستس" للتكنولوجيا تقنية تخدم هذا الغرض بشكل جيد، والهدف منع التعديل غير المصرح به وتحصين الصور لجعلها مقاومة للتلاعب من قبل النماذج.

تقنية لإيقاف التلاعب

ونشر موقع معهد "ماساتشوستس" مقالة أواخر يوليو (تموز) الماضي، أعلن من خلالها تطوير برنامج "فوتو غارد" PhotoGuard، وهو عبارة عن أداة بإمكانها حماية الصور من التلاعب باستخدام الذكاء الاصطناعي، من خلال استخدام ما يسمى التشويش perturbations وهي تعديلات طفيفة في قيم البيكسل غير مرئية للعين البشرية، لكن يمكن اكتشافها بواسطة نماذج الكمبيوتر، الأمر الذي يعطل بشكل فعال قدرة النموذج التوليدي على معالجة الصورة والتلاعب بها.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

ويستخدم "فوتو غارد" طريقتين مختلفتين من الهجوم لتوليد هذه التشويشات، الأولى وهي الطريقة الأبسط تسمى (هجوم التشفير encoder attack) وتستهدف التمثيل الرياضي الكامن للصورة ضمن نموذج الذكاء الاصطناعي، وتجري تعديلات طفيفة ودقيقة جداً لدرجة أنها غير مرئية للعين البشرية، إلا أنها تغير طريقة إدراك النموذج للصورة ليراه ككيان عشوائي، ونتيجة لذلك تصبح أي محاولة لمعالجة الصورة باستخدام النموذج عملية شبه مستحيلة، بالتالي تحافظ هذه الطريقة على السلامة البصرية للصورة مع ضمان حمايتها.

أما الثانية (هجوم الانتشار) وهي أكثر تعقيداً، إذ تعمل بشكل استراتيجي على تحديد الصورة المستهدفة وتحسن التشويش لجعل الصورة النهائية المنشأة تشبه الهدف قدر الإمكان.

إساءة استخدام

وتزيد الطبيعة السريعة لسلوكيات التلاعب من تعقيد المشكلة، فغالباً ما يكون الضرر (سواء تعلق بالسمعة أو بالناحية العاطفية أو المالية) قد حدث بالفعل، حتى بعد الكشف عن الخداع في نهاية الأمر.

وقد تتعدد احتمالات وغايات الخداع لتصل إلى إمكانية النشر الاحتيالي لأحداث كارثية كاذبة مثل الترويج لانفجار في معلم مهم، حيث يمكن لهذا النوع من الخداع التلاعب باتجاهات السوق والمشاعر العامة، لكن المخاطر لا تقتصر على المجال العام، إذ يمكن حتى لتغيير الصور الشخصية واستخدامها بشكل غير لائق بهدف الابتزاز التسبب بأذى كبير، وفي السيناريوهات الأكثر تطرفاً، يمكن لهذه النماذج محاكاة الأصوات والصور لارتكاب جرائم مختلقة، والتسبب في ضغوط نفسية وخسارة مالية.

ويقول ألكسندر مادري الأستاذ في معهد "ماساتشوستس" للتكنولوجيا في EECS الباحث الرئيس في CSAIL، وهو أيضاً مؤلف مشارك في الورقة البحثية الخاصة بالتقنية، إن "التقدم الذي نشهده في الذكاء الاصطناعي مذهل حقاً، لكنه يتيح استخدامه بطرق مفيدة وخبيثة على حد سواء، لذا فمن الملح العمل على تحديد وتخفيف الحالة الثانية".

ويرى ألكسندر أن "(فوتو غارد) يعد إسهاماً صغيراً في هذا المسعى المهم، لكنه ليس حلاً سحرياً، فبمجرد أن تصبح الصورة على الإنترنت يمكن لذوي النوايا الخبيثة محاولة إجراء هندسة عكسية للإجراءات الوقائية من طريق تطبيق التشويش أو الاقتصاص أو تدوير الصورة، وهنا يبقى الرهان على تعاون جهات عدة في هذا المسعى للوصول إلى آلية واضحة للحماية".

اقرأ المزيد

المزيد من منوعات