ذكاء اصطناعي خطير جداً في الأسواق

يخشى الباحثون أن تستغلّه الجماعات المتطرّفة في ابتكار "بروباغندا آليّة" تُنشئ تلقائياً خطابات طويلة يستفيد منها العنصريّون في نشر أفكارهم

يخشى العلماء من سوء استخدام "الذكاء الاصطناعي" (إندبندنت)

أُطلِق ذكاء اصطناعيّ جديد في الأسواق على الرغم من أنّه كان يُعتبر في نظر مطوِّريه خطيراً جداً لدرجة لا يمكن طرحه للجمهور.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

كانت المخاوف تعتري الباحثين بشأن النموذج الذي يحمل اسم "جي. بي. تي- 2" على اعتبار أنّه يملك قدرات هائلة بحيث يمكن أن يُستخدم بشكل ضار من جانب أيّ شخص، بدءاً بالسياسيين وصولاً إلى المخادعين الذين ينشرون أخباراً مزيّفة بغية تضليل روّاد الإنترنت.

في الواقع، ابتكر المطوِّرون "جي. بي. تي- 2" لهدف واحد بسيط، إذ يستطيع هذا النموذج من الذكاء الاصطناعيّ، بعد تزويده بفقرة نصيّة مكتوبة، أن يتنبأ بالكلمات التالية التي يُفترض أن تُكمل النص حتى النهاية. وعبر اتباعه هذا النهج، يسعه إنشاء سلاسل طويلة من كتابات تتميّز بأنّها تشبه إلى حد كبير النصوص التي يكتبها البشر، بالتالي لا يمكن أن يكتشف المرء أنّها من ابتكار ذكاء اصطناعيّ.

ولكن اتّضح أنّ النموذج كان جيّداً على نحو مثير للقلق في أداء تلك الوظيفة، إذ في مقدوره استحداث نص فائق القوة يمكن استغلاله في خداع الناس، وقد يقوِّض الثقة في الكتابات التي نقرأها من أخبار وغيرها.

فضلاً عن ذلك، يمكن أن تستخدم الجماعات المتطرِّفة ذلك النموذج بشكل مؤذٍ فتستفيد منه في إنشاء "دعاية نصيّة من صنع الآلة"، تتيح لها تلقائياً كتابة خطابات أو مقالات طويلة تروِّج للفكر العنصريّ الذي ينادي بتفوّق العرق الأبيض أو تدعم الإسلاميين الجهاديين، على سبيل المثال.

في هذا الصدد، نشرت "أوبين أي. آي" مؤسسة البحوث غير الربحية المتخصِّصة في الذكاء الاصطناعيّ مدونة في فبراير (شباط) الماضي تزامناً مع الإعلان عن النموذج، وذكرت فيها آنذاك أنّ "مخاوفنا بشأن التطبيقات التكنولوجيّة الضارة تحتّم علينا ألا نصدر النموذج الذي خضع للتدريب اللازم. ولكن كتجربة لاكتشاف أيّ ثغرات، نصدر عوض ذلك نموذجاً مصغّراً يكون في متناول الباحثين بهدف تجربته، فضلاً عن ورقة تقنيّة."

فعلاً أصدرت المؤسسة آنذاك نسخة محدودة جداً فقط من تلك الأداة التكنولوجيّة التي استخدمت 124 مليون متغيِّر. ومنذ ذلك الحين، شرعت في إطلاق مزيد من النسخ الأكثر تعقيداً، إلى أن أتاحت الآن النسخة الكاملة.

في الحقيقة، تبدو النسخة الكاملة أكثر إقناعاً من النسخة المصغّرة، ولكن بصورة "هامشية" فحسب. في هذا المجال، ذكرت الشركة أنّ الزيادة المحدودة نسبيّاً في المصداقية كانت جزءاً من الأمور التي شجّعت الباحثين على إتاحة النموذج المصغّر في الأسواق.

وتأمل الشركة في أن يساعد النموذج الجمهور جزئيّاً في فهم كيف يمكن أن يُساء استخدام أداة كهذه، كذلك أن يُسهم في إثراء المناقشات بين الخبراء حول كيفيّة تخفيف وطأة هذا الخطر.

في فبراير (شباط) الماضي، ذكر الباحثون أنّ ثمة مجموعة متنوِّعة من الطرق يمكن أن يتكئ عليها المخادعون في استخدام البرنامج بطريقة تضرّ بالآخرين. من بين تلك الطرق، اللجوء إلى النص الذي يبتكره النموذج من أجل كتابة مقالات إخباريّة مضلِّلة، وانتحال صفة أشخاص آخرين، وإنشاء محتوى مسيء أو مزيف بشكل تلقائي على وسائل التواصل الاجتماعيّ، أو استخدام الذكاء الاصطناعيّ في إرسال رسائل غير مرغوب فيها إلى الناس... إلى جانب مجموعة متنوِّعة من الاستخدامات المحتملة التي ربما لم يكن يتصوّرها أحد.

كذلك قالوا إن مثل تلك الاستخدامات المسيئة ستتطلّب من الجمهور أن يكون أكثر حذراً وانتقاداً بشأن النص الذي يقرأه عبر الإنترنت، إذ يُحتمل أن يكون من صنع الذكاء الاصطناعيّ.

وكتب الباحثون أنّ "تلك الاستنتاجات مضافةً إلى النتائج السابقة المتعلّقة بالصور والتسجيلات الصوتيّة والفيديوهات الاصطناعيّة، تعني أن التقنيات تخفض تكلفة إنشاء محتوى مزيّف وشنّ حملات مضلِّلة. في مواجهة ذلك، سيتعين على الجمهور عموماً أن يصبح أكثر تردّداً في تصديق النص الذي يطالعه عبر الإنترنت، تماماً كما تستدعي ظاهرة "التزييف العميق" (deep fakes) مزيداً من الشكوك حول اللقطات".

علاوة على ذلك، ذكر الباحثون أنّ على الخبراء أن يجتهدوا لمعرفة "كيف يمكن للبحوث المتعلِّقة بتوليد صور ومقاطع فيديو وتسجيلات صوتيّة ونصوص اصطناعيّة أن تتضافر في سبيل إطلاق العنان لقدرات جديدة غير متوقّعة بعد تشتمل عليها تلك العناصر الفاعلة، ويتوجّب عليهم السعي إلى إيجاد تدابير تقنيّة وغير تقنيّة مضادّة".

© The Independent

المزيد من علوم