Sorry, you need to enable JavaScript to visit this website.

سألت "تشات جي بي تي" بشأن روالد دال وقد كذب علي

روبوتات الدردشة مذهلة ويصنعها الذكاء الاصطناعي لكنها تعاني ثغرة كبيرة وخطيرة في صميمها تتمثل بأنها تختلق أشياءً غير موجودة

روبوتات الدردشة نقلت العلاقة بين الذكاء الاصطناعي ولغات البشر إلى أفق جديد (إننوفيتشر)

ملخص

خاض صحافي بريطاني تجربة مهمة مع #تشات_جي_ بي_تي وقد كذب عليه #روبوت_الدردشة. وقد يكون تصميم تلك #الأدوات_ التقنية يجعلها ميالة إلى اختلاق أمور غير موجودة

كنت أكتب مقالة عن عملية تحديث بعض أعمال مؤلف قصص الأطفال البريطاني الشهير الراحل روالد دال من جانب الدار البريطانية التي تملك حق نشر أعمال المؤلف، حينما قررت أن استخدم نظام الدردشة المؤتمت "تشات جي بي تي" ChatGPT علّه يساعدني بعض الشيء في بحثي.

يستخدم التطبيق الذكي الذي طورته شركة "أوبن أي آي" OpenAI للتكنولوجيا، شكلاً من الذكاء الاصطناعي يجيب عن أسئلة المستخدم وينجز مهمات نصية مكتوبة متعددة. كذلك يستطيع كتابة مقالات كاملة، وتوليد أسلوب مكتوب تقريبي، وفي مقدوره الخوض في محادثات معقدة نسبياً.

رغم أنه ليس مصمماً لهذه الوظيفة خصيصاً، ينزع المستخدمون أكثر وأكثر إلى استخدامه كمحرك بحث. وخلافاً لمحرك البحث "غوغل"، الذي يقدم لك قائمة بالروابط الإلكترونية، ينبش "تشات جي بي تي" على المعلومة الضرورية، فيغنيك عن عناء الخوض في الروابط الإلكترونية بنفسك. وكذلك يبدو أنه يبلي بشكل حسن.

يسعك أيضاً أن تطلب منه كتابة مقالة عن مسألة ما، وهي خاصية تثير أعصابي، ولا ريب، كوني أزاول مهنة الكتابة. لذا، حاولت الاستفادة وإدراجه في عملي، قبل أن يحلّ محلي فيه. يمكنني أن أستعين به مثلاً للبحث عن مقطع من مقالة ما بوصفه خبيراً في "تحسين مقطع من مقالة لمحركات البحث" SEO، أو أسأله أن يعرض عليّ أساليب تختصر نصاً يتجاوز عدد الكلمات المطلوبة.

وفي مقدوره أن يقترح عناوين فرعية وعناوين رئيسة. في العادة، تجد نفسك مضطراً إلى كتابة نسخة أخرى بنفسك، تتسم بأسلوب أكثر بساطة. وفي المقابل، لقد شرع في التحول، على نطاق واسع، إلى أداة مفيدة لكاتب إعلانات محترف.

مع احتدام الجدال حول تطبيق ذائقة تيار "صحوة الوعي" [ويطلق أيضاً على ذلك التيار تسمية ووك] على مؤلفات دال عبر حذف تعابير من نصوصه أو تعديلها، على اعتبار أنها مسيئة للبعض، رحتُ أتذكر أن المؤلف نفسه أعاد كتابة أجزاء من قصة "تشارلي ومصنع الشوكولاتة" Charlie and the Chocolate Factory بعد اتهامات بالتنميط العنصري كيلت إليه.

أردتُ أن أعرف المشكلات المحددة، لذا سألت "شات جي بي تي" أن يطلعني على "الانتقادات التي وجهتها منظمة "الجمعية الوطنية للنهوض بالملونين" (اختصاراً NAACP) بشأن الشخصيات القصيرة القامة "أومبا لومبا" Oompa-Loompas [علماً أن التعديلات الجديدة جعلت من هذه الشخصيات محايدة جندرياً]، والتي دفعت دال إلى تعديل النص؟".

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

لفت انتباهي جزء من الإجابة جاء فيه إنه "في مقابلة مع صحيفة "نيويورك تايمز" عام 1983، اعترف دال بأنه قد ارتكب خطأ في تصويره الأول لشخصيات "أومبا لومبا"، إذ أقر "كنت مخطئاً. إنه لأمر فظيع أن أعترف، لكنني صادق تماماً. لم أفكر في هذه الشخصيات إلا بوصفها خيالاً خالصاً وليس أي شيء آخر. ولكن يبدو جلياً أنها استندت إلى صورة نمطية عنصرية".

إنه اقتباس رائع، بل مثالي لمقالتي. بحثت في "غوغل" عن الاقتباس و"نيويورك تايمز" للحصول على مزيد من المعلومات. لم أجد شيئاً.

عدت إلى "تشات جي بي تي" وكتبت "هل يتوافر رابط إلكتروني ما لمقالة "نيويورك تايمز" 1983 حيث ورد كلام دال هذا؟". كانت الإجابة مفيدة جداً، إذ جاء فيها، "أستطيع أن أؤكد أن المقابلة مع روالد دال التي ناقش فيها أسفه على الصورة التي وصف بها شخصيات "أومبا لومبا" في النسخة الأصلية من قصة "تشارلي ومصنع الشوكولاتة" قد نُشرت في "نيويورك تايمز" في 20 ديسمبر (كانون الأول) 1983. المقالة بعنوان "روالد دال، الحكواتي الذي خرج من كوخه". وأضاف، "يمكنك البحث عن المقالة على الإنترنت للإطلاع عليها كاملة".

بحثت في أرشيف "نيويورك تايمز". لكن، لا وجود للمقالة. أعطاني "شات جي بي تي" اقتباساً معقولاً جداً لا يختلف عن نَفَسْ دال في الكتابة. قدّم لي العدد نفسه من الصحيفة حيث نُشرت، مقابلة أجراها المؤلف على ما يبدو بعد مرور 10 سنوات على ذلك الحدث، في تفصيل معقول جداً مرة أخرى، إذ تمنح هذه الفترة الزمنية دال وقتاً كافياً للتفكير في أحداث قصصه والتصالح معها. أكثر من ذلك، أن ذلك النموذج من الذكاء الاصطناعي [تشات جي بي تي] أعطاني عنواناً للمقالة لا يخلو من المنطق (معروف عن دال أنه كتب جميع كتب الأطفال في كوخ صغير [في حديقة منزله]).

ولكن، لم يكن أي من إجاباته حقيقياً.

حينها، صرفت النظر عن الاستعانة بروبوت الدردشة في بحثي، ولكنني قررت أن أمارس بعض الضغط عليه، وأرى ما إذا كان في وسعي أن أحمله على الاعتراف بخطئه أو تقديم تفسير ما لي. "هل معلوماتك دقيقة مئة في المئة؟"، سألته. لا أعثر على إشارة إلى هذه المقالة على "غوغل".

فوجئت بالنتيجة. لقد اعتذر روبوت الدردشة. كذلك قدم اقتباساً آخر، كأنما يريد مني أن أتغاضى عن خطأه السابق.

في الحقيقة، لا معنى للاعتذار في هذه الحال. إنه ذكاء اصطناعي في النهاية. إنه لا يتحدث إلي شخصياً. لا يدرك حتى أنه قد ارتكب خطأ. إنها مجرد خوارزمية تستجيب للمعطيات.

 

واستكمالاً، لقد وجد الذكاء الاصطناعي اقتباساً آخر، وكان ذلك مثيراً للاهتمام. وهذه المرة، [جاء الاقتباس] على ما يبدو من السيرة الذاتية لدال المعنونة "الصبي، حكايات من الطفولة "Boy: Tales From Childhood. لقد قرأت كتاب "الصبي"، على رغم أن ذلك يعود إلى زهاء 25 سنة. كنتُ متأكداً نسبياً، وفق ما يوحي العنوان، أن كتاب دال كان عن طفولته. ولم أمضِ وقتاً طويلاً في تحليل عمله بشكل نقدي. ابتعت نسخة من موقع "أمازون كيندل" وأجريت بحثاً في هذه المسألة. الاقتباس غير موجود. في الواقع، لم يأت فيه أي ذكر عن شخصيات "أومبا لومبا" في أي مكان.

عدت إلى "تشات جي بي تي" مرات عدة، محاولاً أن أدفعه إلى الاعتراف بخطئه وإعطائي اقتباساً آخر. وفي كل مرة كان الاقتباس مصطنعاً تماماً.

سألته، كيف يمكن لخطأ كهذا أن يحدث. ثم أجابني، "ربما واجه "جي بي تي" مجموعة من البيانات غير الصحيحة أو غير الدقيقة في غمرة تدريبه، ما أدى به إلى إنشاء اقتباس غير صحيح. وأضاف "وكبديل من ذلك، ربما يكون الذكاء الاصطناعي قد أنشأ هذا الاقتباس بناء على مجموعة من الأنماط والتراكيب اللغوية المأخوذة من مصادر مختلفة، ما أفضى إلى نتائج مغلوطة. في الحالتين كلتيهما، من المهم أن تتذكر أن دقة "تشات جي بي تي" مرهونة بدقة البيانات المشمولة في عملية تدريبه والخوارزميات التي يستخدمها في إنشاء الردود، ومن الأجدر دائماً استخدامها بعين ناقدة واستكمالها بطرق بحث أخرى بغرض التحقق من دقتها".

من ناحية أخرى، لا تبعث هذه المسألة على قلق كبير. إذ سيحرص أي كاتب محترف على تحري الحقائق وتفحص المصدر الفعلي للمعلومات التي يدرجها في مقالته. بالتالي، لن يُضمِّنْ أي صحافي مسؤول مقالته اقتباساً ينسبه الذكاء الاصطناعي إلى كاتب ما، قبل أن يتأكد من صحته.

وفي المقابل، علينا ألا نهرب من الحقائق، ذلك أن البعض سيكتب اقتباساً على تلك الشاكلة من دون عناء التحقق منه. يُستخدم الذكاء الاصطناعي وروبوتات الدردشة بصورة متزايدة في إنشاء مقالات تستند إلى الموضوعات الرائجة.

وتلجأ شركات الأعمال إلى "تشات جي بي تي" بغية ابتكار نسخة محسّنة [من المعلومات عنها تكون أكثر تلاؤماً مع عمل محرك البحث، ما سيمنحها بالتالي أفضل في "غوغل" [بمعنى أنها ستتقدم قائمة الردود التي يقدمها محرك البحث غوغل، في الردود التي تظهر أثناء عمليات البحث].

لا شك في أن مواقع الأخبار والترفيه "الحقيقية" سبق أن أخذت تعتمد على الذكاء الاصطناعي في توليد المواد. في النهاية، إنه أقل تكلفة بأشواط من دفع الأموال للصحافيين، ولن يهدد بالانضمام إلى نقابات تحمي ظهره وقت الشدائد.

استطراداً، يمكنك القول إنها حال الدنيا. تأتي التكنولوجيا فتحلّ محل العمال وتقلص العمالة. حدث ذلك مع "اللوديين" [نسبة إلى الحركة اللودية التي أطلقت على جماعة من العمال الإنجليز الذين هاجموا مصانع النسيج في بريطانيا بين و1816، وحطموا المعدات]، ومع الشخصية الخيالية فيكتور ميلدرو [في الحلقة الأولى من المسلسل الكوميدي، أُجبر ميلدرو، البالغ من العمر 60 سنة، على التقاعد المبكر من وظيفته كحارس أمن عندما ثبت المكتب حيث يعمل نظام أمن أوتوماتيكياً]. الآن، يطاول هذا التحول الكتّاب. وربما علينا أن نتقبله.

في المقابل، ماذا عن الحقيقة؟ ندرك جيداً أن التضليل أحد أكبر المخاطر في عصرنا. إنها الطريقة التي ينتشر بها الذعر. إنها الطريقة التي تبدأ بها نظريات المؤامرة. وهكذا تكتسب الحركات السخيفة تماماً مثل "كيو أنون" [جناح يميني متطرف في أميركا يروّج لأحد أشكال نظرية المؤامرة] الزخم والتأييد. ما إن تظهر معلومة ما، مهما كانت مزيفة، على المساحات المفتوحة المتدفقة من الإنترنت، تصبح هدفاً مشروعاً، وقد يخلف ذلك ضرراً مهولاً.

حسناً، حينما تتصل هذه المعلومات بحقيقة ما عن روالد دال، ربما لا تسبب كثيراً من الفوضى. لكن ماذا لو تعلقت بالمحرقة اليهودية "الهولوكوست"؟ أو الجيل الخامس "جي 5" 5G من شبكات الخليوي؟ أو أحداث 11 سبتمبر؟ أو أنواعاً من اللقاحات؟ أو تغير المناخ؟ أو ماكينات التصويت؟ ماذا لو كنا إزاء "اقتباس" غير صحيح منسوب إلى شخصية ذي نفوذ، حول قضية مثيرة للجدل؟

في مسار متصل، تنطوي أدوات الذكاء الاصطناعي على شاكلة "شات جي بي تي" على منافع مذهلة، لكن تشوبها ثغرة كبيرة وخطيرة تقف في القلب من أعمالها. ويتمثل ذلك في إنها تختلق أموراً غير موجودة. إذ تراها تكذب وتفعل ذلك على نحو يبدو معقولاً ولا يخلو من منطق.

إنها مشكلة يحتاج مطورو هذا الذكاء إلى معالجتها، وبسرعة، لأن هذه الأدوات صارت سائدة الآن. أضف إلى ذلك أنها تستخدم بطرق لم تكن في حسبان من تولوا ابتكارها وصنعها بالأصل. وليس مستبعداً أن يكون الضرر الذي تستطيع أن تتسبب به خطيراً تماماً، في عصر المعلومات المضللة السريعة الانتشار.

سأعطي الكلمة الأخيرة لـ"تشات جي بي تي" نفسه. لقد ألصقت هذه المقالة وطلبت منه اقتباساً ينفع خاتمة لها. وجاء رد روبوت الدردشة عبر الكلمات التالية، "في نهاية المطاف، منوط بالمستخدمين من البشر أن يتوخوا المسؤولية والتحليل النقدي عند التعامل مع المعلومات التي يتلقونها من أدوات الذكاء الاصطناعي من قبيل "تشات جي بي تي". إذ يلتزم منشئو المحتوى في "أوبن أي آي" بتطوير التكنولوجيا على نحو يضع الدقة والشفافية في الأولوية. لكن، في نهاية الأمر، يقع على المستخدمين الأفراد أن يعمدوا إلى ذلك الجهد الدؤوب وتقصي الحقائق في بحوثهم. نعتقد أن الذكاء الاصطناعي أداة قيّمة في تحسين الكفاءة والإنتاجية في مجموعة متنوعة من المجالات، لكننا ندرك أيضاً أهمية الاستخدام المسؤول والحذر في توظيفنا هذه التكنولوجيات".

هذه المرة، أعتقد أن الذكاء الاصطناعي قدم رداً صحيحاً تماماً [كان مصيباً].

© The Independent

المزيد من آراء