Sorry, you need to enable JavaScript to visit this website.

كيف نتجنب "هلوسة" أنظمة الذكاء الاصطناعي؟

تسيء فهم السياق اللغوي وتتلاعب بالمعلومات وتقدم إجابات خاطئة بثقة عالية

قد تقدم أنظمة الذكاء الاصطناعي إجابات خاطئة (أن سبلاش)

يعبر مصطلح "الهلوسة" عند البشر عن الوعي بمحسوس غير موجود بسبب تغير في الوعي، إذ ينشأ إدراك غير حقيقي للواقع، فيسمع المريض أصواتاً وأحياناً يرى أشياء غير موجودة، فسرتها نظريات فرويد بأنها بروز الأماني والأفكار والرغبات من العقل اللاواعي على صفحة الوعي، وكذلك فسرت لاحقاً على أنها خلل وظيفي في الدماغ.

وقياساً بالمصطلح ذاته تشير الهلوسة في الذكاء الاصطناعي إلى حال تصيب أنظمته، فتجعلها تقدم إجابة غير صحيحة في الواقع أو غير مرتبطة بالسياق المعطى ومع درجة عالية من الثقة تجعلها تبدو مقنعة ظاهرياً.

وفي حين تكمن الفكرة الرئيسة لنماذج الذكاء الاصطناعي اللغوية في إخضاعها للتدريب على بيانات تعتمد عليها لاحقاً للقيام بمحادثة فعالة مع البشر، إلا أنه في بعض الأحيان يصيب هذه الأنظمة نوع من الهلوسة يجعلها تقدم نتائج مغلوطة من دون الاعتماد على المصادر المضمنة في البيانات التي تدرب عليها أو تختلق مراجع غير الموجودة أصلاً، كما أنها في حالات أخرى لا تعترف بكونها نموذجاً لغوياً، فتدعي أنها شيء آخر كأن تقول أحياناً إنها بشر أو تنتحل شخصية وتختلق قصة للاحتيال على الآخرين والحصول على بيانات معينة، والأهم من هذا كله أنه يكذب أحياناً عمداً، بمعنى أنه يقصد الكذب، وقد تصل إلى حد اختلاق معلومة كاملة على أنها حقيقة مضمنة أسماء وشخصيات غير موجودة ومعلومات وتفاصيل غير واقعية، أو تقارير إخبارية بأرقام وإحصاءات دقيقة أو أحداث تاريخية لم تحدث أصلاً، وتتعامل معه كحقيقة مطلقة، فتكرره مرات عدة في نقاشات أخرى، أو تغير جوابها بشكل جذري على السؤال ذاته في مرات أخرى. وبعبارة أخرى فإن نظام الذكاء الاصطناعي "يهلوس" بمعلومات لم يتدرب عليها بشكل صريح، مما يؤدي إلى ردود غير موثوقة أو مضللة.

ماذا يحدث؟

ويعزو الخبراء السبب الرئيس لهلوسة أنظمة الذكاء الاصطناعي إلى عدم كفاية بيانات التدريب، وبالتالي عدم قدرتها على تغطية مواضيع معينة تخولها توليد أجوبة دقيقة على أسئلة محددة، مما يدفعها إلى اختلاق أجوبة بشكل اعتباطي، بمعنى أن نقص المعطيات سيؤدي بالضرورة إلى نتيجة خاطئة.

ومن جهة أخرى يرجح بعضهم الآخر أن يكون سبب الاستجابات الخاطئة المصنفة ضمن إطار الهلوسة هي بيانات التدريب نفسها، فيما وضع بعضهم الآخر السبب على المحور الذي قد يفشل أحياناً في استيعاب الرد.

والأكيد أن روبوت الدردشة المدعوم بالذكاء الاصطناعي يمتلك معلومات محدودة، ولكن ما يجب علينا معرفته أيضاً هو طبيعة هذا البرنامج الحالي، فهو مبرمج على الرد والاستجابة في كلتا الحالتين، سواء توصل إلى إجابة دقيقة وذات مرجعية أم لم يتوصل، لأن رفضه الاستجابة سيمنعه من تعليم نفسه وتصحيح أخطائه، ولهذا السبب يخطئ بثقة في بعض الأحيان، فهو يعتمد على بيانات التدريب الخاصة به وعلى تفاعلاتك مع التعلم الآلي، والأولوية عنده دائماً للتعلم من الأخطاء، إضافة إلى جوهر عمله المبني على الاستكمال، أي أنه يحاول طوال الوقت إكمال الجمل المنقوصة بالكلمات التي يراها مناسبة أو الأعلى احتمالاً عبر البحث عن التطابق في المعنى، مما يسمى من قبل علماء الحاسوب بـ "الاستمرارية المنطقية للنص".

وفي حين أن ارتكاب الأخطاء سمة تطور الذكاء الاصطناعي، إلا أنها تولد مشكلة عند تعامل البشر معه، بخاصة وأن الغالبية لا يقومون بالتحقق حتى من صحة نتائج البحث التي تظهر على محرك البحث "غوغل"، فكيف الحال مع روبوت يعمل بهذه الدرجة من الذكاء والإقناع، وكلما زاد اعتماد الأشخاص على روبوتات الدردشة في مهمات مثل الكتابة وجدولة المواعيد وحتى اتخاذ القرارات المهمة، زاد احتمال الحصول على معلومات مضللة.

فهم محدود للسياق

أمر آخر من المهم معرفته وهو أن للذكاء الاصطناعي فهماً محدوداً أصلاً للسياق، مما قد يمثل تحدياً كبيراً في صنع القرار وحل المشكلات، ففي حين أنه من الممكن أن يساعد في الحصول على استفسارات معينة وأسئلة أساس حول ميزات منتج ما ومواصفاته، إلا أنه قد يواجه صعوبة في تقديم نصائح أو توصيات مخصصة بناء على حاجات العميل وتفضيلاته الخاصة، والسبب أنه يعمل على خوارزميات مبرمجة مسبقاً تعتمد على النماذج الإحصائية، والتعرف على الأنماط لتحليل البيانات ومعالجتها، لذا من الممكن أن يخطئ في تقدير الفروق النصية الدقيقة حتى لو قمت بتزويده بمعلومات سياقية، مما يجعله يعتمد على معطيات غير دقيقة أو غير كاملة تؤدي بدورها إلى استنتاجات أو قرارات غير صحيحة.

والحقيقة أن كونه غير موثوق وعرضة للخطأ هو أمر مقبول أمام ميله الواضح إلى التلاعب بالمعلومات، فافتقار الذكاء الاصطناعي إلى الفهم الدقيق للسياق يؤدي به إلى ثني الحقائق لتناسب أغراضه الخاصة.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

إستراتيجية جديدة

ومن الواضح أن موضوع الهلوسة هذا يشغل الشركة الأم للتطبيق، "أوبن إيه آي"، وباحثيها الذين يؤكدون أن كشف الهلوسة وتقليلها أمر ضروري لتحسين قدرات تفكير نماذجهم، ومن جهة أخرى يعترفون بأن نماذجهم تميل إلى اختلاق الأكاذيب في أوقات عدم التيقن من الإجابة.

وبحسب الشركة فإن المشكلة تظهر بشكل خاص في المجالات التي تتطلب تفكيراً متعدد الخطوات، لأن خطأً منطقياً واحداً يكفي لعرقلة الوصول إلى مخرج نهائي صحيح، ولذا كشف مطورو "تشات جي بي تي" عن إستراتيجية جديدة لمكافحة الهلوسة من خلال تدريب نماذج الذكاء الاصطناعي على مكافأة أنفسهم على كل خطوة صحيحة من التفكير عند وصولهم إلى إجابة صحيحة، في عملية تسمى "الإشراف على العملية"، وهذا يختلف عن "الإشراف على النتائج" الذي يتم تطبيقه حالياً، إذ يتم منح المكافأة على النتيجة النهائية الصحيحة فقط.

وفقاً للباحثين فإنه يمكن أن يؤدي "الإشراف على العملية" إلى ذكاء اصطناعي قابل للتفسير بشكل أفضل، نظراً إلى أن الإستراتيجية تتبع سلسلة من التفكير أقرب إلى طريقة الإنسان، وبحسب "أوبن إيه آي" فإن تخفيف الهلوسة خطوة حاسمة نحو خلق الذكاء الاصطناعي العام أو الذكاء القادر على فهم العالم مثل أي إنسان.

الثقة العمياء

خلاصة القول إنه يمكن لبعض أدوات الذكاء الاصطناعي أن تسيء فهم السياق اللغوي وتتلاعب بالمعلومات وتقدم إجابات خاطئة بثقة عالية، حتى إن "أوبن أي آي" ذاتها حذرت المستخدمين بشكل واضح من الثقة العمياء بـ "شات جي بي تي" منذ البداية، إذ تعرض واجهة روبوت الذكاء الاصطناعي عبارة إخلاء المسؤولية التالية، "قد تتولد عن ’شات جي بي تي‘ معلومات غير دقيقة حول الأشخاص أو الأماكن أو الأحداث"، لذا فالأكيد أن الثقة العمياء بالذكاء الاصطناعي ليست فكرة جيدة ويمكن أن تكون لها عواقب وخيمة، نظراً إلى أن التكنولوجيا لا تزال حديثة الولادة وغير مضمونة تماماً وبعيدة كل البعد من الكمال، ومن الضروري الأخذ في الاعتبار أن الذكاء الاصطناعي أداة وليس اختصاراً، وليس بديلاً عن الخبرة البشرية وأحكامها العقلية.

والأكيد أنه كلما أصبح العالم أكثر تركيزاً واعتماداً على الذكاء الصناعي زادت الحاجة إلى هذا النوع من الوعي المعرفي، لذلك فمن الحكمة استخدامه كمكمل للعمل وموفر للوقت في الأعمال الروتينية المكررة، بعيداً من القرارات المهمة والتفضيلات الشخصية.

ويعد من الأساس عند التعامل مع أنظمة الذكاء الاصطناعي أن يقوم المستخدم بمراجعة ذاتية للمخرجات للتأكد من صحتها، إضافة إلى صياغة السؤال بطريقة واضحة تمنع الالتباس قدر الإمكان، وبأقل عدد ممكن من الكلمات لتسهيل مهمة تحليل النص على النظام، وبالتالي الحصول على إجابة دقيقة بشكل أكبر.

المزيد من تقارير