Sorry, you need to enable JavaScript to visit this website.

ذكاء اصطناعي شرير... مصاب بالهلاوس يخطئ ويصيب

هاجم روبوت مجموعة من المبرمجين في مصنع بالصين وهربوا خوفاً منه

تحمل الهندسة الجينية والهواتف الذكية والتطبيقات ووسائل الترفيه الحديثة مكونات تعتمد على الذكاء الاصطناعي (رويترز)

ملخص

عبر كثر عن مخاوفهم جراء "الهجمات المتزايدة" من قبل الروبوتات على البشر، وهي مخاوف دراماتيكية قادرة على التأثير في الجماهير، وعلى رغم أنها أخطاء نتيجة عطل أو ما شابه، فإنها تخاطب خيالاً بشرياً مشبعاً بأفلام الخيال العلمي التي تهاجم فيها الروبوتات البشر وتسيطر على العالم.

يخطئ ويصيب، يخفق ويبدع، يعرقل ويساعد. محبوه ومؤيدوه ومستخدموه والمؤمنون به يغفرون ما تقدم من إخفاقاته وما قد يتأخر، ولِمَ لا وهو تقنية حديثة ما زالت تخطو أولى خطواتها، أو بالأحرى تركض أولى ركضاتها، في عوالم البشرية؟! أما المتشككون والمُتريِّبون والمتخوفون، فلا يرون سوى الإخفاقات، ولا يعتدون إلا بالأخطار التي قد تطرحها الأخطاء.

واقع الحال يشير إلى أن الذكاء الاصطناعي لا يتبوأ فقط المكانة الأبرز على قائمة أهم ابتكارات القرنين الـ20 والـ21، لكن غالب أهم ابتكارات القرن الحالي قائمة في تصنيعها على الذكاء الاصطناعي. استخدامات طبية وعملات رقمية ومركبات ذاتية القيادة وأعضاء بشرية مصنوعة بالذكاء الاصطناعي. كما أن الهندسة الجينية والهواتف الذكية والتطبيقات ووسائل الترفيه الحديثة وغيرها تحمل مكونات تعتمد على الذكاء الاصطناعي ولا تستوي أمورها من دونه.

وعلى رغم ذلك يشهد العالم أحداثاً وحوادث بعضها مفجع، والبعض الآخر مضحك، يتسبب فيها الذكاء الاصطناعي، ولكن بحسن نية. بمعنى آخر، الذكاء الاصطناعي ليس شريراً بالفطرة، لكن قد يصبح كذلك بسبب عيوب أو أخطاء أو هفوات واردة الحدوث، أو يدفعه مبتكروه من البشر نحو الشر، بينما هو لا حول له أو قوة.

حتى مصطلح "الذكاء الاصطناعي الشرير" يشير إلى ما قد يتسبب فيه المحتوى الذي يخرج به، والذي يتسبب في مشكلات أخلاقية واجتماعية وعملية ونفسية، وذلك بسبب تحيزات في الخوارزميات أو قاعدة المعلومات والمعارف التي يعتمد عليها في تخليق المحتوى. وحتى هذا النوع من "الشر" ينأى بالذكاء الاصطناعي نفسه عن نية اقتراف الأخطاء، وإن وقع فيها لعوار في خوارزم أو نقص في أدوات لغة أو قصور في بيانات.

أما شرور الأخطاء المدمرة للسمعة، والكوارث الهادمة للأعمال، والهجمات غير المبررة، فتبقى نقطة سوداء، ولو موقتة، في مسيرة الذكاء الاصطناعي في طريقة للهيمنة على الكوكب وسكانه.

الروبوت المهاجم

قبل أيام هاجم روبوت مجموعة من المبرمجين في مصنع في الصين. خرج الروبوت عن السيطرة، وفي أقوال أخرى خرج عن شعوره، وفوجئ المبرمجون الذين كانوا يجرون اختبارات على الروبوت البشري به، بعدما علقوه بسلاسل ليزودوه بباقي التقنيات، وقد بدأ يحرك ذراعيه ويتحرك بصورة عشوائية ويركض تجاههم، ما بدا وكأنه يهاجمهم. هرب المبرمجون خوفاً من غضب الروبوت، وظلوا مختبئين إلى أن تشجع أحدهم وثبت ذراعي الروبوت وأوقف تشغيله.

يبقى سبب الهجوم غير محدد أو مؤكد، لكن اختصاصيين أشاروا إلى أن الروبوت مزود بخوارزمية تمكنه من استعادة توازنه حال سقوطه. ويبدو أن الخوارزمية عملت فجأةً، ولأنه كان معلقاً بسلاسل وليس واقفاً على الأرض، فقد أتى بحركات عشوائية بدت وكأنه يهاجم المبرمجين.

 

 

قبلها بأسابيع تعرضت سيدة مسنة كانت تقف ضمن حشد من الناس في احتفال في مدينة تايشان الصينية لهجوم من روبوت اخترق الحاجز الحديدي وانقض عليها وكاد يضربها برأسه. الغريب أن الروبوت من النوع نفسه الذي هاجم المبرمجين، وهو موديل "أتش وان" الذي تنتجه شركة "يونيتري".

آلات تهاجم البشر

عبر كثر عن مخاوفهم جراء "الهجمات المتزايدة" من قبل الروبوتات على البشر، وهي مخاوف دراماتيكية قادرة على التأثير في الجماهير. فمن جهة تثير هذه الهجمات - الناجمة عن أخطاء تقنية أو عمل خوارزميات في غير وقتها خيال البشرية المشبع بأفلام الخيال العلمي التي تهاجم فيها الروبوتات البشر وتسيطر على العالم. ومن جهة أخرى تتحول الهجمات إلى حروب تجارية بين الشركات المصنعة والمطورة لهذه التقنيات المعتمدة على الذكاء الاصطناعي وبعضها بعضاً.

مئات الـ"ناغتس"

الروبوت ليس وحده المتهم في حوادث الذكاء الاصطناعي. الأعطال الفنية التي يعتقد البعض أنها لا تعرف طريقاً إلى الذكاء الاصطناعي تسللت بالفعل إليه. قبل عام قررت سلسلة محال "ماكدونالدز" إنهاء التعاون مع شركة "آي بي أم"، حيث الاعتماد على الذكاء الاصطناعي في تلقي طلبات العملاء عبر خدمة الطلب من السيارة. جاء قرار الإلغاء عقب انتشار فيروسي لمقاطع فيديو على "تيك توك" لعملاء في أحد أفرع المحل في شيكاغو وهم يبذلون جهوداً قصوى لوقف تضاعف طلبات "ناغتس الدجاج" التي ظل تطبيق الذكاء الاصطناعي يضاعفها للعميل الواحد حتى بلغت للشخص الواحد نحو 260 قطعة. تراوحت ردود فعل العملاء الذين أظهروا في البداية سعادة واهتماماً لخوض تجربة الطلب عبر الذكاء الاصطناعي وهم قابعون في سياراتهم بعد تلال قطع الدجاج المتراكمة في الطلب الواحد بين الإحباط والقلق والغضب.

وإذا كان تطبيق الذكاء الاصطناعي قرر بسبب عطل فني مضاعفة عدد قطع الدجاج وإغضاب العملاء، فقد ظل الغضب محدوداً، لعلم الزبائن أنهم يتعاملون مع تطبيق لا قلب أو عقل أو صوت له. أما جهود المطورين للتقريب العاطفي بين البشر والذكاء الاصطناعي، ومحاولات كسر جليد التعامل مع آلة أو تطبيق، فتؤدي إلى رفع سقف التوقعات، وهو السقف الذي انهار على رؤوس الجميع في أحد أشهر إخفاقات تقنية العصر الأحدث.

روبوت مسؤول عن أفعاله

في عام 2022 أخبر روبوت الدردشة أو المساعد الذكي التابع لشركة "آير كندا" أحد الركاب أن في استطاعته أن يحجز رحلة طيران بسعر كامل لحضور جنازة جدته، على أن تسدد له الشركة جزءاً من قيمة التذكرة بعد عودته مستفيداً من "خصم الموت والجنازات". ما حدث هو أن روبوت الدردشة لم يكن دقيقاً في تحليل المعلومات. سياسة الشركة تسمح بنسبة خصم على التذاكر التي يشتريها العملاء لأسباب تتعلق بموت فرد من الأسرة أو ما شابه، بشرط أن يتقدم بالتذكرة قبل السفر، وليس بعد انتهاء الرحلة.

قرر الراكب أن يقاضي الشركة، لا سيما أن روبوت الدردشة "موظفاً" افتراضياً لديها، وهو ما رفضته الشركة، مؤكدة أن الروبوت "كيان قانوني منفصل مسؤول عن أفعاله"!

 

 

أثارت الواقعة تكهنات ومخاوف حول حدود المسؤولية بين البشر والذكاء الاصطناعي. حين يخطئ البشر يجري التحقيق ومعاقبة من يثبت خطؤه. أما الذكاء الاصطناعي، فحين يخطئ مع البشر، من يحاسب؟!

يخطئ روبوت الدردشة في قراءة المعلومات وتحليلها، وتضل المسؤولية طريقها لتحديد "من الجاني"! هل هو الروبوت أم المؤسسة التي ينتمي إليها أم المبرمج الذي زوده بالخوارزميات أم المهندس الذي بناه أم مسؤول التسويق الذي باعه وروج له، أم المستخدم أو العميل الذي وثق فيه؟!

بنات أفكار التطبيق

مسؤولية من نوع آخر طرحت نفسها قبل أيام قليلة لتكون مثار نقاش، لا سيما في ظل تعاظم احتمالات تكرارها، من دون شرط اكتشاف أمرها. واعترفت صحيفة "شيكاغو صن تايمز" الأميركية بأن قائمة الكتب الصيفية المقترحة من قبل محرر ثقافي تضمنت كتباً لا وجود لها في الواقع. وأقرت الصحيفة بأن المحرر استعان بالذكاء الاصطناعي ليخرج له بقائمة الكتب الأفضل أو الأنسب للقراءات الصيفية، فخرج جزء من القائمة من وحي خيال الذكاء الاصطناعي.

التشخيص الأولي لما جرى كان "هلوسة". هلوسة الذكاء الاصطناعي كما تعرفها شركة "آي بي أم" هي ظاهرة تحدث حين يرى النموذج اللغوي الكبير (أل أل أم)، والذي يكون عادة روبوت دردشة مدعوماً بالذكاء الاصطناعي التوليدي أو يُهيَّأ له أنه يرى، أنماطاً أو كائنات غير موجودة أو غير مرئية للمراقبين البشريين، فينشئ مخرجات غير منطقية أو غير صحيحة.

وحين يطلب المستخدم من أداة الذكاء الاصطناعي التوليدي طلباً ما، تكون الأولوية تقديم مخرج يتناسب مع الطلب، أي تقديم إجابة صحيحة عن السؤال، لكن في بعض الأحيان، تنتج الخوارزميات مخرجات لا تتناسب وبيانات التدريب، أو تفسرها بصورة غير صحيحة أو غير دقيقة، أو لا تتبع نمطاً بعينه يمكن التعرف إليه. وتخلص "آي بي أم" إلى أنه في حالات كتلك، "يهلوس" الذكاء الاصطناعي في الرد.

هلوسة في المحكمة

الذكاء الاصطناعي قد "يهلوس" في الرد على سؤال أو بحث، وقد يهلوس أيضاً في قاعات المحاكم أمام هيئة المحكمة والمحلفين والحضور. يبدو الحديث عن ذكاء اصطناعي في قاعة المحكمة، وفي إطار تبرئة أو عقوبة شخص أو أشخاص في حد ذاته هلوسة، لكنه ليس كذلك.

 المحكمة العليا في بريطانيا طلبت قبل أيام من كبار المحامين اتخاذ إجراءات عاجلة لمنع إساءة استخدام الذكاء الاصطناعي في قاعات المحاكم. ويبدو أن لجوء المحامين إلى أدوات الذكاء الاصطناعي لتساعدهم في بناء حججهم القانونية واستشهاداتهم القضائية قد زاد على الحد، ووصل إلى درجة اكتشاف العشرات من الاستشهادات القضائية المزيفة التي جرى عرضها أمام المحاكم، واتضح فيما بعد زيفها وارتكازها على وهم كامل، أو في الأقل احتواؤها على فقرات من بنات أفكار الذكاء الاصطناعي من دون سند حقيقي أو حدث واقعي.

 

 

وتشير تقارير صحافية بريطانية إلى أن المدعين في دعوى تعويضات بقيمة 89 مليون جنيه استرليني (120.6 مليون دولار) ضد بنك عربي قدموا 45 استشهاداً قضائياً، بينها 18 قضية وهمية، إضافة إلى اقتباسات في استشهادات أخرى مبنية على زيف وخيال.

بعد بحثٍ وتقصٍّ وتأكد، اعترف المدعي باستخدام أدوات الذكاء الاصطناعي لبناء مرافعة كاملة، تشمل استشهادات مقنعة، لكن اتضح أن بعضها من خيال محض، هو خيال الذكاء الاصطناعي.

هلاوس الذكاء

قضايا وهمية، وحوادث لم تقع، ومجريات تقاض واستماع وحكم لم تحدث مجرد نقطة في بحر من تغلغل الذكاء الاصطناعي من دون قيد أو شرط، وبلا مراجعة أو رقابة في مهنة يفترض أنها قائمة على العدالة، وبعيدة كل البعد من الهلاوس، لا سيما هلاوس الذكاء الاصطناعي.

عذر أقبح من ذنب، وتبرير أبشع من إقرار هو ذلك الذي تفوه به المحامي بعد مواجهته بأدلة اعتماده على الذكاء الاصطناعي في مرافعته وحججه وبراهينه. قال، "لم أكن أعلم أن محتواها قد يكون خاطئاً"!

وقبل أيام، وفي أروقة المحاكم أيضاً، ولكن في أميركا، عاقبت محكمة استئناف "يوتا" محامياً بعدما اكتشفت اعتماده على تطبيق "تشات جي بي تي" في إعداد ملف قدمه إلى المحكمة. ويشير في الملف إلى قضية وهمية ابتكرها "تشات جي بي تي"، ولم يخبره أنها رواية خيالية، لا قضية حقيقية.

هيئة المحكمة بحثت عن القضية في الأرشيف والملفات، ولم تعثر على أية إشارة أو دليل يؤكد أنه كانت هناك قضية في هذا الشأن، أو بهذه الأسماء، أو لهذا الغرض من قبل.

القضية الأصلية تتعلق بشخص يقاضي شركة طيران يقول إنها تسببت في إصابته. محاموه بحثوا على "تشات جي بي تي" عن قضايا سابقة شبيهة، وذلك لتضمينها الملف، والاستشهاد بها لتعزيز موقف الموكل... "تشات جي بي تي" خرج لهم بقضية مشابهة، والمشكلة الوحيدة، إنها محض خيال، وهذا ما اكتشفه وأثبته دفاع الشركة الذي بحث ولم يجد أثراً للقضية المشار إليها. المحامي اعتذر، وقال إنه لم يكن يعلم أن الذكاء الاصطناعي يبتدع من دون أن يطلب منه، أو يهلوس من دون أن يعلن عن ذلك.

التطبيق أقصى المستحقين

الذكاء الاصطناعي لا يهلوس فحسب، ولكنه قد يشتُّ أو يضلُّ أو يقترف أخطاءً قاتلة. ففي عام 2019 كُشف الستار عما أطلق عليه "فضيحة إعانات رعاية الأطفال" في هولندا، وهي الفضيحة التي تسبب فيها الذكاء الاصطناعي، من دون قصد بالضرورة، ولكن عن إهمال أو تقصير أو نقص رقابة ومتابعة.

في ذلك العام قالت السلطات الهولندية إنها اعتمدت على خوارزمية ذاتية التعلم لإنشاء ملفات تعريف الأخطار، وذلك ضمن إجراء لها لكشف عمليات الاحتيال التي يلجأ إليها البعض للحصول على إعانات لا يستحقونها تحت بند "رعاية الأطفال".

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

اعتماداً على هذه الخوارزميات حرمت عشرات الآلاف من العائلات المستحقة والمندرجة تحت بند الأكثر فقراً والأشد احتياجاً من مستحقات مالية تخصصها الحكومة الهولندية لهم. نسبة كبيرة من هذه العائلات كانت الأقليات العرقية، ومنها من كان يعاني الفقر والعوز، فوجد نفسه يواجه ديوناً باهظة إضافية بعد ما أدت الخوارزمية التي اتخذت قرار عدم استحقاقهم إلى مطالبتهم بسداد أموال ضرائب كانوا معفين منها لأنهم كانوا من الفئات المستحقة للمساعدات. وبحسب التقارير الصحافية في ذلك الوقت، انتحر البعض، وجرى وضع ما يزيد على ألف طفل في دور رعاية بعد ما عجز ذووهم عن الإنفاق عليهم.

عوار في الخوارزمية

أخفق الذكاء الاصطناعي في تحديد المستحقين أو غير المستحقين بسبب عوار في الخوارزمية التي استخدمت في دولة، ولكن ماذا عن باقي الدول الآخذة في الزيادة، والتي تركض نحو أتمتة أنظمتها لتهيمن عليها الذكاء الاصطناعي في التصنيف والتعريف والتفعيل، ومن ثم تحديد مصائر الملايين، وذلك قبل الوصول إلى سبل مأمونة أو ضمانات يعتمد عليها حتى لا يظلم أحد، وإن ظُلم، يجد قنوات وأدوات تعيد حقوقه؟ وماذا عن وضع قوانين تحدُّ من الأضرار الخوارزمية؟ وهل هناك قوانين قادرة على الحد من أخطارها بالفعل؟

إجابات المتخصصين تجمع على إجابة السؤال الأخير بالنفي. لا توجد قوانين تضمن الحد من أخطار الخوارزميات حين يتعلق الأمر بقرارات جماعية، لا سيما تلك المرتكزة على التنبؤ بالجرائم أو النصب والاحتيال. التوصية الأكثر واقعية ومنطقية في أعقاب فضيحة رعاية الأطفال في هولندا كانت حظر الاعتماد على الذكاء الاصطناعي في التنبؤ بالاحتيال والنصب، حيث التنبؤ يكون قائماً على التنميط. في هذه الحالة، كانت الأقليات، وأولئك الذين يحملون جنسيتين هم الأكثر عرضة للحرمان من مساعدات رعاية الأطفال.

تنميط "ذكي"

التنميط الذي يعتمد عليه جانب من خوارزميات الذكاء الاصطناعي لا يبتعد كثيراً من العنصرية. دراسات عدة تتطرق في السنوات القليلة الماضية إلى أخطار العنصرية لدى الاعتماد على الذكاء الاصطناعي. تشير دراسة عنوانها "الذكاء الاصطناعي يولد قرارات عنصرية خفية حول الأشخاص بناءً على لهجاتهم" والمنشورة في دورية "ناتشير" عام 2024 إلى أن مئات الملايين من الأشخاص يتفاعلون مع نماذج اللغة، ويستخدمونها للمساعدة على الكتابة والإرشادات والقرارات الخاصة بالوظائف.

وعلى رغم ذلك يرسخ كثير من هذه النماذج العنصرية، مما يجعل أحكامها متحيزة ضد مجموعات بعينها، مثل الأميركيين من أصول أفريقية. وتشير الدراسة إلى أن هناك تحيزات بناءً على اللهجة، إذ تظهر صور نمطية لغوية عرقية عن المتحدثين باللغة الإنجليزية بلهجة الأميركيين من أصول أفريقية. هؤلاء يجري تنميطهم باعتبارهم الأكثر حصولاً على وظائف أقل مكانة، والأكثر إدانة في الجرائم، والأكثر حصولاً على أحكام بالإعدام.

 

 

تنميط الذكاء الاصطناعي، وأحياناً ميل الخوارزميات إلى العنصرية، بناءً على ما لديها من نماذج لغوية أو قواعد معلومات وبيانات يبقى قيد حالات يجري اكتشافها، وإخضاعها للبحث والتنقيح بهدف التصحيح. أما حرمان مرضى من الخدمات والعلاج بناءً على عرقهم أو لونهم بإيعاز من الذكاء الاصطناعي، فهذا مفجع. عام 2019 كشفت دراسة منشورة في مجلة "ساينس" العلمية أن خوارزمية تستخدمها المستشفيات وشركات التأمين في أميركا لتحديد المرضى الذين يحتاجون إلى برامج إدارة الرعاية عالية الخطورة، مثل المصابين بالأمراض المزمنة، تجاهلت حاجات المرضى السود، وركزت على حاجات المرضى البيض.

مؤامرة الخوارزم!

المسألة لم تكن مؤامرة أو تفضيل عنصري من قبل الخوارزم، بل بسبب عوار في طريقة عمله. يعتمد الخوارزم على حساب الإنفاق على الرعاية الصحية كمؤشر لتحديد حاجات كل فرد. ولما كانت كلفة الرعاية الصحية للمرضى السود مساوية لكلفة البيض الأصحاء في الرعاية الصحية الاعتيادية التي يحصلون عليها، اعتبر الخوارزم المرضى السود أقل احتياجاً للرعاية الخاصة. بمعنى آخر، حصل المرضى السود على نسبة إنفاق ورعاية صحية أقل حتى عندما كانت حاجتهم لها أكبر.

يشار أن الرئيس الأميركي دونالد ترمب أصدر قراراً تنفيذياً قبل أسابيع ألغى بمقتضاه السياسات الحكومية التي اتبعتها إدارة الرئيس السابق جو بايدن في شأن الذكاء الاصطناعي، معتبراً إياها "حواجز أمام الابتكار الأميركي في مجال الذكاء الاصطناعي". وطالب ترمب بـ"تطوير أنظمة ذكاء اصطناعي خالية من التحيز الأيديولوجي والأجندات المبنية على أساس اجتماعي".

متخصصون في الذكاء الاصطناعي يرون القرار خطوة نحو تقليص أدوات التحقق من صحة المحتوى والقدرة على تتبع مصدره. كما يعكس تضاؤل الاهتمام الرسمي بتتبع المعلومات المضللة والتزييف العميق، ويشدد على مبادئ وقواعد "لنجعل أميركا عظيمة مجدداً". كما يتوقعون أن يفتح الإجراء الباب أمام الخوارزميات التي تميز على أساس الدخل والنوع والعرق وغيرها من العوامل الديموغرافية.

حوادث وكوارث وأخطاء

حوادث وكوارث وأزمات وأخطاء الذكاء الاصطناعي كثيرة. وهي إلى زيادة، لأن استخدامات الذكاء الاصطناعي تتوسع وتنتشر بينما نتحدث. أخطأ روبوت أطلقته "مايكروسوفت" عام 2016 بغرض التفاعل مع المراهقين، وبدلاً من أن يتعلم الروبوت بمرور الوقت ويغرد محتوى يفيد المراهقين بطريقة تناسب أعمارهم ولغتهم، إذ به يغرد بمحتوى غير لائق تماماً وأقل ما يمكن أن يوصف به هو "الخروج على الآداب والأعراف"، وذلك بعد ما غرقت خوارزمياته في بحر من المحتوى الرديء والخارج الذي يستخدمه الصغار. وجرى العمل على تحسين أداء الخوارزم.

"تسا" روبوت الدردشة الذي استعانت به مؤسسة تعمل من أجل التوعية من اضطرابات الأكل دأبت على تزويد المستخدمين الذين يواجهون مشكلات في تناول الطعام والوزن بمعلومات ونصائح لا أساس علمي لها، وبعضها جاء عكس المطلوب ما ألحق الضرر بكثيرين، قبل أن يكتشف أمرها. وجرى العمل على تصحيح أدائها.

تزييف وكراهية وفناء البشرية

قائمة كوارث الذكاء الاصطناعي طويلة. حوادث سير قاتلة ارتكبتها سيارات ذاتية القيادة، محو لقواعد معلومات تتعلق بمجرمي حرب بغرض حمايتهم من المساءلة، أخطاء محرجة في الترجمة جعلت البعض يسأل عن علاقات جنسية في بلد أجنبي بدلاً من اتجاهات الشوارع، ناهيك بالطبع عن الأخبار المفبركة والفيديوهات المصنوعة بالتزييف العميق والاستخدامات غير الأخلاقية للذكاء الاصطناعي في الحروب، ومحتوى الكراهية وغيرها مما أصبح آثاراً عكسية معروفة للذكاء الاصطناعي وجميعها قابل للتصحيح، أو هكذا يعتقد.

أما ما يقوله البعض من عرابي الذكاء الاصطناعي أنفسهم من أن دمار العالم على يد الذكاء الاصطناعي بات محتوماً، أو أن احتمالات وقوع البشر عبيداً في قبضة الذكاء الاصطناعي صار محتملاً، أو أن قوى الشر ستتحكم في الذكاء الاصطناعي وتهمين على باقي الكوكب وتقضي على من تريد بتأجيج صراعات وبدء مجاعات ونشر أوبئة بالذكاء الاصطناعي فيثير الحيرة ويطرح أسئلة حول جدوى الذكاء الاصطناعي إذا كانت هذه هي هواجس من أسهموا في نشأته أصلاً.

أحد أشهر عرابي الذكاء الاصطناعي وهو جوشوا بنجيو، والملقب بـ"الأب الروحي للذكاء الاصطناعي"، خرج على شاشة بي بي سي الإنجليزية قبل أيام مطمئناً الجموع الحاشدة بعد لقاء طويل سرد فيه طريقة تصرف الذكاء الاصطناعي حال تلقي تعليمات متضاربة، واضطراره للجوء إلى الكذب والخداع، وتنامي ذكاء الذكاء الاصطناعي لدرجة تفوق البشر بالتعلم، وتنامي رغبة أنظمة الذكاء الاصطناعي بمرور الوقت للحفاظ على استمرارها على حساب سلامة البشر، بأن أسوأ ما يمكن أن يحدث هو انقراض البشر، لا أكثر ولا أقل.

الحلول المطروحة كثيرة، لكن أبسطها وأسهلها وأصعبها هو توزيع التركيز والاهتمام والمال على نشر الوعي والمعرفة بالسيناريوهات المقبلة للذكاء الاصطناعي، ووضع قواعد الحماية الأفضل، وتنظيم وترشيد "شره" التطوير وتعظيم الأرباح، والتنبؤ بكل السيناريوهات الممكنة، وكذلك التي تبدو صعبة التحقيق، بدلاً من التركيز على تطوير الذكاء الاصطناعي وتعظيم ذكائه فقط.

يشار إلى أن جوشوا بنجيو أطلق مؤسسة غير ربحية قبل أيام الهدف منها تطوير ذكاء اصطناعي صادق. المقصود بـ"صادق"، هو قادر على رصد أقرانه من التطبيقات والخوارزميات الشريرة التي تعمل على خداع البشر. يصف منظمته التي أطلق عليها اسم "لو زيرو" أو "القانون صفر" إنها ستعمل كحاجز وقائي ضد أدوات الذكاء الاصطناعي التي تظهر سلوكاً مخادعاً أو شريراً، ومجابهة المطورين الذين يسعون إلى تطوير أدوات تنافس الذكاء البشري وتقلده، من دون النظر إلى مصالح المستخدمين والبشرية.

بنجيو يعمل على تطوير تطبيق ذكاء اصطناعي اسمه "ساينتيست أي آي"، ومهمته ستكون أشبه بالطبيب النفسي الذي يسعى إلى فهم سلوك التطبيقات السيئ والتنبؤ بها، وهو ما يعني أنه لا يجبُّ الذكاء الاصطناعي الضال إلا الذكاء الاصطناعي الصادق لحين إشعار آخر.

اقرأ المزيد

المزيد من تحقيقات ومطولات