Sorry, you need to enable JavaScript to visit this website.

تحذير من تقاعس بريطانيا في الحماية من تهديد الذكاء الاصطناعي

يقول البروفيسور ستيوارت راسل إن المخاطر ستبلغ أكبر مبلغ في غمرة صعود الآلات الفائقة الذكاء

البروفيسور ستيوارت راسل حذر من أن نظاماً ذكياً مشابهاً لـ"شات جي بي تي" من شأنه أن يشكل جزءاً من آلة فائقة الذكاء تستعصى السيطرة عليها (رويترز)

ملخص

ينبه خبير بريطاني إلى أن مخاطر الذكاء الاصطناعي ستبلغ دركا خطيرا في غمرة صعود الآلات الفائقة الذكاء لكن السلطات لا تؤمن الحماية اللازمة

حذر أحد الرواد في مجال الذكاء الاصطناعي من أن الحكومة البريطانية لا تقوم بما يلزم لدرء المخاطر التي تطرحها الآلات الفائقة الذكاء التي ستظهر في المستقبل.

في تصريح أدلى به إلى الـ"تايمز" البريطانية، قال البروفيسور ستيوارت راسل إن الوزراء يتبنون نهجاً متساهلاً مع صناعة الذكاء الاصطناعي الآخذة في الازدهار، على رغم تحذيرات أطلقها موظفون حكوميون من تهديد وجودي تطرحه على البشرية.

كان البروفيسور راسل مستشاراً سابقاً لدى "داونينغ ستريت" والبيت الأبيض، وهو مؤلف مشارك في كتاب حول الذكاء الاصطناعي يعتبر الأكثر استخدماً في هذا الشأن، ويعطي محاضرات حول علوم الكمبيوتر في جامعة كاليفورنيا في بيركلي.

لقد فهمنا الرسالة نوعاً ما وترانا الآن نتدافع في محاولة ابتكار حلول نلتجئ إليها - البروفيسور ستيوارت راسل

ونقلت الـ"تايمز" عن البروفيسور راسل قوله إن نظاماً ذكياً مشابهاً لـ"شات جي بي تي" قد اجتاز الاختبارات وفي مقدوره تأليف النثر، من شأنه أن يشكل جزءاً من آلة خارقة الذكاء من المُحال ممارسة أي سيطرة عليها.

"كيف لك أن تفرض سلطتك على كيانات تفوقك قوة، ونهائياً؟" سأل البروفيسور راسل، مضيفاً "إن كنت لا تملك أي إجابة، فتوقف عن البحث. المسألة بهذه البساطة.

"ستبلغ المخاطر أخطر درك لها: إذا لم نتحكم في حضارتنا، فلن نتحكم في بقائنا في المستقبل"، أضاف البروفيسور راسل.

في مارس (آذار)، شارك البروفيسور راسل في توقيع خطاب مفتوح إلى جانب إيلون ماسك والشريك المؤسس لشركة "آبل" ستيف وزنياك يحذران فيه من "السباق الخارج عن السيطرة" الذي يأخذ مجراه في مختبرات الذكاء الاصطناعي.

ونبه الخطاب إلى أن المختبرات تعكف على تطوير "عقول رقمية أقوى من أي وقت مضى، يتعذر على أي أحد، وحتى مطوريها، فهمها أو التنبؤ بها أو التحكم فيها بشكل صحيح".

البروفيسور راسل عمل لدى منظمة الأمم المتحدة على تطوير نظام لمراقبة معاهدة حظر التجارب النووية، وطُلب منه التعاون مع الحكومة البريطانية في وقت سابق من العام الحالي.

"عقدت وزارة الخارجية نقاشات مع... كثير من الأشخاص [الخبراء] وخلصوا إلى أن فقدان السيطرة [على الآلات الخارقة الذكاء] نتيجة ممكنة وذات خطورة بالغة"، قال البروفيسور راسل.

وكشف الخبير في الذكاء الاصطناعي أن "الحكومة البريطانية اتخذت لاحقاً نهجاً تنظيمياً مفاده: "لا شيء يستدعي الاهتمام هنا... سنرحب بصناعة الذكاء الاصطناعي كما لو أننا نتحدث عن صناعة السيارات أو ما شابه ذلك".

وقال إن إدخال تغييرات على الأسس التقنية للذكاء الاصطناعي بغرض إضافة الضمانات الضرورية سيستغرق "وقتاً ربما ليس في متناولنا".

ويعتقد البروفيسور راسل "أننا ارتكبنا خطأ ما في البداية تماماً، إذ كنا مفتونين جداً بفكرة فهم الذكاء [الاصطناعي] وتطويره، ولم نفكر في الغرض الذي سيستخدم هذا الذكاء لتحقيقه".

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

"ما لم يكن هدفه [الذكاء الاصطناعي] الوحيد أن يعود بالمنافع على البشر، فأنت في الواقع تطور منافساً لك، ولا ريب أنك في ذلك تُقدم على خطوة غبية"، في رأي البرفيسور راسل.

ويشرح أننا "لا نرغب بابتداع أنظمة [ذكية] تحاكي السلوك البشري... يصار إلى تدريب هذا النظام في الأساس كي يطمح في أهداف شبيهة بغايات البشر ويسعى وراء تحقيق تلك الأهداف".

"لا يسعك إلا أن تتخيل كم العواقب الوخيمة التي ستترتب عن وجود أنظمة [خارقة الذكاء] قادرة فعلاً تسعى إلى تحقيق هذه الأنواع من الأهداف."

وأشار الخبير إلى وجود دلائل تؤشر إلى أن السياسيين باتوا على دراية بالمخاطر.

وقال في هذا الصدد: "لقد فهمنا الرسالة نوعاً ما، وترانا نتدافع في محاولة إلى إيجاد حلول نلتجئ إليها. "هذا ما يبدو عليه المشهد الآن."

وقد أطلقت الحكومة البريطانية فريق عمل يُعنى بنماذج الذكاء الاصطناعي الأساسية [الشاملة]، تقول إنه "سيرسي دعائم الاستخدام الآمن للنماذج الذكية الأساسية في مختلف قطاعات الاقتصاد، ويضمن أن تتصدر المملكة المتحدة الصدارة في تكنولوجيا الذكاء الاصطناعي البالغة الأهمية".

اقرأ المزيد

المزيد من علوم