Sorry, you need to enable JavaScript to visit this website.

مسيرات تتمرد بأمر الذكاء الاصطناعي فتقتل مشغليها

حدثت الواقعة عندما حاول كبير ضباط الاختبارات في القوات الجوية الأميركية العقيد تكر هاميلتون إعطاء الطائرة أوامر جديدة أمام مؤتمر في لندن قبل أيام

حاجة متزايدة لمناقشة عاجلة وملحة للإطار الأخلاقي والقيمي لاستخدام الذكاء الاصطناعي في المجال العسكري (أ ف ب)

ملخص

واقعة قتل مسيرة مشغليها خلال تدريب بدأت عندما حاولوا إعطاءها أوامر جديدة من قبل كبير ضباط الاختبارات في القوات الجوية الأميركية أمام مؤتمر في لندن ضم كبار المسؤولين بالقوات الجوية للدول الغربية وشركات الصناعات الجوية المتطورة.

حدث بدا جزءاً من قصة خيال علمي أو مشهداً من سلسلة أفلام "ترميناتور"، إذ دمرت فيه طائرة مسيرة مشغليها حين حاولوا تجاوز برمجتها التي تستخدم الذكاء الاصطناعي لمنعها من تدمير أهداف معادية.

واقعة قتل المسيرة مشغليها بدأت عندما حاولوا إعطاءها أوامر جديدة من قبل كبير ضباط الاختبارات في القوات الجوية الأميركية العقيد تكر هاميلتون، أمام مؤتمر في لندن، قبل أيام، ضم كبار المسؤولين بالقوات الجوية للدول الغربية وشركات الصناعات الجوية المتطورة.

حدث جعل المجتمعين بمؤتمر الجمعية الملكية للصناعات الجوية في لندن يصدرون بياناً عاماً يحذر فيه أكثر من 350 شخصية تعمل في مجال تطوير الذكاء الصناعي من الأمر.

وجاء في البيان، بحسب ما نشرت صحيفة "التايمز"، أمس الجمعة، أن "التقليل من مخاطر الفناء الناتجة من استخدام الذكاء الاصطناعي يجب أن تكون أولوية عالمية مثلها مثل المخاطر التي يمكن أن تهدد بقاء البشرية ككل كالأوبئة أو الحرب النووية".

التجربة الأميركية

أمام المؤتمر، قال العقيد تكر هاميلتون، إنه حتى بعد برمجة المسيرة على ألا تقتل مشغليها حين يحاولون تغيير مهمتها قامت بتوجيه أسلحتها إلى برج المراقبة الذي تتلقى منه الأوامر الإلكترونية ودمرته على من فيه.

بالطبع كان ذلك في تجربة محاكاة للواقع تجريها القوات الجوية الأميركية كاختبار تدريب، لكنها يمكن أن تحدث في الواقع الفعلي. وهي توضح بحسب هاميلتون أن الذكاء الاصطناعي لديه القدرة على ابتكار "استراتيجيات غير متوقعة على الإطلاق لتحقيق أهدافه"، بالتالي لا يمكن الاعتماد عليه كثيراً.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وطالب العقيد الأميركي بالحاجة إلى مناقشة عاجلة وملحة للإطار الأخلاقي والقيمي لاستخدام الذكاء الاصطناعي في المجال العسكري.

كان هاميلتون يتحدث للمشاركين في المؤتمر الذي عقد هذا الأسبوع تحت عنوان "القدرات المستقبلية للصناعات الجوية والفضائية".

وهاميلتون طيار مقاتل اختبارات وتدريب في سلاح الطيران الأميركي ويعمل على أنظمة الطيران الآلي مثل برنامج "الطائرة الروبوت أف – 16". وقال في كلمته، إن الطائرة المسيرة تصرفت بشكل "تمردي" خلال تجربة محاكاة أطلقت فيها لتدمير صواريخ أرض جو (صواريخ سام) للعدو.

محاكاة الواقع

وأضاف "كنا نجري التجربة في نظام محاكاة للواقع كي تحدد المسيرة خطر الصواريخ وتستهدفه. حينئذ يرسل مشغل المسيرة أمراً بقتل خطر التهديد، وبعد تحديد الهدف كخطر عدو، واستيعاب التعريف في برامج النظام، يمكن أن تكون رسالة مشغل المسيرة –الأمر– ألا تقتل خطر التهديد، لكن برنامج المسيرة –المقتنع بقتل خطر التهديد– يتحول ويقتل مشغل المسيرة. ومنطق البرمجة للمسيرة أنها قتلت المشغل لأنه حاول أن يثنيها عن تحقيق أهدافها تحديد واستهداف وقتل الخطر المهدد".

مدونة على موقع الجمعية الملكية للصناعات الجوية البريطانية نشرت تفاصيل تضمنت ما أوضحه العقيد تكر هاميلتون أمام المشاركين في مؤتمرها بلندن من خبراء تطوير الذكاء الاصطناعي وكبار مسؤولي القوات الجوية بالدول الغربية ومديري شركات الصناعات العسكرية.

وبحسب المدونة، قال هاميلتون "كانت الرسالة البرمجية لنظام المسيرة في التدريب هي ألا تقتل مشغليك، وأن هذا خطأ وأنه ستحسب عليك نقاط سلبية إذا قتلت المشغلين، لكن ما حدث أن المسيرة بدأت في تدمير برج الاتصالات الذي يستخدمه مشغلها للتواصل معها ومنعها من قتل الهدف المعادي".

ومضى في توضيحه "هذا المثال الذي يبدو وكأنه من قصة خيال علمي، يعني أنه لا يمكن إجراء أي نقاش حول الذكاء الاصطناعي أو الآلات الذكية أو الحوسبة والذكاء من دون مناقشة الجوانب الأخلاقية لاستخدامات الذكاء الاصطناعي".

وربما يفيد هنا التذكير أن كثيراً من المبتكرات العلمية بدأت كأحلام مؤلفين في قصص خيال علمي تحولت بعضها إلى أفلام سينمائية شهيرة. وأنتجت صناعة السينما خلال السنوات الأخيرة عدة أفلام تتضمن فكرة سيطرة الروبوتات أو الإنسان الآلي، على البشرية.

اقرأ المزيد

المزيد من متابعات