Sorry, you need to enable JavaScript to visit this website.

الذكاء الاصطناعي والتحكم في مسار حروب المستقبل

عن كيفية الحد من تهديد الأسلحة التي تدير نفسها بنفسها

جنود أوكرانيون يطلقون مسيرة في مدينة زابوريجيا الأوكرانية، فبراير 2024 (رويترز)

ملخص

الأسلحة المزودة بالذكاء الاصطناعي ستتخذ قراراتها من تلقاء نفسها خلال المعارك مما يهدد بإفلات حروب المستقبل ومساراتها من سيطرة البشر عليها بل قد لا تميز قراراتها بين المدنيين والمحاربين على جانبي الصراع

في العام الماضي، روجت شركة "ساكر" الأوكرانية لصناعة المسيرات أنها أدخلت إلى ميدان المعارك سلاحاً يدير نفسه بنفسه باستقلالية تامة سمته "ساكر سكاوت" [حرفياً، كشاف ساكر] الذي يستخدم الذكاء الاصطناعي في اتخاذ قراراته المتعلقة بتحديد من يجب قتله في ميدان المعركة. وأفاد مسؤولو "ساكر" بأن المسيرة موضع البحث نفذت هجمات مستقلة على مستوى محدود. وعلى رغم عدم صدور تأكيد من أطراف مستقلة، فإن التكنولوجيا اللازمة لتكوين سلاح كهذا باتت متوفرة، بكل تأكيد. ولا يستلزم الأمر سوى خطوة تقنية صغيرة، لكنها تمتلك إملاءات قيمية وقانونية وأخلاقية، كي تنتج أسلحة مستقلة موجهة ذاتياً بصورة كلية وتستطيع أن تتولى بنفسها البحث عن أهدافها وانتقائها.

ويبرهن وضع "ساكر" في الخدمة أن النافذة لوضع تشريعات تنظيمية عن الأسلحة الذاتية التوجيه، باتت موشكة على الإغلاق. وعلى مدى عقد أو أكثر، خاضت دول عدة نقاشات عما يجب فعله حيال الأسلحة الذاتية التوجيه، لكنها لم تتوصل إلى اتفاق عن التشريعات التنظيمية التي تتكفل بالحد من أضرار تلك الأسلحة. لكن، ثمة حاجة ملحة للتوصل إلى اتفاقية دولية، إذ قد يفضي التطوير المنفلت للأسلحة الذاتية التوجيه إلى حروب تتوسع وتخرج عن سيطرة البشر، مع حماية ضئيلة للمقاتلين والمدنيين معاً. وحتى إذا لم يبد واقعياً أمر التوصل إلى حظر إجمالي لتلك الأسلحة، هنالك مجموعة من التشريعات العملية التي تستطيع الحكومات تبنيها بغية تخفيف الأخطار الأسوأ التي قد تتأتى من الأسلحة الذاتية التوجيه. إذا لم يجر وضع ضوابط لتلك الأسلحة، ستخاطر الإنسانية بالانزلاق إلى مستقبل خطر من الصراعات الحربية التي تقودها الآلات.

على مشارف الوصول إلى هناك

بصورة جزئية، استخدم العسكريون الأسلحة الذاتية التوجيه على مستوى محدود وبشكل دفاعي محض، منذ ثمانينيات القرن الـ20. وحاضراً، هنالك 30 دولة في الأقل لديها أنظمة دفاعية جوية وصاروخية، أو أنظمة مضادة للصواريخ تحمي مركباتها الأرضية، وتشتمل على وضعيات لتفعيل تلك الأسلحة بشكل ذاتي. وبمجرد تفعيلها، تستطيع تلك الأنظمة الدفاعية باستقلال ذاتي، أن تتحسس الصواريخ والمدفعية والهاونات والمقذوفات والمركبات الجوية المتجهة إليها، ثم تعمل تلقائياً على اعتراضها. في المقابل، تشرف عناصر بشرية على عمل تلك الأسلحة، وتستطيع التدخل إذا حدث خلل ما.

أظهرت الجيوش بعض التلكؤ في تبني تقنيات الذكاء الاصطناعي التي طورها القطاع الخاص، ويعود ذلك جزئياً إلى صعوبات في عمليات الشراء. وقد حفزت الحرب الأوكرانية سرعة الابتكار على جانبي الصراع، خصوصاً ضمن التكنولوجيات التجارية على غرار المسيرات الصغيرة. واستخدمت موسكو وكييف كلتاهما المسيرات بصورة مكثفة في عمليات استطلاع القوات البرية وكذلك شن هجمات عليها. ومن ثم أدى ذلك الضرب من توظيف المسيرات إلى تطوير إجراءات مضادة جديدة شملت أنظمة إلكترونية قتالية تستطيع قطع الاتصالات مع المسيرات، أو تحديد مواقع من يشغلونها على الأرض بدقة تمهيداً لشن هجمات عليهم. من الناحية الاستراتيجية، من الصحيح التركيز على المشغلين لأن معظم المسيرات تدار من بعد مما يجعل المشغل البشري عنصراً أساسياً بالنسبة إلى تلك المركبات الطائرة، ومن ثم فإنه يغدو هدفاً حيوياً. وفي غياب المشغلين البشر، تضحى المسيرات المدارة من بعد عديمة الفائدة. ويفسر ذلك أيضاً الأهمية المرتفعة للمسيرات ذات التوجيه الذاتي، ذلك أنها لا تعتمد على خطوط اتصالات قابلة للاستهداف. وبغية مواجهة المسيرات الذاتية التوجيه، يقتضي الأمر العثور عليها بذاتها ثم تدميرها.

وسيعتمد الشكل المحدد لتبني الأسلحة الذاتية التوجيه، على الحاجات المرتبطة بالصراعات. في أوكرانيا، استخدمت موسكو وكييف كلتاهما مسيرات صغيرة بغية استهداف الطواقم البشرية وشن هجمات على المركبات الأرضية. واستعملت مسيرات أكبر تحلق على ارتفاعات متوسطة بهدف الوصول إلى أهداف في العمق خلف خطوط العدو. واستخدمت أوكرانيا قوارب مسيرة في مهاجمة أسطول البحر الأسود الروسي. ومعلوم أن تلك المسيرات كلها تدار من بعد في الوقت الحالي، لكن من المستطاع تطويرها لتغدو مستقلة ذاتياً مما يتيح لها الاستمرار في عملها حتى إذا قطعت الاتصالات التي تربطها مع مشغليها.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

قد تؤدي صراعات أخرى إلى تطوير أنواع مختلفة من الأسلحة الذاتية التوجيه. وفي هذه الآونة، تعمل مجموعة من البلدان تشمل الصين وفرنسا والهند وروسيا والمملكة المتحدة والولايات المتحدة، على صنع مسيرات قتالية خفية. وربما تشهد حروب المستقبل ذلك النوع الأخير من المسيرات أثناء استهدافها منصات الدفاع الجوي أو الأنظمة المتحركة لإطلاق الصواريخ.

وقد سلكت روبوتات القتال الأرضي مساراً متباطئاً بالقياس إلى نظيراتها في الجو والبحر، لكن حروب المستقبل قد تشهد توظيف أسلحة ذاتية التوجيه تحملها روبوتات أو تطلق بواسطة أسلحة أخرى من أمكنة تتموضع فيها. والأرجح ألا يتوقف التغيير عند تلك المعطيات الآنفة الذكر، إذ تستطيع أسراب من المسيرات الذاتية التوجيه أن تنسق أعمالها معاً، وتتفاعل مع المتغيرات في أرض المعركة بسرعة تفوق قدرات البشر. وقد تفضي ردات الفعل الذاتية السريعة للآلات إلى تسريع إيقاع العمليات، مع تسارع في وتيرة المعارك. ومن ثم سيؤدي ذلك إلى توليد ضغوط متعاظمة لإبعاد البشر عن دوائر صنع القرار. ولسوف تترتب على تلك التبدلات تأثيرات عميقة ضمن حقبة جديدة من الصراعات التي تديرها الآلات.

خطورة الأسلحة الموجهة ذاتياً

كثيراً ما ثابر علماء رياديون في مجال الذكاء الاصطناعي، تضم صفوفهم البروفيسور ستيوارت راسل ويان لوكن الفائز بـ"جائزة تورينغ" Turing Award، على التحذير من أخطار الأسلحة الذاتية التوجيه. وقد أطلقت "الحملة من أجل وقف الروبوتات القاتلة" على يد ائتلاف مكون من 250 منظمة غير حكومية من بينها "منظمة العفو الدولية" و"هيومن رايتس ووتش" لحقوق الإنسان و"مبادرة النساء الفائزات بنوبل". وتدأب تلك الحملة على الدعوة إلى صوغ اتفاقية استباقية ملزمة قانونياً عن حظر الأسلحة الموجهة ذاتياً. وتتحرك تلك الحملة والتحذيرات العلمية بتأثر الخشية من أن تؤدي الأسلحة الذاتية التوجيه إلى زيادة الضحايا المدنيين في الحروب. [يعتبر العالم البريطاني آلن تورينغ من مؤسسي الذكاء الاصطناعي في القرن الـ20. وتخصص جائزته للبحوث الرامية إلى التقريب بين ذكاءي البشر والآلات، وهي الرؤية التي سيطرت على تفكير تورينغ].

وعلى رغم معقولية القول إن الأسلحة الذاتية التوجيه من شأنها خفض الضحايا المدنيين عبر استهدافها الدقيق للمحاربين، فإنها قد تحدث كوارث مدمرة حينما تكون في أيدي دول لا تأبه إلى حد كبير بالضحايا المدنيين أو تلك التي ترغب في معاقبة السكان المدنيين. ومن المستطاع الدفع بمجاميع مكثفة من الأسلحة الذاتية التوجيه بغية استهداف وقتل الآلاف في الوقت نفسه مما يجعل القنابل الذكية المستعملة حاضراً محض سلاح غير متمرس مقارنة معها.

يتجسد أحد أشد الأخطار القصوى بحدوث تكامل بين الذكاء الاصطناعي والتوجيه الذاتي للأسلحة النووية. وفي عام 2022، أعلنت الولايات المتحدة أنها ستبقي على "العنصر البشري ضمن دائرة مسار" اتخاذ القرارات المتعلقة باستعمال الأسلحة النووية. وتبنت المملكة المتحدة سياسة مشابهة في عام 2022. لم يحصل ذلك مع روسيا والصين. وتبدو السيطرة البشرية على الأسلحة النووية كنقطة سهلة للانطلاق منها صوب صوغ اتفاقية دولية، إلا أن موسكو أظهرت رغبة مقلقة في إدخال الأتمتة إلى عملياتها النووية. ويعود ذلك إلى وقت ليس بقريب. وبعد نهاية "الحرب الباردة"، بين مسؤولون سوفيات سابقون أن الاتحاد السوفياتي ركب نظاماً نصف مؤتمت مهمته تولي الرد على ضربة نووية وسماه "بريمتر" Perimeter [في اللغة العسكرية، يشير المصطلح إلى المدى الدفاعي المباشر الذي يحمي قوة عسكرية أو دولة]. وحينما يفعل، يستخدم النظام سلسلة من المجسات المؤتمتة المخصصة لتقصي حدوث هجوم نووي على الأراضي السوفياتية. إذا رصد النظام حدوث ذلك النوع من الهجوم من دون أن يتخذ قادة البلاد رداً حياله، ويفترض ذلك أنهم قتلوا بالهجوم، سيعمل النظام حينها بصورة أوتوماتيكية على نقل سلطة إطلاق هجوم نووي إلى ضباط أدنى رتبة نسبياً لكنهم محميون في ملاجئ آمنة. في عام 2018، أفاد مسؤولون روس بأن النظام ما زال قيد الاستخدام، وقد حدث تقنياً. في وقت قريب جداً، شرعت موسكو في تطوير مسيرة ذاتية التوجيه تعمل تحت الماء ومسلحة نووياً. واستطراداً، من المستطاع إرسال مسيرات مسلحة نووياً بحراً أو جواً ضمن دوريات استطلاعية، مع خطورة وقوع حوادث أو فقدان السيطرة على سلاح نووي.

وقد يفضي التوسع في نشر أسلحة ذاتية التوجيه تعمل بالتكامل مع مناح أخرى من الذكاء الاصطناعي العسكري، إلى حقبة جديدة من الصراعات العسكرية التي تقودها الآلات. وكذلك قد تؤدي التطبيقات العسكرية للذكاء الاصطناعي إلى تسريع عمليات التعامل مع المعلومات وصنع القرارات. ولسوف تتقلص دورات اتخاذ القرار مع زيادة تبني البلدان الذكاء الاصطناعي والأتمتة بغية تقليص الزمن اللازم للعثور على أهداف العدو والتعرف إليها وضربها. من الناحية النظرية، قد يتيح ذلك وقتاً إضافياً للبشر كي يصنعوا قرارات متعمقة وحازمة. من الناحية العملية، سيشعر المتنافسون أنهم مضطرون إلى الاستجابة بشكل متماثل، فيستعملون الأتمتة بهدف تسريع عملياتهم وإبقائها على إيقاع سرعة العمليات. ومن ثم ستأتي النتيجة متمثلة بدائرة متزايدة التصاعد من زيادة الأتمتة وتقليل السيطرة البشرية.

وفي النهاية، يرجح أن توصل تلك المعطيات إلى حرب تنفذ بسرعة الآلات فتكون خارج نطاق قدرة البشر في السيطرة عليها. وفي الاقتصاد، أدى الانتشار الواسع للخوارزميات في التجارة السريعة الإيقاع إلى الاتجار بالأسهم بصورة مؤتمتة وبسرعات خارقة بالنسبة إلى البشر. وقد طرح الباحث العسكري الصيني شن هانغيو الذي يعمل في "كلية القيادة العسكرية لجيش التحرير الشعبي" نظرية عن "فرادة" في أرض المعركة تتمثل في نقطة يسير فيها إيقاع الصراع المسلح وفق سرعة الآلات بالترافق مع سرعة مماثلة في تجريد البشر من عملية اتخاذ القرار. ومن ثم سيمثل ذلك نقطة تحول تجبر البشر على تسليم السيطرة إلى الآلات في القرارات التكتيكية والعملاتية المتصلة بالاستراتيجيات. وسوف تنتقي الآلات الأهداف المفردة، إضافة إلى تخطيط إجمالي الحملة العسكرية وتتولى تنفيذها أيضاً. حينها، سيتقلص دور البشر في تشغيل الآلات والتنحي جانباً للمراقبة، مع عدم امتلاك سوى أقل القدرة على التحكم في الحروب أو إنهائها.

أقدام عالقة في الأعشاب

 ربما تستطيع التشريعات التنظيمية الدولية أن تساعد في تخفيف بعض من الأضرار الأسوأ للأسلحة الذاتية التوجيه، إذا أحسن صوغ تلك التشريعات ونفذت بنجاح. هنالك نحو 30 دولة وائتلافاً من المنظمات الإنسانية التي دعت إلى صوغ اتفاق استباقية ملزمة قانونياً عن حظر الأسلحة الذاتية التوجيه قبل الشروع في وضعها قيد الخدمة الفعلية. كثيراً ما أحرزت الدول نجاحاً نسبياً في حظر الأسلحة الكيماوية والبيولوجية، والذخائر العنقودية واستعمال البيئة سلاحاً عسكرياً. في المقابل، ثبت أن إحراز تقدم مماثل في التشريعات التنظيمية عن الأسلحة الموجهة ذاتياً، يشكل تحدياً صعباً. على نحو خاص، ليس من المرجح التوصل إلى حظر شامل لها. ولأن الأسلحة الذاتية التوجيه لم تصل إلى مرحلة الاكتمال في تطويرها، فإن أضرارها الكامنة وقيمتها العسكرية، ما زالتا مجهولتين. ونتيجة لذلك، تتلكأ الحكومات في التخلي عن أسلحة لها قيمة كامنة كبرى، لأنها ليست واثقة من المزاعم في شأن أضرارها في المستقبل.

تجري النقاشات عن كيفية تنظيم الأسلحة الذاتية التوجيه في منتديات عدة. على المستوى الدولي، تناقش الحكومات مسألة الأسلحة الذاتية التوجيه منذ عام 2014 ضمن "معاهدة الأمم المتحدة عن أسلحة تقليدية محددة". تمثل تلك المعاهدة منتدى دولياً متخصصاً في تشريعات تنظيم الأسلحة التي توصم بأنها مضرة إلى حد كبير بالمحاربين والمدنيين، على غرار الألغام الأرضية والليزر المسبب للعمى. وتشمل تلك المعاهدة 126 دولة، ويتطلب الاتفاق على القرارات دعم الدول كلها، مما يشكل وصفة لانعدام الفاعلية. على نحو خاص، عارضت روسيا والولايات المتحدة بصرامة صوغ اتفاقية تحظر الأسلحة الذاتية التوجيه، إذ حاججتا بأن القواعد السارية في شأن قانون الحرب تكفي للتعامل مع أي أضرار محتملة للأسلحة الذاتية التوجيه. وتعتبر معارضة موسكو وواشنطن حاسمة لأن فرض حظر على الأسلحة الذاتية التوجيه يفقد معناه بالكامل إذا لم يشمل القوتين العسكريتين الرئيستين في العالم. وفي إقرار منهم بعدم إحراز تقدم، رفع مؤيدو فرض الحظر تلك القضية إلى الجمعية العامة الأمم المتحدة في عام 2023 حيث لا يتطلب الأمر وجود إجماع شامل. وفي نوفمبر (تشرين الثاني) 2023، صوتت اللجنة الأولى للهيئة العامة لمصلحة تفويض الأمين العام الأمم المتحدة مهمة إعداد تقرير عن الأسلحة الذاتية التوجيه يتضمن تأييداً لفرض حظر عليها، مع الأمل بأن يشكل ذلك خطوة أولى نحو قرار ملزم التفاوض في شأن اتفاق من ذلك النوع.

وفي أثناء ذلك، اقترحت الأمم المتحدة مقاربة بديلة عن الحظر الشامل. وقادت في أواخر عام 2023، نحو 40 دولة للمناداة بإصدار إعلان سياسي عن الحاجة إلى الاستخدام المسؤول للذكاء الاصطناعي العسكري. وحتى فبراير (شباط) 2024، التحق ما يزيد على 50 دولة بتلك المبادرة. وعلى رغم أن الإعلان لا يحظر الأسلحة الذاتية التوجيه، فإنه يقدم خطوطاً إرشادية عامة عن استخدامها، على غرار ضمان اختبارها بصورة ملائمة بغية تخفيض خطر وقوع حوادث. وعلى رغم تضمنه مبادئ قيمة، فإن الإعلان يفتقد وجود قيود مجدية على الصور الأشد خطورة في الأسلحة الذاتية التوجيه على غرار الأسلحة الذاتية التوجيه المضادة للأفراد والعمليات النووية الذاتية التوجيه.

قبل فوات الأوان

بدلاً من تلك المقاربات المشلولة، ثمة خمس مبادرات استكمالية تقدر الدول الدفع بها توخياً لتخفيف تهديد الأسلحة الذاتية التوجيه. أولاً، تستطيع الحكومات تبني مبدأ واسع يرسي ضرورة وجود حد أدنى من التدخل البشري في عملية صنع القرارات المفضية إلى القتل. ومن شأن مثل ذلك المبدأ أن يتبنى بوصفه حكماً قانونياً ملزماً، وذلك إما عبر "معاهدة الأمم المتحدة عن أسلحة تقليدية محددة" أو الهيئة العامة للأمم المتحدة، أو أن يتحول إلى إعلان ملزم سياسياً. ويجب أن يتطلب ذلك المعيار حصول متخذي القرار من البشر على معلومات كافية ومحددة عن الأهداف المزمع استهدافها، والأسلحة المستخدمة، والبيئة، وسياق الهجمات، كي يقرروا مدى قانونية الهجمات قبل السماح بها. وفي مستطاع الدول أيضاً قبول أن جدوى نظام من السيطرة الإنسانية على تلك الأسلحة، ترتبط بوضع حدود لأي استعمال للأسلحة الذاتية التوجيه، تتعلق بالجغرافيا والزمن والأهداف المزمع مهاجمتها. وعلى رغم أن مبدأ كهذا لن يحظر الأسلحة الذاتية التوجيه كلها، بل إن من شأنه فعلياً أن يشرعن استخدامها حينما تلتزم تلك القواعد، إلا أن المبدأ نفسه سيضرب أسيجة حول كيفية استعمال الدول الأسلحة الذاتية التوجيه، ومن ثم سيضمن الانخراط الإنساني في القرارات الأشد حيوية المتعلقة بإعطاء إذن لشن الهجمات.

ثانياً، قد تستطيع الحكومات حظر الأسلحة الذاتية التوجيه التي تستهدف الناس. وفي عالم لا يرتدي فيه المقاتلون كلهم ملابس حربية، يتعذر حتى على البشر التمييز بدقة بين المدنيين والجنود. ومن ثم ستواجه الخوارزميات أوقاتاً فائقة الصعوبة قبل استنتاج إن كان حامل البندقية مقاتلاً أو فلاحاً يحمي أرضه. لا تملك الآلات سوى قدرة ضئيلة على التعرف بدقة وموثوقية إلى الفارق بين جندي يحاول الاستسلام فعلياً أو أنه يناور ويمثل دور من يسعى إلى الاستسلام. ومن ثم تحمل الأسلحة الذاتية التوجيه المضادة للأفراد خطراً أشد من تلك التي يقتصر عملها على استهداف مركبة آلية أو معدات عسكرية، مما يعني أن أضرار النوع الأول من تلك الأسلحة يتعدى بأشواط قيمتها العسكرية. وفي مقدور الدول أن تختار بين حظر ذلك النوع من الأسلحة المضاد للأفراد قبل أن يغدو استخدامها منتشراً على نطاق واسع.

ثالثاً، في وسع الدول أن تترسم الممارسات الأفضل في اختبار الذكاء الاصطناعي العسكري والأنظمة الذاتية التوجيه، بغية تجنب الحوادث. وقد تمثل هدفاً رئيساً في إعلان سياسي تولت الولايات المتحدة قيادة صياغته في عام 2023، بضمان مأمونية الأنظمة العسكرية للذكاء الاصطناعي عبر تحسين اختباراتها. يجب على واشنطن المضي خطوة إلى الأمام، عبر مشاركتها دولاً أخرى، للممارسات الأفضل في اختبار أنظمة الذكاء الاصطناعي بطرق تؤدي إلى تحسين مأمونيتها. ومن المستطاع إنجاز ذلك بطريقة تشبه ما تتبعه الولايات المتحدة في مشاركة دول أخرى معلومات عن عملياتها في إجراء تقييمات للأسلحة المشروعة، من دون الإفصاح عن محتوى تلك المراجعات بالتحديد.

يجب على الدول الاختيار بين حظر الأسلحة الذاتية التوجيه المضادة للأفراد قبل أن تنتشر على نطاق واسع

 

رابعاً، على الولايات المتحدة أن تكون شريكاً للمملكة المتحدة في إقناع القوى النووية الأخرى بإرساء اتفاق تضمن السيطرة البشرية الكلية على الأسلحة النووية. تشكل لندن الشريك الصحيح في هذا الجهد بسبب سياستها في الاحتفاظ بالسيطرة البشرية على الترسانة النووية. إن ضمان التوصل إلى إقرارات مماثلة من قوى نووية أخرى، أو، في الحالة النموذجية، صوغ اتفاقية متعددة الأطراف، سيشكل خطوة نحو ضمان أن السلاح الأخطر الذي تمتلكه الإنسانية سيبقى تحت سيطرة البشر. وعليه، سيشكل التوصل إلى معاهدة كتلك بين الدول الخمس الدائمة العضوية إقراراً قوياً في ذلك المضمار. ويجب على واشنطن أيضاً أن تضغط على بكين في ذلك الشأن عينه، خلال المحادثات الثنائية الجديدة بين أميركا والصين عن الذكاء الاصطناعي.

أخيراً، في مقدور الدول تبني قواعد متجانسة في شأن مسار التوصل إلى صنع مسيرات ذاتية التوجيه، بغية خفض أخطار وقوع حوادث. وفيما تعمل الدول على وضع مزيد من المسيرات في الجو والبحر، وكذلك مع تزايد تحول تلك المسيرات صوب التوجيه الذاتي، تتفاقم إمكانية أن يؤدي خطأ ما في الحسابات أو وقوع حادثة ما إلى إطلاق حادثة عالمية. ومثلاً، في 2019، أسقطت وسائط الدفاع الجوي الإيراني مسيرة أميركية من طراز "غلوبال هوك". Global Hawk فوق مضيق هرمز. في مارس (آذار) 2023، تدخلت طائرة مقاتلة روسية مع مسيرة أميركية من طراز "أم كيو- 9 ريبر" MQ-9 Reaper في بحر البلطيق، مما تسبب في تحطم تلك المسيرة. ولأن تلك المسيرات أديرت من بعد، أتيح للعنصر البشري أن يقرر كيفية الرد. لكن، في المستقبل، قد تغدو المسيرات الجوية والبحرية مستقلة بتوجيه ذاتي. وسيعني ذلك أنه في حال حدوث أوضاع مماثلة، فإن المسيرة قد تتخذ أفعالاً عبر توجيهها الذاتي، بالاستناد إلى ما برمجت لأن تفعله. إذا برمجت لأن ترد على النار بالمثل، فلسوف تفعل ذلك، مع إمكانية كامنة بالتصعيد ضمن حادثة دولية، من دون صدوره عن إرادة قرار بشري. إذاً، يجب على الحكومات ضمان أن تأتي سلوكيات التوجيه الذاتي منسجمة مع النوايا البشرية. في عام 1972، أسهم "الاتفاق الأميركي السوفياتي في شأن [الحيلولة دون] حوادث البحار" في تخفيض عدد الحوادث غير المقصودة بين الولايات المتحدة والسوفيات خلال حقبة "الحرب الباردة". ومن ثم فمن شأن اتفاق مماثل مساعدة الدول في تخطي أخطار الصراع بين أنظمة التوجيه الذاتي في حال وضعها في الخدمة الفعلية ضمن مساحات متنازع عليها، وكذلك تجنب حوادث غير مقصودة وغير مخطط لها.

استكمالاً، من المستطاع التوصل إلى مبادرات عن التعامل مع أخطار الأسلحة الذاتية التوجيه، إما كلها معاً أو كل منها على حدة، عبر أقنية مختلفة وخطط زمنية متنوعة. وثمة فضاءات للتعاون الدولي يجب التفكير فيها تشمل "معاهدة الأمم المتحدة عن أسلحة تقليدية محددة" والهيئة العام للأمم المتحدة، ومجلس الأمن، والحوار الثنائي الأميركي - الصيني وغيرها من المنتديات المتعددة الأطراف. ويكتسي التعاون بين واشنطن وبكين أهمية خاصة، إذ يصعب التوصل حتى الآن إلى اتفاق بين الولايات المتحدة والصين، بوصفهما القوتين العظميين عسكرياً واقتصادياً وتكنولوجياً، لكن ذلك سيشكل خطوة إلى الأمام في التعامل مع الأسلحة الذاتية التوجيه.

خطوات عاجلة

إن الأسلحة الذاتية التوجيه آتية. ومن المرجح ألا تجدي محاولات حظرها كلها، على رغم أهمية ذلك. ويرجع ذلك ببساطة إلى قيمتها العسكرية العالية القيمة. في المقابل، تمتلك الدول خياراً في شأن كيفية استعمال الأسلحة الذاتية التوجيه. وفي غيبة قيود فاعلة، ستقلص تلك الأسلحة سيطرة البشر على الأعمال الحربية، مما يلقي بأخطار متصاعدة على المدنيين والمحاربين، ويزعزع الاستقرار الدولي. إذاً، يجب اتخاذ خطوات عاجلة للتعامل مع الأخطار الأسوأ المرتبطة بتلك الأسلحة. ويتطلب ذلك أن يصار إلى التحرك إلى أبعد من الخيار المبسط والمضلل بين حظر الأسلحة الذاتية التوجيه كلها وعدم فرض أي قيود عليها.

بالنتيجة، تشكل الأسلحة الذاتية التوجيه اختباراً مبكراً لقدرة الإنسانية في التعامل مع الذكاء الاصطناعي المسلح الذي يمثل أخطر صور ما سيأتي مستقبلاً. لقد برهنت الأنظمة الأكثر تقدماً حتى الآن في الذكاء الاصطناعي، أنها تقدر على المساعدة في تطوير أسلحة سيبرانية وكيماوية وبيولوجية. ثمة حاجة طارئة وملحة للسيطرة على تحسين وتطوير تلك الأنظمة من الذكاء الاصطناعي، والحد من تكاثرها وانتشارها، إضافة إلى الاحتراس من إمكانية استخدامها. إن التوصل إلى اتفاقية دولية خاصة بالأسلحة الذاتية التوجيه أمر حيوي حاسم في التعامل مع أخطارها، ولإرساء أسس التعاون مع الأخطار المستقبلية الأشد تأثيراً للذكاء الاصطناعي.

* بول شار، نائب الرئيس التنفيذي ومدير الدراسات في "مركز الأمن الأميركي الجديد" ومؤلف كتاب "أربع ساحات للمعارك، القوة في عصر الذكاء الاصطناعي".

اقرأ المزيد

المزيد من آراء