Sorry, you need to enable JavaScript to visit this website.

كيف يصبح الذكاء الاصطناعي أخلاقيا في العمليات العسكرية؟

يسعى البنتاغون إلى قوة مدعومة بواسطته بحلول عام 2025

يتعامل الذكاء الاصطناعي في المجال العسكري مع مجموعة ضخمة من العقبات التي تختلف عما يظهر على الخرائط (صورة من وزارة الدفاع الأميركية)

تكمن قوة الذكاء الاصطناعي في قدرته على التعلم والتكيف مع المواقف المختلفة، لكن أجواء المعارك تمثل بيئة ديناميكية متغيرة باستمرار، تجعل الذكاء الاصطناعي عرضة لارتكاب الأخطاء أحياناً ما قد تكون له عواقب خطيرة، ولهذا يسعى البنتاغون إلى التوافق مع المبادئ الأخلاقية التي اعتمدها بعدما ساوره الشك حول مدى الثقة في التطبيقات الأوسع للذكاء الاصطناعي وسط العمليات العسكرية، إذ كيف يعرف المُشغل ما إذا كان الذكاء الاصطناعي خاطئاً، ولهذا السبب، بدأت شركات الصناعات الدفاعية في تطوير تخصص تقني يُعرف باسم "الذكاء الاصطناعي المسؤول"، يمكن من خلاله استخدام معايير العدالة والمساءلة والشفافية في تطوير واختبار وفحص أنظمة الذكاء الاصطناعي من أجل تجنب الأخطاء، فما الأساس الذي تعتمده هذه التكنولوجيا وما مدى التقدم الذي حققته حتى الآن؟

نماذج الذكاء الاصطناعي

ينتشر الذكاء الاصطناعي في كل مكان حولنا تقريباً، فإذا كنت تمتلك هاتفاً ذكياً أو تستخدم برنامجاً للتنقل أو تتسوق عبر الإنترنت، فأنت تتعامل مع تقنية الذكاء الاصطناعي، سواء كنت تعرف ذلك أم لا، فعلى سبيل المثال، يعتمد المساعدون الرقميون مثل "سيري" في نظام "أبل"، و"أليكسا" في نظام "أمازون"، وكذلك برامج تصحيح الكتابة بشكل تلقائي، على خوارزميات أو "لوغاريتمات" الكمبيوتر التي تستخدم سلوكك عبر الإنترنت لتحديث وتحسين نماذجهم باستمرار لتتوافق مع اهتماماتك الشخصية، وعادات التسوق التي تتبعها وخيارات أسلوب حياتك، حيث تكون المعلومات والصور والفيديوهات التي يعرضونها عليك مصممة بهدف إقناعك بشراء منتجات وخدمات تجارية إضافية.

ويعرف الذكاء الاصطناعي بأنه يعمل على تعزيز أجهزة الكمبيوتر والآلات لتقليد قدرات حل المشكلات واتخاذ القرار للعقل البشري، وهو مجال يجمع بين علوم الكمبيوتر ومجموعات البيانات ويشمل المجالات الفرعية للتعلم الآلي والتعلم العميق، ويعتمد على خوارزميات تسعى إلى إنشاء أنظمة تقوم بالتنبؤات أو التصنيفات بناء على بيانات الإدخال.

بين التطبيقات التجارية والعسكرية

ولكن في عالم الدفاع والطيران، يكون لتقنيات الذكاء الاصطناعي، وقواعد الاشتباك الأساسية بعض الاختلافات المهمة، إذ يركز الذكاء الاصطناعي في جوهره على تطوير أنظمة الكمبيوتر التي يمكنها أداء مهام تتطلب عادة ذكاء بشرياً، مثل الإدراك البصري والتعرف على الكلام واتخاذ القرار وترجمة اللغات، وفي حين أن هدف الذكاء الاصطناعي التجاري، هو تعليم خوارزمية كيفية القيام بمهمة محددة، ما يتطلب الكثير من البيانات والعديد من الأمثلة لما يجب أن تفعله وما يجب ألا تفعله، فإن تطبيقات الذكاء الاصطناعي في مجال الدفاع والطيران، قليلاً ما تتمكن من الوصول إلى بيانات كافية ومتوازنة للعمل بكفاءة تامة نظراً إلى اختلاف مجال التطبيق.

ووفقاً لجوستين فيفيريتو، رئيس فريق شراكات الذكاء الاصطناعي في شركة "نورثروب غرومان"، يعتمد الذكاء الاصطناعي التجاري على العمل في بيئة منظمة ومحددة جيداً مثل السيارات الذاتية القيادة من دون سائق، التي تسير وفق خرائط البيئة المادية المحيطة بها والتي يمكن تحديثها بسرعة خلال وقت تحركها نفسه، حيث تحكم مجموعة من القواعد المحددة جيداً تفاعل المشاركين، وتنظم لافتات الطرق وأنظمة التحكم تدفق حركة المرور، ويكون موقع الجميع معروفاً بشكل جيد من خلال أنظمة التنقل عبر نظام تحديد المواقع العالمي "جي بي أس".

ولكن على النقيض من ذلك، تتعامل تطبيقات الذكاء الاصطناعي النموذجية في المجال الدفاعي العسكري مع مجموعة ضخمة من المباني والطرق والكثير من العقبات الأخرى التي تختلف عما يظهر على الخرائط، كما أنها تتم في ظل غياب قواعد وعلامات الطريق، وفي أجواء تكون فيها الاتصالات غير موثوقة أو غير موجودة أصلاً، وأحياناً من دون توافر نظام "جي بي أس".

المهمات الدفاعية

في مجال الطيران والدفاع، يمكن لتقنية الذكاء الاصطناعي أن تساعد في اتخاذ قرارات الطيارين والمقاتلين بطرق عدة، تبدأ بأن تقدم مساعدة بسيطة مثل مجموعة من النصائح والتوصيات، كأن يُبلّغ الطيار بأن الطقس يبدو غائماً للغاية وأنه لا ينبغي أن يقلع بالطائرة، أو قد ينصح المقاتل بالإجراء الذي يجب عليه اتخاذه، وفي هذا الوضع، لا يتولى الذكاء الاصطناعي الأمر بالضرورة أو يعمل نيابة عن البشر، بل يظل الإنسان هو صانع القرار النهائي.

ويمكن لتقنية الذكاء الاصطناعي الجيدة أن تساعد المحللين في البحث عبر كميات كبيرة من مقاطع الفيديو أو الصور الثابتة لتحديد حالات محددة واتخاذ قرار بشأنها، ويمكن كذلك أن تساعد في تقليل معدل الأخطاء التي يسببها الإرهاق البشري، غير أن ما يجب إدراكه بشأن الذكاء الاصطناعي في المجال العسكري، هو أنه ليس مجرد قدرة مميزة تجعل النظام بطريقة سحرية أكثر ذكاء أو قدرة من ذي قبل، ولكن يجب أن يكون مدمجاً ومتكاملاً في نظام شامل من الألف إلى الياء.

تداعيات الخطأ

وعلى عكس العديد من التطبيقات التجارية، يركز الذكاء الاصطناعي في المجالات العسكرية على السرعة والحجم، ويمكن أن تكون لسرعة المعلومات تأثيرات استراتيجية وتكتيكية حاسمة، إذ إنه يعمل على تقديم المعلومات بسرعة إلى مراكز القيادة والمقاتلين حتى يتمكنوا من اتخاذ قرارات مستنيرة بالبيانات قبل أن يتمكن العدو من بدء التصرف.

وبغض النظر عن كيفية استخدام الذكاء الاصطناعي في المجال العسكري، يجب في النهاية أن يكون آمناً وأخلاقياً، لأن ارتكاب الأخطاء قد تكون له تداعيات كارثية، فعلى سبيل المثال، إذا أخطأ الذكاء الاصطناعي الذي تستخدمه طائرة ذاتية القيادة، في مراقبة وتحليل مواقع صواريخ العدو وتفسير ما ترصده الطائرة، فقد يؤدي ذلك إلى خسائر في الأرواح أو إلحاق ضرر لا يمكن إصلاحه في العلاقات الدولية، ولهذا، من المهم تجنب مثل هذه النتائج من خلال إخضاع كل خوارزمية في الذكاء الاصطناعي لعمليات تحقق صارمة، والتنسيق مع خبراء الامتثال القانوني والسياسي من الحكومة الأميركية للمساعدة في ضمان أن أنظمة الذكاء الاصطناعي تصدر أحكامها بشكل صحيح، وأنه يتم استخدامها بفعالية، ويمكن تتبعها.

الذكاء الاصطناعي المسؤول

لكن التطبيق الأوسع للذكاء الاصطناعي في عمليات البنتاغون يثير أسئلة عديدة منها، كيف يعرف المُشغل ما إذا كان الذكاء الاصطناعي ارتكب خطأ ولم يتصرف على النحو المنشود؟

وتكمن الإجابة في تخصص تقني يُعرف باسم "الذكاء الاصطناعي المسؤول"، الذي أشارت إليه وحدة الابتكار الدفاعي التابعة للبنتاغون في تقرير أصدرته قبل أسابيع بعنوان، إرشادات الذكاء الاصطناعي المسؤول في الممارسة العملية، التي تتناول مطلباً في قانون تفويض الدفاع الوطني الأميركي، يقتضي ضمان أن تطوير أي تكنولوجيا ذكاء اصطناعي يجب أن يتم بشكل أخلاقي ومعقول.

وتوفر إرشادات الذكاء الاصطناعي المسؤول إطاراً للشركات العاملة في مجال الذكاء الاصطناعي وأصحاب المصلحة في وزارة الدفاع للمساعدة في ضمان بناء برامج الذكاء الاصطناعي، وفقاً لمبادئ العدالة والمساءلة والشفافية في كل خطوة من خطوات دورة تطوير نظام الذكاء الاصطناعي، حسب ما يقول جاريد دنمون، مدير تكنولوجيا الذكاء الاصطناعي والتعلم الآلي في وحدة الابتكار الدفاعي بالبنتاغون.

ووفقاً لهذه الإرشادات، تم تصميم إطار لتحقيق خمسة أهداف خلال تطوير واختبار وفحص أنظمة الذكاء الاصطناعي من أجل تجنب أشياء مثل التحيز في أنظمة التعرف على الوجه على سبيل المثال، وتحسين التقييم والاختيار والنمذجة والاعتماد من أجل تجنب النتائج السيئة المحتملة.

المبادئ الأخلاقية الخمسة

واعتمدت وزارة الدفاع الأميركية خمسة مبادئ أخلاقية لتطوير واستخدام الذكاء الاصطناعي، أولها أن يتحمل البشر المسؤولية عن تطوير واستخدام الذكاء الاصطناعي، والثاني أن تكون عادلة، بحيث تتخذ وزارة الدفاع خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي، بينما يتعلق المبدأ الثالث بإمكانية تتبع هذه التكنولوجيا، بحيث يتم تطوير ونشر قدرات الذكاء الاصطناعي بطريقة تتيح للأفراد المعنيين فهم التكنولوجيا وعمليات التطوير والأساليب التشغيلية، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق والتأكد من مصادر البيانات وإجراءات التصميم والتوثيق.

أما المبدأ الرابع فيتعلق بالموثوقية، أي أن تكون حالات استخدام الذكاء الاصطناعي واضحة ومحددة جيداً، وأن تخضع سلامة وأمن وفعالية هذه القدرات للاختبار طوال دورات حياتها بالكامل، في حين تم تحديد المبدأ الخامس بالقابلية للتحكم والقدرة على التصحيح والتدخل، بحيث تعمل وزارة الدفاع على تصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بوظائفها المقصودة المحددة، مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة، وأن تكون لديها القدرة على إلغاء الأنظمة التي تظهر سلوكاً غير مقصود.

بناء الثقة

ويعالج هذا المبدأ الخامس معرفة متى يكون الذكاء الاصطناعي خاطئاً، ولهذا يحتاج المشغلون إلى بناء الثقة في أنظمة الذكاء الاصطناعي، وحسب ما تقول أماندا مولر، مهندسة أنظمة الذكاء الاصطناعي في شركة "نورثروب غرومان"، فإن أنظمة الذكاء الاصطناعي القابلة للتحكم تسمح بالتدخل البشري عندما لا تعمل الخوارزميات على النحو المنشود، وهنا يمكن للمُشغل البشري إجراء تعديلات على المدخلات أو الخوارزمية أو أي شيء يجب القيام به.

ومن شأن هذه المبادئ بناء ثقة مبررة في أنظمة الذكاء الاصطناعي التي يتم إنشاؤها لأن الإنسان يمكنه فهم وتفسير ما يفعله الذكاء الاصطناعي، وتحديد ما إذا كان يعمل بشكل صحيح من خلال التحقق، واتخاذ الإجراءات الضرورية المناسبة إذا لزم الأمر، وإذا لم تعمل أنظمة الذكاء الاصطناعي كما تم تصميمها أو كانت غير متوقعة، فلن يتبناها القادة في البنتاغون، ولن يستخدمها المشغلون، ولن يمولها الكونغرس، ولن يدعمها الشعب الأميركي، وفقاً لما جاء في التقرير النهائي للجنة الأمن القومي التي أنشأها الكونغرس.

الذكاء الاصطناعي في ساحة المعركة

ويعتقد خبراء الذكاء الاصطناعي أن تعهد البنتاغون بتطوير وتنفيذ الذكاء الاصطناعي المسؤول فقط، سيعزز تطوير "نظام الإدارة المتقدم في ساحة المعركة" المعروف اختصاراً من اللغة الإنجليزية باسم "جادسي تو"، وهو نظام يُمكّن القادة من اتخاذ قرارات أفضل من خلال جمع البيانات عبر العديد من أجهزة الاستشعار، ومعالجة البيانات باستخدام خوارزميات الذكاء الاصطناعي لتحديد الأهداف، ثم التوصية بالسلاح الأمثل من القوات الجوية أو البرية أو البحرية أو الفضائية أو الإلكترونية، بالإضافة إلى الإجراءات التي تقوم بها القوة المشتركة في مجالات متعددة ومتكاملة في التخطيط والتنفيذ، بالسرعة والنطاق اللازمين لتحقيق ميزة السرعة والتفوق وإنجاز المهمة.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

ولن تكون تلك العملية الممتدة من المراقبة، والتوجيه، واتخاذ القرار ثم التنفيذ العملي ممكنة إلا من خلال قدرة نظام الذكاء الاصطناعي على التحكم في البنية التحتية لنظام "جادسي تو"، حسب ما يقول فيرن بويل، نائب رئيس حلول المعالجة المتقدمة بشركة "نورثروب غرومان"، على اعتبار أن الذكاء الاصطناعي يدرك ويفكر في أفضل الطرق لنقل المعلومات عبر مختلف المنصات ويمكنه تحسين حركة تلك المعلومات وتكوين الشبكة التي ستكون معقدة للغاية، بينما يصعب على الإنسان التفاعل معها وفهم كيفية الحفاظ على روابط الشبكة والاتصال.

منافسة الصين وروسيا

وفي الوقت نفسه، سيعمل الذكاء الاصطناعي المسؤول كثقل موازن في مواجهة منافسي أميركا من القوى العظمى مثل الصين وروسيا، اللذين لن ينخرطا على الأرجح في الذكاء الاصطناعي الملتزم بالمعايير والمبادئ الأخلاقية حسب ما يتصور الخبراء الأميركيون، وبخاصة أن الصين أعلنت كجزء من خطتها الاستراتيجية، أنها ستكون الدولة الرائدة عالمياً في مجال الذكاء الاصطناعي بحلول عام 2030، وركزت استثماراتها في التقنيات ذات الاستخدام المزدوج مثل المعالجة المتقدمة والأمن السيبراني والذكاء الاصطناعي، ما يشكل تهديداً للهيمنة التقنية والمعرفية للولايات المتحدة.

ويرى بويل أن الاختلاف الرئيس يتمثل في أن الصين تطبق تقنيات الذكاء الاصطناعي على نطاق واسع في مختلف أنحاء البلاد، حيث يستخدمون هذه التكنولوجيا لمراقبة سلوكيات المواطنين والتفاعلات الاجتماعية والقياسات الحيوية عبر الإنترنت، وليس لديهم أي قلق بشأن حقوق الخصوصية أو التطبيق الأخلاقي للبيانات التي يستطيع الذكاء الاصطناعي جمعها ومشاركتها في إطار هدف الصين المتمثل في الهيمنة التقنية العالمية بحلول عام 2030.

وقد يكون هذا أحد الأسباب التي تدفع المسؤولين الأميركيين وخبراء الذكاء الاصطناعي إلى ضرورة التحرك بسرعة لوضع معيار عالمي للاستخدام المسؤول والأخلاقي للذكاء الاصطناعي، والعمل مع حلفاء الولايات المتحدة لقيادة عملية تطوير المعايير العالمية حول الذكاء الاصطناعي.

وعلى الرغم من وجود بعض الثغرات الحالية في شبكات الاتصال بين أفرع القوات المسلحة الأميركية للربط بين الأقمار الاصطناعية وأنظمة الطائرات من دون طيار ومدمرات الصواريخ الموجهة على سبيل المثال، إلا أن وزارة الدفاع الأميركية أعلنت عزمها على ضرورة أن تكون لديها قوة مدعومة بالذكاء الاصطناعي بحلول عام 2025، لأن السرعة في تحديد أفضل مسار للعمل في ساحة معركة معقدة ومتغيرة ستكون هي الفارق الواضح في المعارك المستقبلية.

المزيد من تقارير