Sorry, you need to enable JavaScript to visit this website.

الذكاء الاصطناعي يخوض غمار الحرب فعلا

هكذا سينقل التطور التكنولوجي الجيوش من حال إلى حال

الجيش الذي سيتقن تنظيم استخدام الذكاء الاصطناعي في السنوات المقبلة سيحصد تقدماً هائلاً (إدواردو مورسيانو)

في عام 2002، تدرب فريق من العمليات الأميركية الخاصة على مداهمة منزل آمن. اقترب الفريق بهدوء من مبنى من طابقين، بُني خصيصاً للتدريب العسكري، كان يختبئ فيه زعيم إرهابي مفترض. وتسلل أحد الجنود إلى نافذة مفتوحة، وأطلق طائرة "درون" صغيرة من غير طيار يقودها محرّك من الذكاء الاصطناعي. وبدأت طائرة "الدرون" العاملة بالذكاء الاصطناعي تحلق تلقائياً في المبنى، غرفة تلو أخرى، وبثت لقطات من عدستها مباشرة إلى الجهاز اللوحي الذي يحمله الفريق في الخارج. وفي دقائق معدودة، امتلك الفريق صورة كاملة عن داخل المبنى. وأحاط بالغرف الفارغة، والغرف التي ينام فيها أفراد الأسرة، ومكان الهدف الأساسي. فدخل الفريق المبنى وهو على بينة تامة من المسار الذي عليه أن يسلكه، مقلصاً بذلك الأخطار التي يتعرض لها غالباً كل عسكري. ولكانت التدريبات نجحت لو أنها كانت حقيقية، ولكان الفريق قتل الزعيم الإرهابي.

ومذ ذاك، اعتمد الجيش المروحية الرباعية الموجهة بالذكاء الاصطناعي، من تصميم شركة "شيلد أي آي" Shield AI (حيث كنت مستشاراً)، في تنفيذ عمليات تُنفّذ في العالم الحقيقي. وهي وسيلة من وسائل يتوسل بها الذكاء الاصطناعي إلى إرساء الأمن القومي الأميركي. ويستفيد الجيش الأميركي من الذكاء الاصطناعي في إدخال تحسينات على مفاصله كافة، بدءاً من صيانة المعدات وصولاً إلى اتخاذ القرارات المتعلقة بالميزانية. فمثلاً، يستخدم محللو الاستخبارات الذكاء الاصطناعي في مسح كميات كبيرة من المعلومات بسرعة، بغية تحديد الأنماط ذات الصلة التي تمكنهم من اتخاذ قرارات أفضل وتنفيذها بشكل أسرع. وفي المستقبل، في مستطاع الأميركيين أن يتوقعوا تغيير الذكاء الاصطناعي الطريقة التي تتقاتل عليها الولايات المتحدة وخصومها في ساحة المعركة. أي أن الذكاء الاصطناعي أشعل ثورة أمنية، وبدأت تظهر معالمها في الحال.

ومع البروز المفاجئ للذكاء الاصطناعي على المسرح العام، دعا بعض الباحثين الذين تقلقهم أخطار هذه التكنولوجيات، إلى التوقف الموقت عن تطوير هذه الأنظمة. بيد أنه من المحال لجم الذكاء الاصطناعي الأميركي عن التقدم: فالأسس الرياضية للذكاء الاصطناعي معروفة حيثما كان، والمهارات البشرية اللازمة لإنشاء نماذج منه انتشرت على نطاق واسع، إضافة إلى القوة المهولة التي ينطوي عليها الدافعان المحركان للبحث والتطوير في مجال الذكاء الاصطناعي، وهما الإبداع البشري والمكاسب التجارية. وفي المقابل، قد لا يكون السعي في كبح التقدم خطوة غير صائبة. فالصين لن تألو جهداً من أجل التفوق على الولايات المتحدة في مجال الذكاء الاصطناعي، وعلى الخصوص في الفروع العسكرية. وإذا كُتب لها النجاح، ستمتلك بكين جيشاً أقوى بأشواط من جيشها الحالي. وليس مستبعداً أن يكون قادراً على تعزيز سرعة عملياته وتأثيراتها، على قدر يتعذّر على الولايات المتحدة أن تضاهيه. وستتعزز، على نحو خطير قدرة الصين على الاستعانة بالحرب السيبرانية والإلكترونية ضد شبكات الكمبيوتر والبنية الأساسية الأميركية البالغة الأهمية. لذا، على البنتاغون تعجيل توظيف الذكاء الاصطناعي المسؤول وليس إبطاءه. وفي حال امتنع من ذلك، خسرت واشنطن ربما تفوقها العسكري الذي يضمن مصالحها وأمن حلفائها وشركائها، والنظام الدولي القائم على قواعد.

 

أثار الذكاء الاصطناعي ثورة أمنية بدأت تتجلى تواً

 

ولكن الكلام على تعجيل الخطوة أسهل من خطوها. وربما تتصدر الولايات المتحدة دول العالم في بحوث الذكاء الاصطناعي وتطويره، ولكن الحكومة الأميركية لا تزال تواجه صعوبات كثيرة في تبني تكنولوجيات مبتكرة مثل الذكاء الاصطناعي بسرعة وعلى نطاق واسع. وتراها لا توظف عدداً كافياً من المهنيين ذوي الخبرة الفنية اللازمة لاختبار منتجات الذكاء الاصطناعي، وتقييمها وشرائها وإدارتها. ولا تزال تعمل على إنشاء البنية الأساسية للبيانات والكمبيوتر اللازمة لدعم نماذج الذكاء الاصطناعي الكبيرة. وهي لا تملك التمويل المرن المطلوب الذي يسمح لها بحيازة نماذج الذكاء الاصطناعي الواعدة بسرعة ونشرها في سائر الهيئات. ولا يزال يتعين عليها تطوير عمليات الاختبار، والتقييم، والمنصات اللازمة، حرصاً على أمن أي ذكاء اصطناعي مدمج في الأنظمة العسكرية وعلى سلامته. وعندما يضطلع الذكاء الاصطناعي بدور في استخدام القوة، لا بد من أن يكون مستوى الحفاظ على السلامة والثقة مرتفعاً جداً.

والسياسيون ومسؤولو الدفاع، على العموم، مدركون لهذه المسائل. ويولي قادة الكونغرس اهتماماً حريصاً بالذكاء الاصطناعي، ويعقدون مناقشات حول مناهج صوغ قواعد تنظيمية تلتزم بها هذه الصناعة، وتحافظ في الوقت نفسه على قدرتها التنافسية على مستوى العالم. ووضع مكتب وزير الدفاع إطاراً سياسياً للذكاء الاصطناعي بغية تسريع اعتماده بشكل مسؤول وآمن من جانب وزارة الدفاع. وتُبذل الجهود الأولى لتعزيز الذكاء الاصطناعي، وإنشاء أطواق حول استخدامه في الوقت نفسه، وهذان هدفان متناقضان على ما يبدو.

ولكن الكونغرس لم يتخذ أي إجراء بعد، ولا يزال تطبيق العمل الذي أطَّر البنتاغون به الذكاء الاصطناعي قيد التنفيذ. وعلى رغم أن إنشاء "مكتب رئيس للذكاء الاصطناعي والرقمي"، في وزارة الدفاع، خطوة فارقة مهمة، لم يزود الكونغرس هذا المكتب بعد بالموارد التي يحتاج إليها لاعتماد الذكاء الاصطناعي المسؤول في المؤسسة الدفاعية. وحرصاً على أن تكون تطبيقات الذكاء الاصطناعي الدفاعية آمنة وناجحة، على البنتاغون تعزيز حواجز الحماية الخاصة بالذكاء الاصطناعي، وإضافة موظفين فنيين جدد، وتطوير طرق جديدة لاختبار الذكاء الاصطناعي وشرائه. والوقت عامل جوهري حاسم، والأخطار المترتبة على التأخُّر كبيرة إلى حد أنه لا يسع الولايات المتحدة أن تتخلف عن الركب.

 

 

هنا والآن

وبينما لا تزال السياسات والقوانين التنظيمية قيد الصياغة، يُحدث الذكاء الاصطناعي فعلاً تحوُّلاً في صورة أمن الولايات المتحدة. فالقوات الجوية الأميركية، مثلاً، شرعت في استخدام الذكاء الاصطناعي للمساعدة في توزيع الموارد، والتنبؤ بالأوجه التي يشكل بها قرار واحد برنامجها وميزانيتها. فإذا أضاف قادة القوات الجوية، مثلاً، سرباً آخر من طائرات "أف- 35" (F-35)، تولت منصة تخصيص الموارد المدعومة بالذكاء الاصطناعي تسليط الضوء فوراً على التكاليف المترتبة على القرار، وكذلك على آثاره في الأفراد، والقواعد الحربية، والطائرات المتاحة، وفي المجالات المهمة الأخرى.

 

تدرّب المؤسسات الأميركية كثيرين من أفضل خبراء التكنولوجيا في العالم ثم تبعدهم عن البلاد

 

وبدأ الجيش الأميركي، على النحو نفسه، استخدام نماذج الذكاء الاصطناعي في صيانة أنظمة الأسلحة المعقدة، بدءاً بالسفن وصولاً إلى الطائرات المقاتلة. وفي مقدور الذكاء الاصطناعي، الآن، أن يجمع البيانات من أجهزة استشعار النظام الأساسي، ثم توقع موعد ونوع الصيانة التي تعزز جاهزيتها ومدة عملها مع خفض التكاليف.

وهذه المعلومات الخاصة بالصيانة مجدية جداً، وهي ليست إلا أول إنجازات الذكاء الاصطناعي الاستباقي. ويستخدم مجتمع الاستخبارات الأميركي، وكثير من القيادات القتالية الأميركية، أي القيادات العسكرية المشتركة ذات المسؤولية التنفيذية في منطقة أو وظيفة معينة، الذكاء الاصطناعي للتدقيق في مجموعات من البيانات السرية، وغير السرية، كي تحدد أنماط السلوك، وتوقع الحوادث الدولية المستقبلية. وفي مجتمع الاستخبارات، ساعد الذكاء الاصطناعي المحللين على التنبؤ بالغزو الروسي لأوكرانيا قبل أشهر من شنه، ما مكن الولايات المتحدة من تحذير العالم، وحرمان الرئيس الروسي فلاديمير بوتين من عنصر المفاجأة. وفي القيادة الإستراتيجية الأميركية، يُستفاد من الذكاء الاصطناعي الذي طورته شركة "رومبوس باور" Rhombus Power  (وأنا مستشار لديها) للمساعدة في تحذير المسؤولين من حركة الصواريخ المسلحة نووياً، والتي غالباً ما نجحت في الإفلات من عمليات الرصد في الماضي.

 

ليس لدى بكين أي نية للتنازل عن الهيمنة التكنولوجية لواشنطن

 

كذلك يمنح الذكاء الاصطناعي الاستباقي واشنطن فهماً أفضل للأفكار التي ربما تجول في بال خصومها المحتملين، وقادة بكين في المقدمة. وخلافاً لما حدث في أثناء ذروة الحرب الباردة، عندما شارك جحافل من الخبراء في عملية صنع القرار السوفياتي، لا تزال الولايات المتحدة تستكشف كيف تترجم القيادة الصينية السياسة إلى أفعال محددة. ويمكن لمجتمع الاستخبارات، مثلاً، تطوير نموذج لغوي كبير يسعه استيعاب جميع الكتابات والخطب المتاحة للقادة الصينيين، فضلاً عن تقارير الاستخبارات الأميركية حول هذه الشخصيات، ثم محاكاة الكيفية التي قد يقرر بها الرئيس الصيني شي جينبينغ تنفيذ السياسة المعلنة. والمحللون يطرحون أسئلة محددة على النموذج، مثلاً: "تحت أي ظروف قد يقدم الرئيس شي على استخدام القوة ضد تايوان؟"، ويتوقعون الإجابات المحتملة بناءً على كم هائل من بيانات مستقاة من مصادر تفوق ما يسع أي إنسان أن يجمعه بسرعة. بل يمكنهم أن يطلبوا من النموذج أن يرسم كيف ترتسم الأزمة، وكيف تؤدي القرارات المختلفة إلى النتيجة. ويمكن أن تكون الأفكار الناتجة مفيدة في توفير المعلومات للمحللين وصانعي السياسات، شريطة أن تكون مجموعات التدريب شفافة (بمعنى أنها تستشهد بمصادر البيانات التي تستند إليها الأحكام الرئيسة) وموثوقة (وليست عرضة "لهلوسة الذكاء الاصطناعي"، علماً أن الأخيرة استنتاجات يتوصل إليها الذكاء الاصطناعي ولا تفسير لها).

ويستخدم رجال الاستخبارات أصلاً الذكاء الاصطناعي يومياً في تفحص آلاف الصور ومقاطع الفيديو. وكان على المحللين، من قبل، أن يشاهدوا طوال آلاف من الساعات مقاطع فيديو، وحركاتها كلها، علهم يعثرون على تفاصيل مثيرة للاهتمام، ويميّزونها من غيرها، سواء كانت تجمعات للدبابات أو صواريخ متنقلة متفرقة. ولكن استخدام الذكاء الاصطناعي يتيح للمطورين تدريب نموذج لفحص كل هذه المواد، وتحديد الأمور التي على المحلل تعقّبها من دون غيرها، وذلك في غضون ثوانٍ أو دقائق. ويستطيع المحلل ضبط نموذج الذكاء الاصطناعي ليرسل تنبيهاً عند العثور على شيء جديد مثير للاهتمام في منطقة جغرافية معينة. وهكذا، تعمل أدوات "الرؤية الحاسوبية" على تمكين المحللين من صرف وقت إضافي على إنجاز مهمات في متناول البشر وحدهم: توظيف خبراتهم وفهمهم في تقويم معنى النتائج التي يكتشفها الذكاء الاصطناعي وآثارها. ولما صارت هذه النماذج أكثر دقة وموثوقية، وسعها مساعدة القادة الأميركيين الميدانيين على اتخاذ قرارات تشغيلية حاسمة تفوق سرعتها بأشواط قدرة الخصم على الرد، ما يمنح القوات الأميركية امتيازاً [موارد تفوق] ضخماً، وربما حاسماً.

وفي متناول الذكاء الاصطناعي، كذلك، أن يدعم العمليات العسكرية من سبل أخرى. فإذا شوش خصم ما على شبكات القيادة والتحكم والاتصالات الأميركية، أو هاجمها، يعمل الذكاء الاصطناعي على تمكين "وكيل" (أو مساعد) بتولي عمليات التحويل والتوجيه من إعادة توجيه تدفق المعلومات بين أجهزة الاستشعار، وصانعي القرار، ومطلقي النار، للتأكد من بقائهم على الاتصال وعلى إلمام وإدراك للحال. ويضطلع امتلاك هذه القدرات بأهمية بالغة في ضمان قدرة واشنطن وحلفائها على اتخاذ قرارات أفضل، وبشكل أسرع من خصومهم، في خضم القتال.

ويمكن للذكاء الاصطناعي أن يساعد القوات الأميركية، والقوات المتحالفة معها، على تعزيز عمل الجنود الأفراد في الميدان. وتسمح بعض تطبيقات الذكاء الاصطناعي، وهي قيد التطوير، لمشغل بشري واحد بالتحكم في أنظمة متعددة غير مأهولة، مثل سرب من طائرات "درون" في الهواء، أو على الماء، أو تحت سطح البحر. فيمكن للطيار المقاتل استخدام سرب من طائرات "درون" في إرباك نظام الرادار ودفاع العدو الجوي، أو التشويش عليه. ويستطيع قائد الغواصة استخدام المركبات المسيرة من بُعد تحت سطح البحر لإجراء استطلاع في منطقة معززة بنظام دفاع عالٍ، أو البحث عن ألغام تحت سطح البحر، وتهدد السفن الأميركية أو سفن الحلفاء. وأعلن البنتاغون، أخيراً، عن برنامج طائرات "درون" "ريبليكايتور" Replicator، يَعِد بإدخال آلاف من الأنظمة الصغيرة والذكية، ومنخفضة التكلفة، وآحادية الاستخدام، والمستقلة، في العامين المقبلين.

وفي الصراع مع الصين على تايوان، قد يكون هذا التعاون بين الإنسان والآلة ذا أهمية بالغة. فإذا قررت بكين استخدام القوة للاستيلاء على الجزيرة، حازت امتياز القتال على أرضها، وقدرت على حشد القوات بسهولة. وفي الوقت نفسه، تضطر الولايات المتحدة إلى إرسال وحداتها مسافات طويلة، وبأعداد أقل كثيراً. وإذا نجح الجيش الأميركي في دعم منصاته ذات التحكم البشري بالمقاتلات، وقاذفات القنابل، والسفن، والغواصات، بأعداد كبيرة من الأنظمة المسيرة من بعد والبخسة الثمن نسبياً، فقد يعوض إلى حد ما هذا النقص النسبي، ويعرقل عمليات الجيش الصيني عرقلة حادة.

اتقن فن اللعبة

ولا تنوي بكين، طبعاً، التنازل لواشنطن عن الهيمنة التكنولوجية. وتراها تعمل جاهدة من أجل تطوير تطبيقاتها العسكرية المتقدمة والخاصة بالذكاء الاصطناعي. فمثلاً، توظف الصين استثمارات كبيرة في استخدام الذكاء الاصطناعي في مهمات لا تختلف عن مهمات الولايات المتحدة، مثل المراقبة، وتحديد الأهداف، وتوجيه أسراب طائرات "درون". ولكن الفرق أنها قد لا تكون ملزمة بالقيود الأخلاقية التي تلتزم بها الولايات المتحدة وحلفاؤها، خصوصاً عندما يتعلق الأمر باستخدام أنظمة الأسلحة المستقلة تماماً.

 

 

وفي السباق نحو التفوق التكنولوجي، تتمتع الصين ببعض المزايا الواضحة. وعلى عكس واشنطن، تملي بكين أولويات بلادها الاقتصادية، وتخصص الموارد التي تراها ضرورية في سبيل تحقيق أهداف الذكاء الاصطناعي. وتشجّع سياسة الأمن القومي الصينية القراصنة الإلكترونيين، والمسؤولين والموظفين الصينيين، على سرقة الملكية الفكرية الغربية، ولا تخجل بكين من محاولة توظيف كبار خبراء التكنولوجيا الغربيين في المؤسسات الصينية. ولما كانت الصين تنتهج سياسة "الدمج المدني العسكري"، وغرضها إزالة الحواجز بين قطاعيها المدني والعسكري، استطاع جيش التحرير الشعبي الصيني أن يعتمد على عمل الخبراء والشركات الصينية متى شاء. وعند حلول عام 2025، تُخرِّج الصين نحو ضعفي عدد طلاب الدكتوراه في الولايات المتحدة، في مجالات العلوم والتكنولوجيا والهندسة والرياضيات، فيمدّ الاقتصاد الصيني بعلماء الكمبيوتر الموهوبين، على وجه التخصيص.

ولكن الولايات المتحدة تملك نقاط قوة فريدة. فاقتصاد البلاد، القائم على السوق والنظام السياسي المنفتح، يمنح المطوّرين مساحة للإبداع، وينشر أنظمة ابتكار لا نظير لها في "وادي السليكون"، ومنطقة "أوستن الحضرية"، وممر طريق ماساتشوستس 128، وأماكن أخرى. وفي جعبة الولايات المتحدة رأس مال استثماري بالغ الأهمية، ومنظومة أسهم خاصة تجذب استثمارات محلية ودولية لا تضاهى. وهي بلد جامعات رائدة عدة في العالم، تجذب بعض أفضل المواهب التقنية، وتحتفظ بها. ونصف الشركات الناشئة، في وادي السيليكون، كان بين مؤسسيها مهاجر واحد، على أضعف تقدير. وبين أولئك الذين يقلقهم التقدم السريع الذي أنجزته الصين في مجال الذكاء الاصطناعي، قليلو العدد، إن وجدوا، وهم من قد يستبدلون الولايات المتحدة بالصين. ولكن جميعهم تقريباً يتفقون على أن الولايات المتحدة في حاجة إلى مزيد من اتقان اللعبة كي تظفر بالفوز.

وعلى وزارة الدفاع، ومجتمع الاستخبارات، في سبيل ذلك، زيادة الاستثمار في تسريع اعتماد الذكاء الاصطناعي. ويمكنهما البدء بإنشاء أنظمة بنى أساسية رقمية مشتركة، موحدة المعايير، لضمان التوافق في التشغيل. وعلى البنية الأساسية أن تشمل التكنولوجيات والخدمات السحابية؛ ومعايير البيانات المشتركة؛ ومجموعات البيانات المدققة؛ والوصول المشترك إلى مجموعات البرامج الآمنة؛ وأدوات متطورة لاختبار نماذج الذكاء الاصطناعي وتقومها، بالتثبّت من صحتها؛ وواجهات برمجة التطبيقات الآمنة التي تحدد من يمكنه الوصول إلى المعلومات، على مستويات التصنيف المختلفة. والهدف هو منح المطورين البيانات والخوارزميات والأدوات والقدرة الحاسوبية، أو قوة الحوسبة العالية السرعة، التي يحتاجون إليها في إنشاء أدوات الذكاء الاصطناعي الجديدة، واختبارها، والتحقق من صحتها واستخدامها.

وجودة هذه الأدوات رهنُ كفاءة الأشخاص الذين يتولون تشغيلها. وفي الوقت الحالي، لا تمتلك وزارة الدفاع قوة عاملة ماهرة رقمياً. وقليلون هم الموظفون الذي يتمتعون بإلمام كافٍ بالذكاء الاصطناعي واستخدامه على نحو صائب، وفي مقدورهم اختبار أدواته وتقويمها للتأكد من أنها تلبي معايير البنتاغون الخاصة بـ"الذكاء الاصطناعي المسؤول"، أو لتقويم نماذج الذكاء الاصطناعي التي تلبي، على أفضل وجه، حاجات الجيش الأميركي أو وزارة الدفاع الأميركية، على رغم أن وزارة الدفاع واحدة من كبرى المؤسسات في العالم.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وفي سبيل جذب مزيد من المواهب في مجال الذكاء الاصطناعي، والاستفادة من القوى التكنولوجية العاملة لديها أصلاً، يجدر بوزارة الدفاع الأميركية إدخال تحسينات على طريقتها في توظيف الموظفين ذوي المهارات الرقمية وإدارتهم. ويستحسن أن يبدأ البنتاغون باتباع نصيحة "لجنة الأمن القومي" بشأن الذكاء الاصطناعي، وإنشاء هيئة رقمية (على غرار الهيئة الطبية في الجيش) تعمل على تنظيم الموظفين الخبراء في التكنولوجيا وتدريبهم وتجهيزهم. وإلى ذلك، على أكاديميات الخدمة العسكرية الحالية جميعاً أن تبدأ بتدريس أساسيات الذكاء الاصطناعي. وعلى البنتاغون إنشاء أكاديمية أميركية للخدمة الرقمية تتولى تعليم وتدريب التكنولوجيين المدنيين الطموحين، وتزويدهم بتعليم جامعي مجاني، لقاء التزامهم بالخدمة في الحكومة طوال خمس سنوات بعد التخرّج، على أقل تقدير. وأخيراً، يتعين على وزارة الدفاع إنشاء فيلق احتياطي رقمي يفتح باب التطوع أمام العاملين في مجال التكنولوجيا، من مختلف أنحاء الولايات المتحدة، بدوام جزئي، في سبيل خدمة بلدهم.

ولن ينجح البنتاغون أبداً في جذب عدد كبير من خبراء الذكاء الاصطناعي، خلافاً للقطاع الخاص. وعليه، على المؤسسة الدفاعية الاستفادة، بداية، من المواهب الخارجية بشكل أفضل. وعلى وزارة الدفاع تعميق مفاوضاتها مع شركات التكنولوجيا، وأقسام علوم الكمبيوتر في الجامعات الرائدة. وينبغي أن تقلّل من بعض الحواجز البالية الموجودة أمام شركات التكنولوجيا التي تتعامل مع الحكومة. لذا، على مسؤولي الدفاع التفكير من جديد في كيفية شراء المنتجات والخدمات الناجمة عن البرمجيات، بما في ذلك الذكاء الاصطناعي. وعوض صرف سنوات كثيرة على تطوير مجموعة ثابتة من المتطلبات المحددة جداً، وهو ما تلجأ إليه الوزارة عند شراء المعدات العسكرية، عليها أن تحدد بسرعة المشكلات الدقيقة التي تحاول حلها، والمعايير المشتركة التي لا بد من أن تلبيها الحلول المقترحة، ثم السماح للشركات بتقديم الحلول في عروض مناقصة تنافسية. وينبغي التأكد من أن الأشخاص الذين سيستخدمون أدوات الذكاء الاصطناعي قادرون على تقديم الملاحظات في أثناء تطوير النماذج واختبارها.

وحري بالبنتاغون إنشاء مسار وظيفي مخصص لخبراء الاقتناء [الذين يساعدون المؤسسة على شراء السلع والخدمات والأصول التي تريدها]، الراغبين في التخصص في الذكاء الاصطناعي والتكنولوجيات الأخرى ذات التوجه التجاري. وخضعت غالبية فرق الاقتناء الحالية، التابعة لوزارة الدفاع، للتدريب على شراء أنظمة أسلحة معقدة، مثل الغواصات، والصواريخ، والطائرات النفاثة، الأمر الذي يتطلب الاهتمام الدقيق بما إذا كانت الجهات المتعاقدة تستوفي المواصفات الصارمة، ومعايير التكلفة، والمواعيد المقررة. ولكن معظم هؤلاء المهنيين (وهذا أمر مفهوم) يتجنبون المخاطرة، لأنهم غير مدربين، ولا يحفّزون على شراء تكنولوجيات تجارية سريعة التطور، أو تعطيل برنامج اقتناء قائم وقديم من أجل دمج تكنولوجيا جديدة أكثر فاعلية. فعلى البنتاغون إنشاء مجموعة جديدة من خبراء الاقتناء المدربين خصيصاً لشراء هذا النوع من الأنظمة. وينبغي اعتبار هذه المجموعة في مثابة قوات "القبعات الخضر" في مجال الاقتناء. ولا بد من مكافأة أعضائها، وترقيتهم على أساس قدرتهم على تقديم التكنولوجيات التجارية المطلوبة، وتوسيع نطاقها بسرعة، مثل الذكاء الاصطناعي.

وعلى رغم أن الإصلاحات الداخلية تسهم في تسريع عمل البنتاغون، يحتاج مسؤولو الدفاع إلى دعم مستمر من الكونغرس لمواكبة نظرائهم الصينيين. لذا، على الكونغرس أن يمنح وزارة الدفاع تمويلاً أكثر مرونة، ويسمح لها بإدارة برامج الذكاء الاصطناعي على النحو الأمثل. ومعروف أن معظم مخصصات البنتاغون ثابتة: فعندما يمول الكونغرس برنامجاً ما، لا تستطيع الوزارة صرف المخصصات المالية إلى وجه آخر. إلا أن الذكاء الاصطناعي يتطور سريعاً، وفي اتجاهات عدة ومختلفة. ويحتاج مسؤولو الدفاع إلى المزيد من سلطات تخولهم إعادة البرمجة، وتمويلاً أكثر مرونة يمكنهم من نقل الأموال بسرعة من باب مشاريع ذات أداء ضعيف، إلى باب مشاريع واعدة، مع إشعار الكونغرس بالأمر. ويعد هذا النهج إجراءً بالغ الأهمية لتمكين البنتاغون من اعتماد الذكاء الاصطناعي بالمرونة والسرعة المناسبتين.

وفي الوقت نفسه، على الكونغرس أن يزود "المكتب الرئيس للذكاء الرقمي والاصطناعي" بتمويل انتقالي يدعم المشاريع الواعدة في مجال الذكاء الاصطناعي، ويساعدها على عبور ما يسمى "وادي الموت"، أي المدة الصعبة الفاصلة بين الوقت الذي يبرهن فيه المشروع على نجاحه، وبين الوقت الذي تكون فيه الوزارة مستعدة لإدراجه ضمن المشاريع المتكاملة التي تحظى بالتمويل. فلا يسع الجيش الأميركي أن يرجئ تبنيه أداة مهمة من أدوات الذكاء الاصطناعي المحققة في 2023 إلى صدور ميزانية 2025، أو بعد ذلك.

وعلى الولايات المتحدة ألاّ تتخلى عن استقطاب أفضل المواهب التكنولوجية في العالم بوسائل شتى، بما في ذلك تعديل أسس نظام الهجرة الأميركي. فقد يرغب طلاب وعمال العلوم والتكنولوجيا في القدوم إلى الولايات المتحدة والبقاء فيها. ولكن قواعد الهجرة البيزنطية تجعل هذه الخطوة محالة في حال كثير منهم. فالتأشيرات التعليمية للطلاب الأجانب لا تجيز البقاء في الولايات المتحدة فوق ثلاث سنوات بعد التخرُّج. وترتّبت على هذا عواقب ضارة: فالمؤسسات الأميركية تضطلع بتدريب كثير من أفضل خبراء التكنولوجيا في العالم، ثم تبعدهم من الولايات المتحدة. وكثير من هؤلاء صينيون، ويعودون إلى الصين، طبعاً.

إلى ذلك، وجراء القيود القاسية التي فرضها الكونغرس على تأشيرات "أتش 1 بي"H-1B ، التي تقدمها الولايات المتحدة للعمال المهرة غالباً، يتعذر عليها جلب عدد وافر من المتقدمين. فمن بين 758 ألفاً و994 تسجيلاً إلكترونياً، تلقتها قرعة تأشيرة "أتش 1 بي" لعام 2023، اختير 110 آلاف و791 شخصاً فقط (أي أقل من 15 في المئة). أي أن الولايات المتحدة تحول دون استثمار المواهب الأجنبية اللازمة جداً، على رغم أنه من شأنها أن تسهم طوعاً، وعلى نحو مجدٍ، في تعظيم قدرة البلاد على المنافسة في مجال الذكاء الاصطناعي، وغيره من التكنولوجيات البالغة الأهمية.

خطر كبير ومكافأة عالية

والحق أنه لا غنى لأمن الولايات المتحدة في المستقبل عن الذكاء الاصطناعي. ولكنه يتهدّد بأخطار كبيرة. ويعمل الذكاء الاصطناعي، أصلاً، على تسريع انتشار المعلومات المضللة عبر الإنترنت، ويسهل التمييز غير المقصود في التوظيف. ونبه عدد من علماء الكمبيوتر إلى مقدرته على تمكين الهجمات الإلكترونية الآلية بسرعة خاطفةً. وقال علماء في الكيمياء أن الذكاء الاصطناعي قادر على تصنيع أسلحة كيماوية. وأبدى علماء في البيولوجيا خشيتهم من إمكانية استخدامه لتطوير مسببات أمراض، أو أسلحة بيولوجية جديدة. ويبدو أن هذه الأخطار قوية إلى حد أن قادة صناعة الذكاء الاصطناعي أعربوا عن قلقهم من هذه التكنولوجيا. وفي مايو (أيار) 2023، وقّع رؤساء مختبرات الذكاء الاصطناعي الكبيرة في الولايات المتحدة على رسالة تحذر من أن اختراعاتهم تشكل تهديداً وجودياً للبشرية.

والحق أن الأمن القومي مجال نشاط بشري تتبدى فيه أخطار الذكاء الاصطناعي على نحو بالغ ووخيم. فمن شأن نماذج الذكاء الاصطناعي أن تخطئ في تحديد الأشخاص أو الأشياء كأهداف، ما يؤدي إلى موت ودمار غير مقصودين في أثناء النزاع. ونماذج الذكاء الاصطناعي التي تُعرف بـ"الصندوق الأسود"، وهي يتعذر فهم استنتاجاتها أو تفسيرها تفسيراً وافياً قد تدفع المخططين العسكريين إلى اتخاذ قرارات خطيرة. ويتفاقم هذا الخطر في حال استخدام، ذكاء اصطناعي في تنفيذ عملية ما على رغم أن تطويره كان لغرض آخر، وذلك قبل استيفاء الاختبارات. ومعلوم أن النتائج العقلانية والمسؤولة تماماً، في ظرف ما، ربما تكون غير عقلانية وخطيرة في ظرف آخر.

ولا تنبع الأخطار من الأنظمة السيئة التصميم أو المستخدمة بلامبالاة فحسب. وتتوخى الولايات المتحدة الدقة الشديدة في تطوير الذكاء الاصطناعي وإعماله. وقد يتمكّن خصومها من ابتكار طرق لإتلاف البيانات الأميركية، وحمل الأنظمة على الخروج عن السيطرة. فإذا كان الخصم قادراً على خداع حاسوب بصري، مدعّم بالذكاء الاصطناعي، واستهداف مركبة مدنية بدلاً من مركبة عسكرية، تلحق الولايات المتحدة الأذى بمدنيين في منطقة النزاع عن غير قصد، ما يقوّض مصداقية الولايات المتحدة ودالّتها الأخلاقية. وفي مستطاع الخصم أن يفسد البيانات بأساليب من شأنها أن تؤدي إلى تدهور أداء نظام الأسلحة الذي يدعم الذكاء الاصطناعي، أو ربما يوقف تشغيله.

ويعي البنتاغون هذه الأخطار. وهو أصدر في فبراير (شباط) 2020 مدوّنة مبادئ أخلاقية تنظم أوجه استخدام الذكاء الاصطناعي. ويدعو أحد المبادئ موظفي الوزارة إلى اتخاذ خيارات جيدة، وتوخي الحرص على تطوير ونشر واستخدام قدرات الذكاء الاصطناعي. ونص مبدأ آخر على أن وزارة الدفاع تحاول "الحد من التحيز غير المقصود في قدرات الذكاء الاصطناعي". ودعا مبدأ ثالث إلى ضمان تصنيع واستخدام الذكاء الاصطناعي، بطرق يمكن فهمها وتفسيرها، من طريق استخدام بيانات ومنهجيات شفافة وقابلة للتدقيق. وقد أصدر قادة الدفاع توجيهات إلى موظفيهم تحثهم على التأكد من خضوع أنظمة الذكاء الاصطناعي لاختبارات صارمة تثبت سلامتها، وأمان استعمالها وفاعليتها؛ وأن تكون مخصصة لاستخدامات محددة بوضوح؛ إضافة إلى إمكان تعطيلها أو وقفها عن العمل إذا أظهرت سلوكاً غير متعمد.

وفي شأن الأسلحة المستقلة وشبه المستقلة، أصدرت وزارة الدفاع الأميركية إرشادات أكثر تحديداً. ووجّه قادة البنتاغون الضباط، ومشغلي الأسلحة، إلى الحذر عند اتخاذ قرارات بشأن الأسلحة المدعومة بالذكاء الاصطناعي، بما في ذلك الحرص على الاستفادة منها بطرائق تتفق مع معايير تدريب النموذج، ومع قواعد اشتباك العملية التي يستخدم فيها الذكاء الاصطناعي. وتنص قواعد وزارة الدفاع على رهن لجوء القادة إلى الذكاء الاصطناعي بقوانين الحرب. فلا بد من أن يتمتع أي سلاح مدعوم بالذكاء الاصطناعي بالقدرة على التمييز، بمعنى أن يميز المقاتلين من غير المقاتلين في ساحة المعركة، وبالقدرة على تجنب استهداف الأخيرين عمداً. وحظر البنتاغون استخدام الذكاء الاصطناعي في أنظمة القيادة والسيطرة النووية، وحث القوى النووية الأخرى على أن تحذو حذوه.

وحازت قواعد "الذكاء الاصطناعي المسؤول" هذه إجماعاً كبيراً بين قيادات مجتمع الدفاع الأميركي. ولكن وضعها موضع التنفيذ ليس بالتحدي البسيط، خصوصاً في ضوء الحجم الهائل لجهاز الدفاع في الولايات المتحدة. وشرع البنتاغون في تنفيذ هذه العملية من طريق إنشاء هيئة حوكمة رفيعة المستوى، والبدء في إنشاء البيانات، والبنية الأساسية الرقمية، لدعم مجموعة متنوعة من تطبيقات الذكاء الاصطناعي؛ وبناء قدرات الاختبارات، والتقييم، والتحقق اللازمة لضمان الامتثال لمبادئ الذكاء الاصطناعي الخاصة بوزارة الدفاع؛ وزيادة الوعي بالذكاء الاصطناعي على نطاق الوزارة. وعملية التنفيذ هذه لا تزال في مهدها. ولكن الإطار السياسي يوفر أساساً سليماً يمكن البناء عليه.

ومع ذلك، فمن باب الحكمة أن يعمل البنتاغون على تعزيز هذه المبادئ التوجيهية. وعلى مسؤولي الدفاع أن يطلبوا من جميع شركات الذكاء الاصطناعي توخي الشفافية التامة مع وزارة الدفاع الأميركية، في ما يتعلق بمصادر البيانات التي تستخدمها في مجموعات التدريب الخاصة بها. وإلى ذلك، على الوزارة التأكد من أن يكون سلوك أي نموذج تتبناه من الذكاء الاصطناعي قابلاً للتفسير، ومفهوماً تماماً من جانب المستخدمين والمطورين، وألا يكبح الابتكار. ويسعها تحقيق هذه الخطوات عبر التشدد في اختبار الأنظمة الذكية، وتقويمها والتحقّق منها. وعلى الوزارة توسيع نطاق العمل الذي تقوم به "وكالة مشاريع الأبحاث الدفاعية المتقدمة" ("داربا")، وهي أحد الكيانات الأميركية المسؤولة عن تطوير التكنولوجيات الناشئة للجيش، للتأكد من أن أدوات الذكاء الاصطناعي واضحة ومسؤولة، جوهرياً. وبعبارة أخرى، لا بد من التعامل مع المبادئ الأخلاقية التي تضعها الوزارة على أنها معايير ملزمة تحدد طريقة تصميم نماذج الذكاء الاصطناعي الدفاعي منذ البداية.

ولكن مجتمع الدفاع الأميركي لن يتمكن من التعجيل في تبني الذكاء الاصطناعي ما لم ينتهِ الشعب الأميركي إلى الاقتناع بأنه سيستخدم الذكاء الاصطناعي على نحو فاعل ومسؤول وأخلاقي وقانوني. وإلا، ففي المرة الأولى التي يسفر فيها استخدام الذكاء الاصطناعي عن قرار سيئ جداً، أو عواقب خطيرة غير مقصودة في ساحة المعركة، من المرجح أن يخسر ثقة المقاتلين. وليس مستبعداً، آنذاك، أن يعلق صانعو السياسات والمشرعون استخدامه أو يحظرونه. لذا، على وزارة الدفاع تعزيز استثماراتها في البحث والتطوير، في مجال سلامة وأمن الذكاء الاصطناعي. ولا بد من أن تراعي الشفافية في شأن المهمات التي يضطلع بها الذكاء الاصطناعي والمهمات التي لن تستخدمه في إنجازها. وعلى البنتاغون أن يبحث في جعل الشركات التابعة له ترفع حواجز في وجه تطوير الذكاء الاصطناعي. وإذا أرادت شركة ما وضع ذكاء اصطناعي في متناول الجيش، مثلاً، يستحسن بوزارة الدفاع أن تشترط تلبية معايير صارمة لحماية البيانات والأمن السيبراني. وهكذا، يسهم البنتاغون في أن يكون الذكاء الاصطناعي أكثر أمناً، ويرعى أمن القوات المسلحة، وأمن الجميع.

ويتعذر على الولايات المتحدة أن تحرص بمفردها على تطوير الذكاء الاصطناعي واستخدامه بشكل مسؤول. ويتعيّن على البلاد الأخرى، من بينها البلاد المنافسة، أن تتبنى قيوداً ومعايير سياسية. واتخذ العالم خطوة أولى مهمة عندما وافقت 193 دولة، في نوفمبر (تشرين الثاني) 2021، على اتفاقية عالمية بشأن أخلاقيات الذكاء الاصطناعي، وكانت الأولى من نوعها في العالم. وتنص على وجوب أن تضمن الدول الإشراف البشري على الذكاء الاصطناعي برمته.

والحق أن هذه الاتفاقية تشكل أساساً مهماً، ولكن على الولايات المتحدة البحث عن سبل لعقد مناقشات بشأن الذكاء الاصطناعي مع خصومها المحتملين، وخصوصاً الصين، مثلما توصّلت إلى سبل لمفاوضة الاتحاد السوفياتي في الحرب الباردة، حول وقف الأسلحة النووية، وغيره من أشكال الحد من التسلُّح. ويُفترض نجاح واشنطن في العمل بشكل وثيق مع حلفائها وشركائها للتأكد من أنهم جميعاً على وفاق. وينبغي للدول التي تتفق على مجموعة من قواعد الذكاء الاصطناعي أن تكون على استعداد لمعاقبة الجهات المخالفة، وتسديد تكاليف باهظة، من بينها العقوبات الاقتصادية المتعددة الأطراف، والطرد من الهيئات الدولية، واتخاذ إجراءات قانونية تحمّل الجناة المسؤولية عن الضرر. ويمكن مقاضاة الجهات الفاعلة التي تنتهك قواعد الذكاء الاصطناعي أمام محكمة اتحادية أميركية، وهو ما واجهه خمسة قراصنة إلكترونيين صينيين في عام 2014 جزاء شنهم هجمات إلكترونية على شركات أميركية. وقد تواجه الدول التي تنتهك هذه القواعد انتقاماً محتملاً على أي ضرر يحدث، بما في ذلك، في الحالات القصوى، العمل العسكري.

ضرورة السرعة المسؤولة

في عالم الإلكترونيات الدقيقة، يتحدث الخبراء غالباً عن "قانون مور" Moore’s law: والأخير يقرر أن عدد الترانزستورات على شرائح المعالج يتضاعف كل سنتين، ما يقود إلى ظهور أجهزة أكثر قدرة بأشواط. ويفسر القانون الصعود السريع لكثير من الابتكارات التكنولوجية، ومنها الهواتف الذكية ومحركات البحث.

وفي مجال الأمن القومي، أفضى التقدم في الذكاء الاصطناعي إلى نوع آخر من "قانون مور". فأياً كان الجيش الذي يتقن تنظيم استخدام البيانات والذكاء الاصطناعي في عملياته في السنوات المقبلة، ودمجها، يحصد تقدماً هائلاً، ويرجّح كفته على أعدائه. وعلى الأرجح، سوف تكون السرعة في اتخاذ القرارات أكبر لدى أول جهة تأخذ بالذكاء الاصطناعي على نطاق واسع، وسوف تحوز معلومات أفضل تستند إليها في قراراتها. ويُتوقع أن تكون شبكاتها أكثر مرونة عندما تتعرض للهجوم، وتحافظ على قدرتها على الإلمام الدائم بالأحوال العسكرية، والدفاع عن قواتها، والاشتباك الفاعل مع الخصوم، وحماية سلامة أنظمة قيادتها وتحكمها واتصالاتها. وفي مستطاعها التحكم في أسراب من أنظمة مسيرة [تحكم ذاتي] في الجو، والماء، والبحر، وإرباك الخصم والتشويش عليه. ولا تملك الولايات المتحدة ترف التخلف عن الركب.

وليس في مستطاع جهاز الأمن الوطني الانقياد للتهور. ومن دون الضمانات المناسبة، تتسبب نماذج الذكاء الاصطناعي بجميع أنواع الضرر غير المقصود. ويمكن للأنظمة الشريرة أن تقتل القوات الأميركية، أو المدنيين العزّل، في مناطق القتال أو على مقربة منها. لذا، تجد الولايات المتحدة نفسها في مواجهة معضلة. فالأخطار المترتبة على إبطاء عجلة الذكاء الاصطناعي مرتفعة إلى حد غير مقبول، ولكن الأخطار المترتبة على مجاراته من دون اتخاذ الاحتياطات اللازمة، مرتفعة كذلك.

ويبدو أن صانعي القرار السياسي في الولايات المتحدة يدركون هذه المفارقة. ويدرك قادة الكونغرس أنهم إذا صاغوا قواعد تنظم استخدام الذكاء الاصطناعي صوغاً متزمّتاً ومتشدّداً، حملوا أفضل المبدعين في مجال الذكاء الاصطناعي على مغادرة الولايات المتحدة، والعمل حيث القيود أقل. وأدى هذا إلى تأخر الولايات المتحدة، إذ ذاك، عن منافسيها. بيد أن صانعي السياسات من الديمقراطيين والجمهوريين، يدركون أن بعض التنظيم والرقابة ضروريان، وعليهما التثبُّت من اعتماد الذكاء الاصطناعي بطريقة آمنة ومسؤولة. ويعقد مجلسا النواب والشيوخ جلسات لتثقيف أعضائهما، ويعقدان جلسات استماع إلى مشورة الخبراء. ولا بد من الإشادة بهذه الجهود الرامية إلى بناء إجماع بين الحزبين قبل إصدار التشريع.

وفهم المشكلة خطوة أولى. أما حلها أو الموازنة بين الحاجة إلى السرعة وبين الحاجة إلى السلامة، فيقتضي من صانعي السياسات تسريع اعتماد هذه التكنولوجيات على خير وجه، وضمان السلامة معاً. وبخلاف ذلك، يترك الأميركيون أنفسهم يعلقون في عالم تتعاظم فيه أخطار الذكاء الاصطناعي، وتتدهور قوة الولايات المتحدة ونفوذها.

• ميشيل أ. فلورنوي، مؤسسة مشاركة وشريكة إدارية لشركة WestExec Advisors، ورئيسة "مركز الأمن الأميركي الجديد". شغلت منصب وكيلة وزارة الدفاع للسياسة من عام 2009 حتى 2012.

مترجم عن "فورين أفيرز"، ( نوفمبر/ ديسمبر) 2023

المزيد من آراء