ملخص
يُفاقم الذكاء الاصطناعي، ولا سيما تقنيات التزييف العميق وأنظمة التحليل المؤتمتة، مخاطر الانزلاق غير المقصود إلى حرب نووية عبر إنذارات كاذبة ومعلومات مضللة قد تخدع صنّاع القرار في لحظات حاسمة. ومع تسارع إدماج الذكاء الاصطناعي في البنى العسكرية، يصبح الإبقاء على السيطرة البشرية الصارمة على أنظمة الإنذار والقرار النووي شرطاً أساسياً لمنع كارثة عالمية.
منذ فجر العصر النووي، حاول صنّاع السياسة والمخططون الاستراتيجيون منع أي دولة من نشر أو استخدام أسلحتها النووية عن طريق الخطأ. ومع ذلك، لا يزال خطر الحوادث قائماً بالدرجة نفسها التي كان عليها خلال الحرب الباردة. ففي عام 1983، أشارت منظومة إنذار مبكر سوفياتية، على نحو خاطئ، إلى أن ضربة نووية أميركية ضد الاتحاد السوفياتي كانت قيد التنفيذ، وكان من شأن مثل هذا التحذير أن يُطلق هجوماً سوفياتياً مضاداً كارثياً. ولم يتم تفادي هذا المصير إلا لأن المشرف المناوب، ستانيسلاف بيتروف، خلص إلى أن الإنذار كاذب. ولو لم يفعل، لكان لدى القيادة السوفياتية مبرر لإطلاق أكثر أسلحة العالم تدميراً باتجاه الولايات المتحدة.
وقد فاقم الانتشار السريع لتقنيات الذكاء الاصطناعي التهديدات التي تطاول الاستقرار النووي. وتتمثل إحدى المخاوف في أن تعمد دولة تمتلك أسلحة نووية إلى تفويض قرار استخدامها للآلات. غير أن الولايات المتحدة أدخلت ضمانات تهدف إلى الإبقاء على القرار النهائي بيد البشر. ووفق "استراتيجية الدفاع الوطني لعام 2022"، سيبقى الإنسان "ضمن حلقة اتخاذ القرار" في أي قرار يتعلق باستخدام سلاح نووي أو وقف استخدامه. كما اتفق الرئيس الأميركي جو بايدن والزعيم الصيني شي جينبينغ، في بيانين متزامنين، على "وجوب بقاء السيطرة البشرية على قرار استخدام الأسلحة النووية".
ومع ذلك، يفرض الذكاء الاصطناعي خطراً آخر أكثر خبثاً على الأمن النووي. إذ يسهّل إنتاج ونشر تقنيات "التزييف العميق" Deep Fake، وهي مقاطع فيديو أو صور أو تسجيلات صوتية معدَّلة على نحو مقنع تُستخدم لتوليد معلومات زائفة عن أشخاص أو أحداث. وتزداد هذه التقنيات تطوراً يوماً بعد يوم. فبعد أسابيع قليلة من غزو روسيا لأوكرانيا عام 2022، انتشر على نطاق واسع مقطع تزييف عميق يُظهر الرئيس الأوكراني فولوديمير زيلينسكي وهو يدعو الأوكرانيين إلى إلقاء أسلحتهم، وفي عام 2023، دفع مقطع تزييف عميق آخر الناس إلى الاعتقاد خطأً بأن الرئيس الروسي فلاديمير بوتين قطع بث التلفزيون الرسمي ليعلن تعبئة شاملة. وفي سيناريو أكثر تطرفاً، قد يُقنع مقطع تزييف عميق زعيم دولة نووية بأن ضربة أولى من خصمٍ ما باتت وشيكة، أو قد تطلق منصة استخباراتية مدعومة بالذكاء الاصطناعي إنذارات كاذبة عن تعبئة عسكرية، أو حتى عن هجوم بقنبلة قذرة، من جانب خصمٍ ما.
وتسعى إدارة ترمب إلى تسخير الذكاء الاصطناعي لخدمة الأمن القومي. ففي يوليو (تموز)، أصدرت خطة عمل دعت إلى استخدام الذكاء الاصطناعي "بشكل مكثف" في مختلف أنحاء وزارة الدفاع. وفي ديسمبر (كانون الأول)، كشفت الوزارة عن منصة GenAI.mil، وهي منصة تضم أدوات ذكاء اصطناعي مخصصة لموظفيها. لكن مع إدماج الذكاء الاصطناعي في البنية التحتية للأمن القومي، يصبح من الضروري أن يتوخى صنّاع السياسات ومصممو الأنظمة الحذر الشديد بشأن الدور الذي تؤديه الآلات في المراحل المبكرة من عملية اتخاذ القرار النووي. وإلى أن يتمكن المهندسون من معالجة المشكلات المتأصلة في الذكاء الاصطناعي، مثل الهلوسة و"التضليل المتعمد" spoofing - التي تقوم فيها النماذج اللغوية الكبرى بتوقع أنماط أو وقائع غير دقيقة - يتعين على الحكومة الأميركية أن تضمن استمرار سيطرة البشر على أنظمة الإنذار النووي المبكر. وينبغي على الدول الأخرى المالكة للأسلحة النووية أن تحذو الحذو نفسه.
أزمات متراكبة
يستخدم الرئيس الأميركي دونالد ترمب هاتفه للوصول إلى محتوى التزييف العميق، وأحياناً يعيد نشره على وسائل التواصل الاجتماعي، كما يفعل عدد من مستشاريه المقربين. ومع تزايد ضبابية الحدود بين المعلومات الحقيقية والمزيفة، يتعاظم احتمال أن تتسلل مثل هذه المواد إلى قرارات عالية الحساسية تتعلق بالأمن القومي، بما في ذلك القرارات الخاصة بالأسلحة النووية.
وإذا تمكنت معلومات مضللة من خداع رئيس الولايات المتحدة لبضع دقائق فقط، فقد يكون لذلك عواقب كارثية على العالم بأسره. ووفقاً للقانون الأميركي، لا يُلزم الرئيس بالتشاور مع أي جهة قبل إصدار أمر باستخدام الأسلحة النووية، سواء لتنفيذ ضربة انتقامية أو لتوجيه ضربة أولى. ويقف المسؤولون العسكريون الأميركيون على أهبة الاستعداد لنشر الطائرات والغواصات والصواريخ البرية التي تحمل رؤوساً نووية. ويمكن لصاروخ باليستي عابر للقارات أن يبلغ هدفه خلال أقل من نصف ساعة، وبمجرد إطلاقه، لا يمكن استعادته أو إيقافه.
قد يسهم التزييف العميق في خلق ذرائع للحرب
تُبقي كل من الولايات المتحدة وروسيا قواتهما النووية في حالة "الإطلاق عند الإنذار"، أي الجاهزية لاستخدامها فور رصد صواريخ معادية متجهة نحوهما. ولا يترك ذلك سوى دقائق معدودة أمام القادة لتقييم ما إذا كان هجوم نووي من الخصم قد بدأ بالفعل. (وبموجب السياسة الأميركية الحالية، يملك الرئيس خيار تأجيل قراره إلى ما بعد تعرض الولايات المتحدة لضربة نووية فعلية). وإذا رصد نظام الإنذار المبكر الأميركي تهديداً محتملاً، يسعى المسؤولون إلى التحقق منه باستخدام مصادر استخباراتية سرية وعلنية على السواء. وقد يراجعون بيانات الأقمار الاصطناعية لرصد نشاط في منشآت عسكرية معروفة، ويتابعون أحدث تصريحات القادة الأجانب، ويتتبعون ما يرد على وسائل التواصل الاجتماعي ووسائل الإعلام الأجنبية لفهم السياق والحصول على روايات ميدانية. وبعد ذلك، يتعين على الضباط العسكريين والموظفين المدنيين والمعينين السياسيين تحديد أي المعلومات ينبغي رفعها إلى المستويات العليا، وبأي صيغة تُقدَّم.
وقد تؤدي المعلومات المضللة المدفوعة بالذكاء الاصطناعي إلى إشعال أزمات متتابعة ومتداخلة. فإذا استُخدمت أنظمة الذكاء الاصطناعي في تفسير بيانات الإنذار المبكر، فقد "تُهلوِس" بوجود هجوم غير حقيقي، واضعة المسؤولين الأميركيين في موقف مشابه لذلك الذي واجهه ستانيسلاف بيتروف قبل أربعة عقود. وبسبب غموض المنطق الداخلي الذي تعمل وفقه أنظمة الذكاء الاصطناعي، غالباً ما يعجز البشر عن فهم الأسس التي قادت هذه الأنظمة إلى استنتاج معين. وتُظهر الأبحاث أن الأشخاص ذوي المعرفة المتوسطة بالذكاء الاصطناعي يميلون إلى الثقة بمخرجات الآلات بدلاً من التدقيق في احتمالات الانحياز أو الإنذارات الكاذبة، حتى في قضايا تمس الأمن القومي. ومن دون تدريب مكثف وأدوات وإجراءات تشغيلية تأخذ في الاعتبار نقاط ضعف الذكاء الاصطناعي، قد يميل مستشارو صنّاع القرار في البيت الأبيض إلى افتراض صحة المحتوى الذي تنتجه هذه الأنظمة، أو في الأقل التعامل معه بوصفه احتمالاً جدياً.
ولا يقل خطر التزييف العميق المتداول عبر المصادر المفتوحة شأناً. فبعد مشاهدة مقطع مزيف، قد يسيء قائد أميركي تفسير اختبار صاروخي روسي على أنه بداية هجوم، أو يخلط بين مناورات صينية بالذخيرة الحية وهجوم على حلفاء الولايات المتحدة. ويمكن للتزييف العميق أن يوفر ذرائع للحرب، ويعبئ الرأي العام لصالح الصراع، أو يزرع الارتباك والبلبلة.
عين ناقدة
في يوليو (تموز)، أصدرت إدارة ترمب خطة عمل بشأن الذكاء الاصطناعي دعت إلى النشر المكثف لأدواته في مختلف أرجاء وزارة الدفاع، أكبر جهاز بيروقراطي في العالم. وقد أثبت الذكاء الاصطناعي بالفعل قدرته على تحسين كفاءة بعض مجالات العمل العسكري، إذ تُسهِّل تقنيات التعلّم الآلي جدولة أعمال صيانة المدمرات التابعة للبحرية الأميركية. وتتيح تقنيات الذكاء الاصطناعي المدمجة في الذخائر ذاتية التشغيل، مثل الطائرات المسيّرة، للجنود الابتعاد عن خطوط الجبهة. وتساعد أدوات الترجمة المدعومة بالذكاء الاصطناعي ضباطَ الاستخبارات على تحليل بيانات تتعلق بدول أجنبية. بل إن الذكاء الاصطناعي يمكن أن يكون مفيداً أيضاً في بعض مهام جمع المعلومات الاستخباراتية التقليدية، مثل رصد الفروق بين صور القاذفات المتوقفة في المطارات من يوم إلى آخر.
غير أن إدماج الذكاء الاصطناعي في المنظومات العسكرية لا ينبغي أن يُفهم بمنطق "الكل أو لا شيء". فثمة مجالات ينبغي أن تبقى خارج نطاق استخدامه، من بينها أنظمة الإنذار النووي المبكر ومنظومات القيادة والسيطرة، حيث تفوق مخاطر الهلوسة والتضليل المتعمّد المنافع المحتملة التي قد تتيحها برمجيات الذكاء الاصطناعي. وتعتمد أفضل أنظمة الذكاء الاصطناعي على مجموعات بيانات شاملة ومدققة من خلال المقارنة المتبادلة. إلا أن أنظمة الإنذار النووي المبكر تفتقر إلى هذين العنصرين معاً، نظراً إلى عدم وقوع أي هجوم نووي منذ الضربتين على هيروشيما وناغازاكي. ولذلك، من المرجح أن تضطر أي منظومة ذكاء اصطناعي مخصصة لرصد الهجمات النووية إلى التدريب على بيانات اختبارات الصواريخ القائمة وبيانات تتبع الأجسام الفضائية، إلى جانب بيانات اصطناعية. وسيكون على المهندسين، في هذه الحالة، برمجة وسائل وقاية للحد من الهلوسة أو من التقديرات غير الدقيقة لمستويات الثقة، وهي تحديات تقنية جسيمة.
اقرأ المزيد
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
وقد يبدو مغرياً استبدال عمليات التدقيق التي يقوم بها موظفون ذوو تدريب عالٍ بأدوات ذكاء اصطناعي، أو استخدام الذكاء الاصطناعي لدمج مصادر بيانات متعددة وتسريع التحليل. غير أن إقصاء العيون البشرية النقدية قد يؤدي إلى أخطاء، وانحيازات، وسوء فهم. وكما تشترط وزارة الدفاع وجود سيطرة بشرية ذات معنى على الطائرات المسيّرة ذاتية التشغيل، ينبغي لها أيضاً فرض معايير أكثر صرامة على كل عنصر من عناصر الإنذار النووي المبكر وتقنيات الاستخبارات المرتبطة به. ولا ينبغي لأدوات دمج البيانات المدعومة بالذكاء الاصطناعي أن تحل محل المشغلين البشر المسؤولين عن الإبلاغ في شأن الصواريخ الباليستية الواردة. كما يجب أن تبقى جهود تأكيد الإنذار المبكر عن إطلاق صاروخ نووي، استناداً إلى بيانات الأقمار الاصطناعية أو الرادارات، مؤتمتة جزئياً فقط. ويتعين على المشاركين في المكالمات الحساسة المتعلقة بالأمن القومي أن يستندوا حصراً إلى بيانات مؤكدة وغير معدّلة.
وفي يوليو (تموز) 2025، طلبت وزارة الدفاع من الكونغرس تمويلاً لإدخال تقنيات جديدة على منظومات القيادة والسيطرة والاتصالات النووية. الأجدى للحكومة الأميركية أن تحصر إدماج الذكاء الاصطناعي والأتمتة في مجالات مثل الأمن السيبراني، والعمليات الإدارية والتحليل، والمهام البسيطة، كضمان تشغيل مصادر الطاقة الاحتياطية عند الحاجة.
استراتيجية قديمة
أصبح خطر اندلاع حرب نووية اليوم أكبر مما كان عليه منذ عقود. فقد هددت روسيا باستخدام أسلحة نووية في أوكرانيا، وتعمل الصين على توسيع ترسانتها بوتيرة سريعة، وباتت كوريا الشمالية تمتلك القدرة على إيصال صواريخ باليستية عابرة للقارات إلى الولايات المتحدة، فيما تشهد سياسات منع الانتشار النووي تراجعاً مقلقاً. وفي هذا السياق، تزداد أهمية ضمان أن يكون البشر، لا الآلات المدربة على بيانات ناقصة أو رديئة، هم من يقيّمون أفعال الخصوم ونواياهم وأهدافهم.
وتحتاج أجهزة الاستخبارات إلى تحسين قدرتها على تتبّع مصدر المعلومات المشتقة من الذكاء الاصطناعي، وإلى توحيد معايير إبلاغ صُنّاع القرار عندما تكون البيانات معزَّزة أو اصطناعية. فعلى سبيل المثال، عندما تستخدم "الوكالة الوطنية للاستخبارات الجغرافية المكانية" NGA الذكاء الاصطناعي لتوليد معلومات استخباراتية، تُرفِق بالتقرير إفصاحاً يوضح أن المحتوى مولَّد آلياً. وينبغي تدريب محللي الاستخبارات وصنّاع السياسات وفرقهم على إبداء قدر أكبر من الشك وإجراء تدقيق إضافي للمحتوى الذي لا يمكن التحقق منه فوراً، على غرار ما تفعله الشركات اليوم في مواجهة هجمات التصيد الإلكتروني الموجّه (التي تستهدف أشخاصاً أو مؤسسات بعينها). وتحتاج وكالات الاستخبارات أيضاً إلى ثقة صنّاع القرار، الذين قد يميلون إلى تصديق ما تنقله أعينهم وأجهزتهم - سواء كان صحيحاً أم زائفاً - أكثر من اعتمادهم على التقييمات الاستخباراتية.
وينبغي للخبراء والتقنيين مواصلة العمل لإيجاد وسائل لوَسْم المعلومات والصور ومقاطع الفيديو الاحتيالية وإبطاء تدفّقها عبر وسائل التواصل الاجتماعي، نظراً إلى تأثيرها المحتمل في صنّاع القرار. لكن، وبالنظر إلى صعوبة ضبط المعلومات المفتوحة المصدر، تزداد أهمية ضمان دقة المعلومات السرية وموثوقيتها.
بات الذكاء الاصطناعي قادراً بالفعل على خداع القادة وإيهامهم بوجود هجوم غير قائم
ينبغي أن تحمي التحديثات التي تُجريها إدارة ترمب على العقيدة النووية الأميركية ضمن "استراتيجية الدفاع الوطني" من المخاطر المتوقعة والمعقدة التي يفرضها الذكاء الاصطناعي على الأسلحة النووية، وذلك من خلال إعادة التأكيد على أن الآلات لن تتخذ أبداً قرار إطلاق نووي من دون سيطرة بشرية. وكخطوة أولى، يتعين على جميع الدول المالكة للأسلحة النووية الاتفاق على أن قرارات استخدام هذه الأسلحة يجب أن تظل حصراً بيد البشر. ثم ينبغي تحسين قنوات الاتصال الخاصة بإدارة الأزمات. فثمة خط اتصال ساخن بين واشنطن وموسكو، لكنه لا يوجد خط مماثل بين واشنطن وبكين.
ولم يطرأ سوى القليل من التغيير على السياسة والعقيدة النووية للولايات المتحدة منذ ثمانينيات القرن الماضي، حين كان القادة يخشون هجوماً سوفياتياً مباغتاً. ولم يكن صُنّاع القرار آنذاك يتصورون حجم المعلومات المضللة التي قد تصل اليوم إلى الأجهزة الشخصية للأشخاص المسؤولين عن الأسلحة النووية. ولهذا، ينبغي على السلطتين التشريعية والتنفيذية إعادة تقييم سياسات العقيدة النووية المصممة لحقبة الحرب الباردة. وقد يفرض صنّاع القرار، على سبيل المثال، على الرؤساء المستقبليين التشاور مع قادة الكونغرس قبل تنفيذ ضربة نووية أولى، أو اشتراط فترة زمنية تتيح لمهنيي الاستخبارات التحقق من صحة المعلومات التي يُبنى عليها القرار. وبما أن الولايات المتحدة تمتلك قدرات موثوقة لتنفيذ ضربة ثانية، فإن الدقة ينبغي أن تتقدم على السرعة في اتخاذ القرار.
يمتلك الذكاء الاصطناعي بالفعل القدرة على خداع صنّاع القرار الرئيسيين وأعضاء سلسلة القيادة النووية، وإيهامهم بوجود هجوم لا حقيقة له. في الماضي، كان الحوار الحقيقي والدبلوماسية هما السبيل الوحيد لتجنب سوء الفهم بين الدول المسلحة نووياً. وينبغي أن تُحمى السياسات والممارسات من مخاطر المعلومات الخبيثة التي قد تؤدي، في نهاية المطاف، إلى نهاية كارثية.
مترجم عن "فورين أفيرز" 29 ديسمبر (كانون الأول) 2025
إيرين دومباكر، زميلة أولى في شؤون الأمن النووي بمنحة "ستانتون" في مجلس العلاقات الخارجية.