Sorry, you need to enable JavaScript to visit this website.

الذكاء الاصطناعي في الحرب الحديثة

يجيب الشباني عن سؤال: كيف أعادت التقنية تشكيل منطق الصراع؟

ملخص

في حديثه إلى "اندبندنت عربية" يرى الشباني أن الذكاء الاصطناعي في الحرب الحديثة يعمل غالباً في طبقة أعمق وأخطر: طبقة الرصد والفرز والتصنيف وتقدير الأولويات وضغط الزمن بين المعلومة والقرار.

لعل الخطأ الأكبر في فهم الذكاء الاصطناعي عسكرياً هو اختزاله في صورة "روبوت يطلق النار"، فهذا تبسيط مخل، بحسب المتخصص في هندسة نظم الذكاء الاصطناعي زياد الشباني.

في حديثه إلى "اندبندنت عربية" يرى الشباني أن الذكاء الاصطناعي في الحرب الحديثة يعمل غالباً في طبقة أعمق وأخطر: طبقة الرصد والفرز والتصنيف وتقدير الأولويات وضغط الزمن بين المعلومة والقرار، أي إن وظيفته الأساسية اليوم ليست فقط أن يهاجم، بل أن يقول للإنسان: هذا الهدف أهم، وهذا التهديد أعجل، وهذه اللحظة لا تحتمل التأخير، وهنا تبدأ الخطورة الحقيقية.

يتابع، "خذوا مثالاً الحرب الأميركية الإيرانية الجارية. التقارير الحديثة لوكالة (رويترز) وصفت في الـ31 من مارس (آذار) الماضي حرباً دخلت شهرها الأول، ثم تحدثت في السادس من أبريل (نيسان) الجاري عن مساع ومقترحات لوقف الأعمال العدائية. أنا هنا لا أناقش مشروعية الحرب ولا أهدافها، ما يهمني مهنياً هو أن هذا النزاع يقدم مثالاً حياً على أن الذكاء الاصطناعي لم يعد ملفاً نظرياً في المؤتمرات، بل أصبح جزءاً من البنية التشغيلية للحرب نفسها".

ماذا نعرف عن برنامج "مافين"؟

الدليل الأوضح على ذلك كما يقول ما نقلته "رويترز" في الـ20 من مارس عن نظام " "Mavenالذي سيتحول رسمياً إلى برنامج أساس معتمد داخل وزارة الدفاع الأميركية، ووفق التقرير، هذا النظام يحلل كميات هائلة من بيانات ساحة المعركة، ويحدد الأهداف المحتملة، ودعم آلاف الضربات الموجهة في الأسابيع الأخيرة.

من زاوية هندسة النظم يرى الشباني أن هذه ليست مجرد أداة مساعدة، هذه منصة تعيد تشكيل "سلسلة القتل" كاملة، من الاستشعار، إلى التحليل، إلى التوصية، ثم تسريع القرار.

ويشدد على وجوب فهم أن هذه اللحظة لم تظهر فجأة، فجذورها تعود إلى "مشروع مافين" الذي طرح قبل أعوام لتوظيف التعلم الآلي في تحليل صور الطائرات المسيرة، وفي عام 2018 نقلت "رويترز" أن "غوغل" قررت عدم تجديد عقدها المرتبط بالمشروع بعد احتجاجات داخلية واسعة، لأن التقنية كانت تساعد البشر على كشف الأهداف وتحديدها في صور المراقبة الجوية.

هذا مهم جداً، بحسب الباحث، لأنه يثبت أن الجدل الأخلاقي حول الذكاء الاصطناعي العسكري ليس جديداً، بل قديم بقدم انتقال الذكاء الاصطناعي من المختبر إلى الاستهداف العملي.

ويلفت الشباني إلى أن الذكاء الاصطناعي لا يجعل الحرب فقط أكثر دقة، بل قد يجعلها أيضاً أكثر سرعة، وأكثر قابلية للتوسع، وأقل مساحة للتردد البشري، وهذه نقطة جوهرية، ففي الأنظمة المعقدة، كلما قصرت الزمن بين الرصد والتنفيذ، زادت كفاءة المنظومة، لكن زادت معها أيضاً كلفة الخطأ إذا دخلت البيانات الخاطئة أو التحيز أو التفسير غير الصحيح.

السؤال الأخطر

لذلك يرى الشباني أن السؤال الأخطر ليس: هل الذكاء الاصطناعي يطلق النار وحده؟ بل، هل الإنسان الذي يوافق على القرار ما زال يملك وقتاً وفهماً كافيين لممارسة حكم حقيقي، أم أنه يتحول تدريجاً إلى مصادق سريع على توصية آلية؟

ويشير إلى أن في أوكرانيا، ذكرت "رويترز" في أكتوبر (تشرين الأول) 2024 أن كييف تستخدم عشرات الأنظمة المعززة بالذكاء الاصطناعي لمساعدة الطائرات المسيرة على الوصول إلى أهدافها، خصوصاً في البيئات التي تتعرض لتشويش إلكتروني كثيف، وبعض هذه الأنظمة يعتمد على الرؤية الحاسوبية بحيث يحدد المشغل الهدف، ثم تكمل الطائرة الجزء الأخير من المهمة ذاتياً.

مهنياً، يؤكد الشباني أن هذه لحظة فاصلة: لأن الذكاء الاصطناعي هنا لا يكتفي بتحسين السلاح، بل يعالج نقطة ضعف تكتيكية مباشرة، وهي فقدان الاتصال أو تعطل القيادة البشرية تحت التشويش.

وفي الجو أيضاً، الصورة تتطور بسرعة، مضيفاً "أعلن في أبريل (نيسان) 2024 أن برنامجACE حقق أول اختبارات جوية لطائرةF-16 يقودها الذكاء الاصطناعي في اشتباك بصري مع طائرة يقودها إنسان. وبعد ذلك بأيام، أعلنت القوات الجوية الأميركية أن وزير القوات الجوية فرانك كيندل حلق على متن الطائرةX-62A VISTA التي تستخدم التعلم الآلي وبرمجيات متخصصة لاختبار القتال الجوي الذاتي".

فنياً، هذا يعني أن الذكاء الاصطناعي لم يعد فقط في غرفة التحليل الخلفية، بل أصبح يقترب من قلب المناورة القتالية ذاتها، بحسب الشباني، لكن من منظور هندسة النظم، المسألة ليست: هل هذه الأنظمة مبهرة؟ والسؤال الأهم هو: هل هي قابلة للتدقيق، والتتبع، والمساءلة، والوقف الآمن؟

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

يقول أيضاً إن وزارة الدفاع الأميركية نفسها تتحدث رسمياً عن مبادئ أخلاقية للذكاء الاصطناعي تشمل أن يكون الاستخدام مسؤولاً، وعادلاً، وقابلاً للتتبع، وموثوقاً، وقابلاً للحوكمة، وتنص توجيهاتها الخاصة بالاستقلالية في أن تصمم الأنظمة بما يسمح للقادة والمشغلين بممارسة مستويات مناسبة من الحكم البشري على استخدام القوة.

ويضيف "هذه لغة مهمة، لكنها من وجهة نظري المهنية ليست كافية وحدها ما لم تترجم إلى هندسة صارمة: سجلات قرار يمكن مراجعتها، اختبارات تحقق وتحقق عكسي، حدود ثقة واضحة، آليات تعطيل فوري، ومراجعة قانونية وتشغيلية مستمرة قبل النشر وأثناءه وبعده."

لا يرى الشباني أن الخطر المركزي في الذكاء الاصطناعي العسكري هو "استقلالية الآلة" فحسب، بل "تآكل المسؤولية البشرية" داخل منظومة تتسارع أكثر من قدرة البشر على الفهم والمراجعة، فعندما تقول الخوارزمية: هذا هدف ذو أولوية، وهذا الاحتمال مرتفع، وهذا الوقت حرج، يصبح من السهل جداً أن يقتنع الإنسان بأنه ما زال صاحب القرار، بينما يكون دوره الفعلي قد تقلص إلى الموافقة على مسار صاغته المنظومة مسبقاً.

ما الذي غيره الذكاء الاصطناعي في الحرب؟

الذكاء الاصطناعي غير إيقاع الحرب قبل أن يغير صورة السلاح، ونقل الحرب من منطق "من يملك القوة الأكبر" إلى منطق "من يملك دورة قرار أسرع، وتحليلاً أوسع، ودمجاً أفضل للبيانات"، وفي الحرب الأميركية الإيرانية الحالية، هذه النقطة ليست فلسفية، بل عملية وملموسة: فحين تصبح منصات الذكاء الاصطناعي جزءاً من تحديد الأولويات وتحليل المشهد القتالي، فإنها تصبح جزءاً من بنية الحرب نفسها، حتى لو بقي الإنسان رسمياً في الحلقة الأخيرة.

ويشير المتحدث إلى أن الذكاء الاصطناعي في الحرب ليس شراً مطلقاً من حيث المبدأ، وليس ضمانة دقة أو أخلاق من حيث الواقع، بل مضاعف قدرة، فإذا دخل بيئة مضبوطة بالحوكمة والاختبار والمساءلة، يرفع الكفاءة ويقلل بعض الأخطاء، أما إذا دخل بيئة يغلب عليها الضغط السياسي أو الاستعجال العملياتي أو ضعف الشفافية، فقد يتحول إلى مضاعف أخطاء بسرعة غير مسبوقة.

لهذا السبب، لا يعتقد الشباني أن السؤال الصحيح اليوم هو: هل نستخدم الذكاء الاصطناعي في الحرب؟ لأن هذا حدث فعلاً. السؤال الصحيح هو: من يراجع؟ ومن يحاسب؟ ومن يوقف؟ ومن يثبت بعد كل ضربة أن القرار كان مفهوماً، ومبرراً، وقابلاً للتتبع؟

في النهاية، يختم الشباني في القول "إن مستقبل الحرب لن تحدده فقط الصواريخ والطائرات، بل ستحدده أيضاً جودة النماذج، ونزاهة البيانات، ومعايير التحقق، وحدود التفويض بين الإنسان والآلة. وإذا كان القرن الـ20 قد طرح سؤال: من يملك السلاح الأقوى؟ فإن القرن الـ21 يطرح سؤالاً أكثر تعقيداً: من يملك الحق في تفويض السرعة إلى الآلة، ومن يملك الشجاعة لإبطائها عندما تصبح السرعة نفسها خطراً؟

اقرأ المزيد

المزيد من متابعات