Sorry, you need to enable JavaScript to visit this website.

ضباب الذكاء الاصطناعي

ما دور هذه التكنولوجيا في معادلات الردع والحرب؟

جندي أميركي يحمل جزء من أجزاء منظومة سلاح مضاد للمسيرات في بلدة نواديبا البولندية، نوفمبر 2025 (رويترز)

ملخص

يعزز الذكاء الاصطناعي الردع عبر تحسين الاستخبارات وتسريع صنع القرار، لكنه في الوقت نفسه يفتح الباب أمام حروب معلومات وتلاعب بالبيانات يربك القادة ويقوض الصدقية، مما يجعل تحصين البيئة المعلوماتية شرطاً أساساً للأمن في عصر الصراع الرقمي.

على نحو متسارع يغدو الذكاء الاصطناعي ضرورة لا غنى عنها في عملية صناعة القرار في شأن الأمن القومي. وبالفعل، باتت جيوش عدة في العالم تعتمد على نماذج الذكاء الاصطناعي في تحليل صور الأقمار الاصطناعية، وتقييم قدرات الخصوم وتكوين توجيهات عن زمان ومكان وكيفية توظيف القوة. ويترافق تقدم تلك المنظومات الذكية مع تقديمها وعوداً بأنها ستعيد تشكيل طرق استجابة الدول للأخطار والتهديدات. وفي المقابل، تحمل المنصات المتطورة للذكاء الاصطناعي تهديداً بإطاحة الردع الذي كثيراً ما شكل القاعدة الشاملة في الاستراتيجية الأمنية للولايات المتحدة.

ويقوم الردع الفعال على قدرة الدولة، واستعدادها الموثوق، لإلحاق ضرر غير مقبول بالخصم. ويعزز الذكاء الاصطناعي بعض دعائم هذه الصدقية، إذ إن تحسين جودة الاستخبارات، وتسريع التقييمات، وزيادة اتساق صنع القرار، كلها عوامل تساعد على إيصال صورة أوضح للخصوم عن القدرات الدفاعية للدولة وعن تصميمها الظاهر على استخدامها، لكن الخصوم يستطيعون، في المقابل، استغلال الذكاء الاصطناعي لتقويض هذه الأهداف، سواء عبر اختراق بيانات تدريب النماذج التي تعتمد عليها الدول وتحريفها أو العبث بها، بما يغير مخرجاتها، أو من خلال إطلاق عمليات تأثير مدعومة بالذكاء الاصطناعي للتلاعب بسلوك مسؤولين محوريين. وفي أزمات عالية الأخطار، قد يحد هذا النوع من التلاعب من قدرة الدولة على الحفاظ على ردع ذي صدقية، ويشوه، بل وقد يشل، عملية صنع القرار لدى قادتها.

تخيل سيناريو أزمة تفرض فيه الصين عقوبات اقتصادية شاملة على تايوان، وتطلق مناورات عسكرية واسعة النطاق حول الجزيرة. يلجأ مسؤولو الدفاع الأميركيون إلى أنظمة مدعومة بالذكاء الاصطناعي للمساعدة في بلورة الرد الأميركي، من دون أن يدركوا أن عمليات معلوماتية صينية كانت أفسدت هذه الأنظمة مسبقاً عبر تحريف بيانات التدريب ومدخلاتها الأساسية. ونتيجة لذلك، تبالغ النماذج في تقدير القدرات الصينية الحقيقية، وتقلل من جاهزية الولايات المتحدة، فتنتج تقييماً منحازاً يثبط في نهاية المطاف عملية التعبئة الأميركية. وفي الوقت نفسه، تعمل حملات التأثير الصينية، المعززة بطوفان مفاجئ من المحتوى المزيف الذي يولده الذكاء الاصطناعي عبر منصات مثل "فيسبوك" "وتيك توك"، على خفض الدعم الشعبي الأميركي لأي تدخل. ومع العجز عن تفسير المعلومات الاستخباراتية بدقة وقياس المزاج العام بصورة صحيحة، قد يخلص القادة الأميركيون إلى أن التحرك الحاسم ينطوي على أخطار كبيرة.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وتستشعر الصين حينها فرصة مواتية، فتطلق حصاراً كاملاً على تايوان وتباشر ضربات بطائرات مسيرة، بالتوازي مع إغراق الجزيرة بصور وفيديوهات مزيفة لمسؤولين أميركيين يبدون استعدادهم للتخلي عن تايوان، واستطلاعات رأي مفبركة تظهر تراجع الدعم الأميركي، وإشاعات عن تخلي واشنطن عن حلفائها. في هذا السيناريو، كان من الممكن لإشارات أميركية موثوقة تدل على نية الرد أن تردع الصين عن التصعيد، وربما كانت سترسل بالفعل لولا أن الأنظمة المخربة بالذكاء الاصطناعي والمزاج العام المشوه أقنعت صانعي القرار بالعكس. وبدلاً من تعزيز الردع، يكون الذكاء الاصطناعي قد قوض الصدقية الأميركية وفتح الباب أمام اندفاع صيني عدواني.

وفيما تتعز المكانة المركزية لمنظومات الذكاء الاصطناعي في عمليات اتخاذ القادة للقرارات، قد تعمل الآلات الذكية على إعطاء دور جديد ومكين لأدوات حرب المعلومات، في حالات الصراع وفرض الخيارات. بالتالي، توخياً لتمتين الردع في عصر الذكاء الاصطناعي، يجب على صناع السياسة والمخططين الحربيين ووكالات الاستخبارات التعامل مع طرق عسكرة الذكاء الاصطناعي وضمان تطوير الدفاعات الرقمية لمواجهة الأخطار المتأتية منه، بما يتواكب مع إيقاع ركب التطور في تلك التكنولوجيا. وقد تعتمد مآلات الأزمات في المستقبل، على تبني ذلك التوجه.

الردع في عصر الذكاء الاصطناعي

لكي ينجح الردع، يجب أن يقتنع الخصم بأن الطرف المدافع لا يمتلك فقط القدرة على إلحاق خسائر كبيرة به، بل يملك أيضاً الإرادة السياسية لاستخدام هذه القدرة إذا ما تعرض للتهديد. فبعض عناصر القوة العسكرية مرئي، في حين يصعب تقدير عناصر أخرى من الخارج، مثل طبيعة بعض القدرات التسليحية، ومستويات الجاهزية، وإمكانات التعبئة. أما الإرادة، فهي أكثر غموضاً، إذ لا يعرف على وجه الدقة مدى استعداد خوض الحرب سوى قادة الدول أنفسهم. وعليه، يقوم الردع على قدرة الدولة على إرسال إشارات موثوقة تعكس قدراتها واستعدادها للتحرك في آنٍ معاً.

وغالباً ما تعكس الإجراءات العسكرية المكلفة - من إعادة تموضع القوات إلى رفع درجات الجاهزية - صدقية عالية، لأنها تستنزف وقتاً وموارد، وتنطوي على أخطار سياسية. فعلى سبيل المثال، بعدما شنت جماعة مسلحة باكستانية هجوماً على البرلمان الهندي عام 2001، حشدت الهند قواتها على طول الحدود مع باكستان، وبعثت إشارات واضحة تعكس قدرتها وعزمها على اتخاذ إجراءات، مما أسهم في ردع هجمات أخرى على أراضيها، ويمكن للضغوط السياسية الداخلية في الدول الديمقراطية أن تعزز صدقية الردع، إذ يخضع القادة لمساءلة الرأي العام، ويؤدي إطلاق تهديدات ثم التراجع عنها إلى أثمان سياسية باهظة. وفي عام 1982، على سبيل المثال، عزز الضغط الشعبي في المملكة المتحدة إصرار رئيسة الوزراء مارغريت تاتشر على الرد بعد سيطرة الأرجنتين على جزر فوكلاند، ما منح التهديد البريطاني باستخدام القوة صدقية إضافية. وبصورة عامة، تضفي هذه المساءلة وزناً أكبر على تهديدات الردع الصادرة عن الدول الديمقراطية مقارنة بتلك الصادرة عن أنظمة استبدادية. وتبقى السرعة عاملاً حاسماً أيضاً: فالتهديدات تكون أكثر صدقية حين ينظر إلى الدولة الرادعة على أنها قادرة على التحرك السريع والآلي في مواجهة أي خطر.

للوهلة الأولى، يبدو الذكاء الاصطناعي أداة ملائمة لتعزيز الردع. فمن خلال معالجة كميات هائلة من البيانات، يستطيع توفير معلومات استخباراتية أدق، وتوضيح الإشارات المرسلة، وتسريع قرارات القادة عبر تحليلات أسرع وأكثر شمولاً. وفي الحرب في أوكرانيا، أتاحت أدوات الذكاء الاصطناعي للجيش الأوكراني فحص صور الأقمار الاصطناعية والطائرات المسيرة لتحديد تحركات القوات والمعدات الروسية، ومواقع الصواريخ، وخطوط الإمداد، وجمع بيانات من الرادار والإشارات الصوتية واللاسلكية، والفرز السريع لأدلة التدريب والتقارير الاستخباراتية وغيرها من المواد، بما أسهم في تكوين صورة أدق عن حجم القوة الروسية. وبالنسبة إلى مخططي الدفاع، تتيح هذه المعطيات تقييماً أوضح لقدراتهم العسكرية قياساً بقدرات الخصم.

كذلك يمكن للذكاء الاصطناعي أن يعزز الردع عبر ضمان إيصال كل طرف لإشاراته بوضوح إلى الطرف الآخر. ولأن الدول لديها ما يكفي من الحوافز في اللجوء إلى الخداع، فإنها قد تجهد في البرهنة على أنها مستعدة بالفعل للرد على التهديدات. وللمفارقة، تضمن الأدوات المعززة بالذكاء الاصطناعي أن الأفعال المكلفة التي تنفذها دولة ما لإظهار تصميمها، ستصل إلى الخصم بسرعة ووضوح وتناغم. ومن شأن منظومات الذكاء الاصطناعي للخصم تقديم تفسير كفء عن تلك الأفعال، مما يخفض خطر إساءة الفهم. ومثلاً، بفضل التتبع بالزمن الحي لتقلبات الرأي العام المحلي، تستطيع أدوات الذكاء الاصطناعي مساعدة بلد ديمقراطي على إبراز مدى استعداده للعمل عبر تقديم البرهان على أن الاستجابة التي يلوح بأنه سينفذها تملك دعماً سياسياً فعلياً. وحينئذٍ، يستطيع الخصوم استخدام أدواتهم في الذكاء الاصطناعي للتأكد من مدى أصالة وصحة ذلك التأييد. وكذلك يستطيع القادة الحصول على قراءة أفضل عن نيات الخصوم عبر استخدام الذكاء الاصطناعي في تحليل الأنماط والنشازات التي قد لا يلاحظها البشر، على غرار التغيير المفاجئ في تحركات القوات العسكرية، والتدفقات المالية أو النشاطات في الفضاء السيبراني.

ولأن أي معتد يستطيع استغلال حتى التأخير الطفيف في رد الطرف المستهدف، سواء للاستيلاء على أراضٍ أو لتحقيق مكاسب أخرى، فإن الردع يكون أكثر فاعلية حين يقتنع الخصم بأن الرد سيأتي بالسرعة الكافية لحرمانه من أي أفضلية زمنية. وهنا يسهم الذكاء الاصطناعي في ترسيخ هذا الانطباع، عبر تمكين الدول المدافعة من رصد التحديات في وقت أبكر والاستجابة بصورة أسرع. ويعزز الذكاء الاصطناعي التخطيط الاستراتيجي بعيد المدى، وهو عنصر أساس للحفاظ على الصدقية خلال الأزمات الممتدة. فمن خلال رسم عدد كبير من سيناريوهات أو احتمالات تطور الأحداث، استناداً إلى بيانات تتعلق بالقوة والجغرافيا وخطوط الإمداد والتحالفات، يمنح الذكاء الاصطناعي القادة رؤية أوضح لمسارات الصراع المحتملة، ويساعدهم على الحفاظ على استراتيجيات متسقة مع تغير الظروف.

القوة والهشاشة

من شأن تقنيات الذكاء الاصطناعي التي تعزز قوة الردع، أن تعمل على انكشافه أمام الاستغلال. وبدلاً من مساعدة بلد على إبراز صورة موثوقة عما تعرفه عن نفسها، قد يؤدي التلاعب بمنظومات الذكاء الاصطناعي إلى جعل قادتها غير واثقين بقدراتهم وبإرادتهم. وربما استعمل الخصوم الذكاء الاصطناعي في تضليل الرأي العام وتشويهه، أو تسميم منظومات الذكاء الاصطناعي التي يعتمد عليها قادة البلد المستهدف. وعبر توظيف هاتين الأداتين التوأمين، أي عمليات التأثير المعززة بالذكاء الاصطناعي وتشويه بيانات الآلات الذكية، قد يتوصل خصم ما إلى التحكم ببيئة المعلومات في البلد المستهدف بطرق تؤثر مباشرة على قدرته في الردع. وفي أسوأ الحالات، قد يتسبب التباس الأمور واختلاطها إلى فشل الردع في البلد المستهدف، على رغم امتلاكه قدرة وإرادة كافيتين لتكوين قوة ملائمة فيه.

ويمكن للخصم أن يلجأ إلى عمليات التأثير الموجهة نحو الرأي العام، فضلاً عن الشخصيات المؤثرة في النقاش الوطني، بمن فيهم صناع القرار في الحكومة. وقد أدت التطورات الحديثة في علوم البيانات والذكاء الاصطناعي التوليدي إلى زيادة فاعلية هذه العمليات على نحو غير مسبوق عبر ثلاثة مجالات مترابطة: تحديد الأهداف، وصناعة الهويات الوهمية، وإنتاج محتوى مفصل خصيصاً لكل فرد. ففي السابق، لم يكن ممكناً سوى تصنيف الجمهور في مجموعات واسعة تستند إلى سمات مشتركة، أما اليوم، فيتيح الذكاء الاصطناعي أتمتة هذه العملية عبر استخدام علوم البيانات واستهداف الأفراد على نطاق واسع.

وبفضل هذه الأدوات بات بالإمكان التنبؤ بقابلية أشخاص محددين لتصديق سرديات بعينها، أو للتفاعل مع حسابات مزيفة صممت لجذب انتباههم. وفي حين كانت الحسابات الآلية في الماضي بدائية ويسهل كشفها، أصبح الذكاء الاصطناعي التوليدي قادراً على إنشاء ما يعرف بـ"الهويات الاصطناعية" التي تبدو شديدة الواقعية وتفلت من الانكشاف السريع. ومع مرور الوقت، يمكن تطوير هذه الحسابات المزيفة لتصبح غير قابلة للتمييز عن المستخدمين الحقيقيين، من خلال أنماط نشر متناسقة، واهتمامات واقعية، وخصائص لغوية دقيقة. ويمكن إنشاء هذه الحسابات وإدارتها بأعداد هائلة، مما يزيد من صعوبة كشفها. وبهذا، تستطيع ضخ محتوى مصطنع داخل مجتمعات محددة، وزراعة هذه الهويات عبر منصات متعددة لتوجيه النقاش وتأجيج الانقسامات. ولإضعاف عزيمة الرأي العام في الولايات المتحدة، على سبيل المثال، قد تروج مثل هذه الحسابات مزاعم عن إنهاك القوات الأميركية، أو عن اعتماد الحلفاء المفرط على المظلة الأمنية الأميركية، أو عن عدم جدوى الدفاع عن قضايا دولية بعينها. ومع تضخيم الرسائل عبر منصات عدة، تصبح المعلومات الزائفة أكثر قابلية للتصديق، أو في الأقل تحدث قدراً من الالتباس يقوض التوافق العام.

تمنح أنظمة الذكاء الاصطناعي حرب المعلومات دوراً أكثر فتكاً في سياقات الإكراه والصراع

فباستخدام آلاف الحسابات المزيفة المختلفة، قد تتمكن هذه الأدوات قريباً من بث محتوى مصمم خصيصاً لكل فرد، وبصورة آنية، عبر مجتمع كامل. وهذه صورة لما يعرف بـ"الحرب الإدراكية"، بما تنطوي عليه من تداعيات خطرة على الردع. فجزء كبير من صدقية الردع في الأنظمة الديمقراطية مرتبط بالضغوط السياسية الداخلية، مما يجعل التلاعب بمشاعر الجمهور عاملاً قادراً على إضعاف إشارات العزم والتصعيد. وقد تدفع هذه التلاعبات المواطنين إلى معارضة ردود عسكرية حازمة على اعتداءات خارجية، ولا سيما حين يكون المستهدف حليفاً لأميركا، وقد تحرف نتائج استطلاعات الرأي والمؤشرات التي يعتمد عليها القادة الديمقراطيون. وينشأ عن ذلك قدر من الغموض يجعل هؤلاء القادة غير متيقنين من مستوى الدعم الحقيقي الذي يحظون به، أو من حجم الارتداد السياسي المحتمل في حال التراجع، وهو ما قد يقود إلى التردد، وإضعاف الإرادة، وتشويش عملية اتخاذ القرار، وكلها عوامل تقلل من صدقية التهديدات الردعية.

وتظهر مؤشرات راهنة أن مجموعات مرتبطة بدول باتت بالفعل تستكشف سبل تقويض الأمن المعلوماتي عبر عمليات تأثير مدعومة بالذكاء الاصطناعي. ومن الأمثلة على ذلك شركة "غولاكسي" GoLaxy الصينية، التي تستخدم أدوات الذكاء الاصطناعي التوليدي وقواعد بيانات ضخمة مفتوحة المصدر لبناء ملفات نفسية دقيقة عن أفراد خاضعين للمراقبة، ثم نشر هويات اصطناعية على نطاق واسع تحاكي مستخدمين حقيقيين. وغالباً ما تقوم هذه الحملات بجمع معلومات تفصيلية عن شخصيات مؤثرة، ثم توظيفها في إنتاج رسائل موجهة بعناية لإقناع جمهور محدد، قبل بثها عبر حسابات اجتماعية لشخصيات صممت بإتقان. ومن خلال هذا المستوى العالي من الدقة، وتضخيم السرديات المضللة عبر منصات متعددة، تستطيع هذه العمليات زرع البلبلة، وتقويض النقاش العام، وإضعاف القاعدة الداخلية التي تمنح إشارات الردع صدقيتها في الخارج. وتزيد صلات "غولاكسي" بأولويات الدولة الصينية ومعاهد أبحاث وشركات مرتبطة بها من كونها آلة دعائية متطورة.

وتظهر وثائق حللها باحثون في معهد الأمن القومي بجامعة فاندربيلت أن "غولاكسي" نفذت بالفعل عمليات في هونغ كونغ وتايوان، وبدأت بتجميع ملفات عن أعضاء في الكونغرس الأميركي وشخصيات عامة حول العالم. وتتيح المعلومات المتاحة من المصادر المفتوحة للخصوم بناء ملفات شاملة عن السياسيين والقادة العسكريين والجنود لأغراض استراتيجية، لتستخدم لاحقاً في عمليات تأثير موجهة بدقة. وعلى المستوى التكتيكي، قد يستهدف الخصوم الجنود برسائل مزيفة تعتمد تقنيات "التزييف العميق"، تتضمن معلومات شخصية صحيحة لإضفاء صدقية على روايات كاذبة عن أوضاع جبهات القتال أو الظروف في الداخل، بما قد يشتت الانتباه أو يقوض تماسك الوحدات. وفي المجال السياسي، يمكن دمج صور حقيقية لسياسيين مع أصوات أو وجوه مستنسخة رقمياً. وحتى إن لم ينشر هذا المحتوى، فإن مجرد التهديد بكشفه قد يخفف من حدة الخطاب السياسي، أو يعرقل الإجراءات التشريعية، أو يضعف عزيمة القادة. وعلى المستوى الاستراتيجي الأوسع، قد يحاكي الخصوم صدور أوامر زائفة عن سلطات رسمية بالانسحاب أو تغيير قنوات الاتصال، مما يفتح نافذة زمنية تتيح لهم تحقيق مكاسب ميدانية. والنتيجة، في المحصلة، فضاءات يهيمن عليها الارتباك وسوء التقدير.

تسميم البئر

يمثل تحريف النماذج مساراً آخر يمكن للخصوم سلوكه لزرع الشكوك في حسابات الطرف الآخر، عبر التلاعب الاستراتيجي بأنظمة الذكاء الاصطناعي التي تعتمد عليها الحكومات في جمع المعلومات الاستخباراتية ودعم عملية صنع القرار. فمن خلال إفساد بيانات التدريب أو اختراق مسارات التحليل، يستطيع الخصوم تشويه فهم الدولة لقدراتها النسبية، أو لمدى إلحاح التهديد الذي تواجهه. إذ إن النظام الذي يقلل من شأن قوة الخصم قد يدفع إلى ثقة مفرطة لا مبرر لها، بينما قد يفضي النظام الذي يبالغ في تصوير الخطر إلى التردد والتباطؤ. وفي الحالتين، لا يقتصر أثر التلاعب الفعال بهذه الأنظمة على تعقيد إدارة الأزمات، بل يمتد إلى إضعاف صدقية إشارات الردع، بما ينطوي عليه ذلك من أخطار جسيمة.

وعملياً، تقوم عملية تحريف النماذج على التلاعب بسلسلة تدفق البيانات داخل النموذج، بحيث يتجاهل معلومات أساسية ويتلقى مدخلات زائفة، ما يقوده إلى تقديرات مضللة أو متدهورة الجودة. ومن بين الأساليب الممكنة زرع معلومات كاذبة داخل مجموعات البيانات التي يتعلم منها الذكاء الاصطناعي. وعلى رغم أن هذه البيانات قد تبدو غير ضارة للمراجعين البشر، فإنها قادرة على إضعاف قدرات النموذج التحليلية أو تحيزها، كأن يخدع النظام فيصنف أنواعاً معينة من البرمجيات الخبيثة على أنها آمنة، بما يتيح للخصم التسلل عبر جدران حماية الرقمية تعتمد على الذكاء الاصطناعي. وعلى رغم عدم تسجيل حالات موثقة لهذه الممارسة حتى الآن، فإن أبحاث الذكاء الاصطناعي المعاصرة أظهرت أن مجموعات البيانات الحالية عرضة لهذا النوع من عمليات تحريف البيانات، وأن ما كان يعد سيناريو نظرياً بات ممكناً عملياً.

كما يمكن تحريف النماذج من خلال إنشاء مواقع إلكترونية مشوهة أو مفسدة. فأنظمة الذكاء الاصطناعي تجري باستمرار عمليات بحث مباشرة على الإنترنت لجمع معلومات جديدة، ويمكن لمثل هذه المواقع أن تضخ تعليمات خفية تحرف تقييمات النموذج. وإذا كانت المرشحات التي تفحص البيانات الواردة ضعيفة، فإن عدداً محدوداً فقط من هذه المواقع المحرفة قد يكون كافياً لإنتاج استجابات غير دقيقة.

ويمثل تحريف النماذج صورة شديدة الخفاء من صور حرب المعلومات، إذ يتيح للخصوم تشويه تصورات الطرف المدافع حول القدرات والإرادة – سواء قدراته الذاتية أو قدرات الآخرين – عبر العبث بالأدوات ذاتها التي يفترض أن تمنحه الوضوح والدقة. وفي أوقات الأزمات، قد يدفع هذا التحريف القادة إلى التردد، أو إلى سوء تقدير أخطر، بما يضعف الردع ويفتح الباب أمام تصعيد غير محسوب.

استباق التهديد

كان يفترض أن يسهم ظهور أنظمة الذكاء الاصطناعي في تعزيز الردع، عبر إرسال إشارات أوضح إلى الخصوم في شأن قدرات الطرف المدافع وإرادته. غير أن الاستخدام المتنامي لحروب المعلومات، والمدفوع بهذه الأنظمة ذاتها، يهدد بإحداث العكس تماماً. فقد أظهرت المراحل الأولى من هذا النمط الجديد من الصراع المعلوماتي أن تقنيات الذكاء الاصطناعي قادرة على التأثير في كيفية تفسير المعلومات، وإدخال قدر كبير من عدم اليقين إلى عمليات التقدير والحكم، وتشويه البيانات التي تستند إليها القرارات. ومن المرجح أن تتضاعف خطورة هذه التهديدات مع استمرار تطور الذكاء الاصطناعي.

وحتى دولة قوية مثل الولايات المتحدة قد تجد صعوبة في إيصال صدقية ردعها، إذا ما أصبحت مكشوفة أمام حروب معلومات متقدمة تعتمد على الذكاء الاصطناعي. وسيكون التحدي، بالنسبة إلى صناع السياسات والمواطنين على السواء، هو كيفية الاستفادة من مزايا هذه التقنيات مع منع تحويلها إلى أدوات سلاح. ويتطلب التصدي لهذه التهديدات تطوير استراتيجيات مضادة بالسرعة نفسها التي تتطور بها التقنيات التي تستند إليها.

وتستدعي مواجهة هذا الواقع أن تتخذ الحكومات والباحثون خطوات متقدمة لتحصين الأنظمة التحليلية ضد تلويث النماذج، ومواجهة عمليات التأثير المدعومة بالذكاء الاصطناعي بصورة نشطة كلما جرى رصدها. ولمجابهة أنشطة شركات مثل "غولاكسي"، على سبيل المثال، يتعين على الولايات المتحدة وحلفائها امتلاك القدرة على الكشف السريع عن الشبكات الاصطناعية وتعطيلها، باستخدام أدوات قادرة على رصد الهويات المدعومة بالذكاء الاصطناعي وتحييدها قبل أن ترسخ حضورها. ويمكن لحملات التوعية حول الإعلام الاصطناعي وسبل التعرف عليه أن تعزز وعي الرأي العام بهذه الأخطار. وفي هذا الإطار، ينبغي على الحكومات الديمقراطية، ومنصات التواصل الاجتماعي والذكاء الاصطناعي، إلى جانب الباحثين متعددي التخصصات، العمل معاً لتطوير مثل هذه الحلول.

وعلى المستوى الاستراتيجي، يفترض أن تستثمر الولايات المتحدة في تقنيات قادرة على الكشف السريع عن الرسائل الاصطناعية. وينبغي على الحكومة والأوساط الأكاديمية والقطاع الخاص تصميم ضمانات جديدة لعمليات صنع القرار وأنظمة متقدمة لتصفية البيانات، تكون قادرة على الصمود أمام المدخلات المشوهة، بالتوازي مع التعاون مع الحلفاء لفضح الجهات المسؤولة عن حملات التأثير الواسعة النطاق ومعاقبتها. وإضافة إلى ذلك يتعين على هذا التحالف إخضاع النماذج الجديدة لاختبارات منهجية تكشف عن مواطن الضعف فيها، بما في ذلك أساليب لتحريف البيانات التي قد لا تظهر في الاستخدام اليومي، وذلك ضمن إطار من الشفافية الصارمة يتيح المراجعة من قبل خبراء مستقلين. فأنظمة الحماية المتينة والاختبارات الدقيقة تبقى شرطاً أساساً لضمان أداء موثوق لأنظمة الذكاء الاصطناعي في لحظات التوتر الشديد أو الأزمات الكبرى.

وفي عصر الذكاء الاصطناعي، لم يعد الردع قادراً على الاتكاء على القدرات العسكرية والإرادة السياسية وحدهما، بل بات يتطلب من القادة والمخططين الدفاعيين وصناع القرار الحفاظ على موثوقية البيئة المعلوماتية التي يعملون ضمنها، حتى في ظل تشويش رقمي واسع النطاق.

 

بريت بينسون أستاذ مشارك في العلوم السياسية والدراسات الآسيوية في جامعة فاندربيلت.

بريت غولدستين مستشار خاص للمستشار الأعلى في شؤون الأمن القومي والمبادرات الاستراتيجية، وأستاذ بحثي في كلية الهندسة بجامعة فاندربيلت.

مترجم عن "فورين أفيرز"، 6 يناير (كانون الثاني) 2026

اقرأ المزيد

المزيد من آراء