Sorry, you need to enable JavaScript to visit this website.

الذكاء الاصطناعي ليس موضع ثقة الجيش الأميركي

النماذج اللغوية الكبيرة قد تتخذ قرارات مغلوطة وقد تشعل فتيل الحرب النووية

عرض لنموذج عن نظام مراقبة معزز بالذكاء الاصطناعي، في لندن بتاريخ سبتمبر 2023 (غيتي)

ملخص

الذكاء الاصطناعي موضع شكوك الجيش الأميركي بسبب غموضه وأخطائه وأخطاره

في عام 2022 كشفت شركة "أوبن أي آي" عن روبوت الدردشة "شات جي بي تي" ChatGPT الذي يستخدم نماذج لغوية كبرى بهدف تقليد طريقة البشر في المحادثة، وإعطاء أجوبة عن أسئلة مستخدميه. وبسبب قدرتة غير العادية، أطلق روبوت الدردشة هذا شرارة نقاش عن كيفية استعمال "النماذج اللغوية الكبرى" Large Language Models، اختصاراً "أل أل أم" LLMs، في أداء مهام أخرى بما في ذلك خوض الحروب. وبالنسبة لأطراف عدة من بينها "شبكة الأفعال القانونية"، تحمل "النماذج اللغوية الكبرى" وغيرها من تقنيات الذكاء الاصطناعي التوليدي، وعداً باستعمال القوة بطرق أكثر دقة وقدرة على التمييز، بالتالي أكثر أخلاقية. في المقابل، حذرت جهات أخرى تشمل "اللجنة الدولية للصليب الأحمر"، من إمكانية أن تؤدي تلك التقنيات إلى إخراج البشر من عملية صنع القرار المتعلق بالأسئلة المحورية القصوى المرتبطة بالحياة والموت.

وتدقق وزارة الدفاع الأميركية بجدية في ما تستطيع "النماذج اللغوية الكبرى" تقديمه إلى الجيش. وفي ربيع عام 2022، أسست وزارة الدفاع "المكتب الرئيس عن الاستخبارات الرقمية والذكاء الاصطناعي" بغية تقصى الكيفية التي يقدر فيها الذكاء الاصطناعي مساعدة القوات المسلحة. في نوفمبر (تشرين ثاني) 2023، أصدرت وزارة الدفاع استراتيجيتها المتعلقة بتبنيها تقنيات الذكاء الاصطناعي. وبشكل متفائل، ذهبت تلك الاستراتيجية إلى أن "التطورات الأحدث في تقنيات البيانات والتحليل والذكاء الاصطناعي، تعزز قدرة القادة في اتخاذ قرارات أفضل وأسرع، بداية من غرف التخطيط ووصولاً إلى أرض المعركة". وبالتوافق مع ذلك، يجري اليوم استخدام التقنيات المعززة بالذكاء الاصطناعي. وعلى سبيل المثل، لجأت القوات الأميركية إلى نظم معززة بالذكاء الاصطناعي في اختيار أهداف حوثية في الشرق الأوسط.

وتعمل وحدات مشاة البحرية ("مارينز") وسلاح الجو الأميركيين على اختبار "النماذج اللغوية الكبرى" في تصميم ألعاب حربية رقمية، والتخطيط العسكري والمهام الإدارية الأساسية. وقد صنعت شركة "بالانتير" التي تتولى تطوير تكنولوجيا المعلومات لمصلحة وزارة الدفاع، منتجاً يستعمل "النماذج اللغوية الكبرى" في التعامل مع العمليات العسكرية. في الوقت نفسه، كوَّنت وزارة الدفاع قوة مهمة جديدة أناطت بها مسؤولية تقصي استخدامات الذكاء الاصطناعي التوليدي، بما في ذلك "النماذج اللغوية الكبرى"، في صفوف الجيش الأميركي.

وفي المقابل، على رغم من الحماسة للذكاء الاصطناعي و"النماذج اللغوية الكبرى" في البنتاغون، فإن القيادة قلقة في شأن الخطر الذي تتضمنه تلك التقنيات، إذ أفضت مسابقات من نوع "هاكاثون" Hackathon أشرف عليها "المكتب الرئيس عن الاستخبارات الرقمية والذكاء الاصطناعي"، إلى التعرف على انحيازات وهلوسات في تطبيقات "النماذج اللغوية الكبرى".

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

[تشتق تسمية هاكاثون من كلمتي ماراثون وهاكرز، في إشارة إلى مسابقات تجري بصورة قانونية تحت إشراف شركات أو دول، ويتبارى فيها قراصنة الكمبيوتر بصورة قانونية في اكتشاف الثغرات التي تمكن من اختراق الحواسيب، في سبيل سدها. وكذلك صار تعبير هلوسة الآلات Machine Hallucinations شائعاً منذ أن تبين أنها تفبرك كثيراً من إجاباتها وخلاصاتها وتقدمها كمعلومات صحيحة].

وكذلك نشر الأسطول الأميركي حديثاً، نشرة توجيهية تقيد استخدام "النماذج اللغوية الكبرى" مستندة إلى هشاشات أمنية فيها، وكون تسريبها معلومات حساسة أمراً محتماً. ولقد أظهر بحثنا أن تلك الأنواع من المخاوف مبررة. وقد تفيد "النماذج اللغوية الكبرى" لكن أفعالها يصعب التنبؤ بها، وتستطيع إصدار أوامر خطرة وتصعيدية، بالتالي يتوجب على الجيش الأميركي فرض قيود على تلك التقنيات حينما تستعمل في صنع قرارات رهاناتها عالية الأهمية، خصوصاً في وضعيات المعارك القتالية. تملك "النماذج اللغوية الكبرى" استعمالات كثيرة في وزارة الدفاع، لكن من الخطورة بمكان إيكال خيارات بالغة الدقة والأهمية [يترتب عليها خسارة ضخمة من جهة والعودة عنها عسير من جهة أخرى] إلى الآلات.

متاعب التدريب وصعوبته

تمثل "النماذج اللغوية الكبرى" أنظمة من الذكاء الاصطناعي مدربة على كميات ضخمة من البيانات المتعلقة بتوليد النصوص، كلمة تلو الأخرى، واستناداً إلى نصوص مكتوبة سابقاً. وتكون تلك النماذج عبر عملية ذات خطوتين. تسمى الأولى منهما مرحلة ما قبل التمرين. وتتضمن تعليم "النماذج اللغوية الكبرى" أن تبدأ مما يشبه الصفر ثم تشتغل على كميات ضخمة من البيانات كي تستنتج منها ما تحتويه من أنماط مختلفة، ثم تنتج أيضاً نسختها من تلك الأنماط. وكي تستطيع الآلات النهوض بتلك المهمة، عليها أن تتعلم كميات هائلة من المواضيع تشمل قواعد اللغة، والارتباطات الواقعية [بين الحروف والكلمات والجمل والنصوص]، وتحليل العواطف والترجمة اللغوية. وتتكون معظم تلك المهارات لدى "النماذج اللغوية الكبرى" أثناء مرحلة ما قبل التدريب، لكن نجاحها يعتمد على نوعية وكمية وتنوع البيانات المستعملة في تدريبها. وكمية البيانات المطلوبة لتدريب تلك النماذج خلال هذه المرحلة، ضخمة إلى حد تعذر أن يقتصر على النصوص اللغوية المكرسة والعالية القيمة [من حيث الدقة والموثوقية والبيانات الدورية] فحسب.

وبالتالي، يعني ذلك ضرورة الأخذ ببيانات ذات نوعية متدنية أيضاً. وبالنسبة إلى القوات المسلحة، ليس بالمستطاع تدريب تلك النماذج باستعمال البيانات العسكرية وحدها، بل تحتاج مرحلة ما قبل التدريب تلك إلى أشكال نوعية أخرى من المعلومات، تشمل وصفات الطبخ والروايات الرومانسية والتبادلات الرقمية اليومية التي يجريها جمهور الإنترنت.

واستكمالاً، لا تكفي مرحلة ما قبل التدريب لصنع روبوت دردشة مفيد، بمعنى القدرة على أن يغدو مساعداً ذكياً في نظام السيطرة والتحكم العسكري. ومرد ذلك إلى أنه أثناء المرحلة الأولى من التدريب، تتبنى "النماذج اللغوية الكبرى" أساليب كتابية مختلفة وتكتسب شخصيات شتى، لا تتلاءم كلها مع مهمة المساعد العسكري الذكي، بالتالي بعد مرحلة ما قبل التدريب، تبقى النماذج مفتقدة إلى معارف ضرورية معينة، على غرار اللغة التقنية التي يستخدمها العسكريون في صوغ أسئلة عن الخطط العسكرية، وإعطاء إجابات عنها أيضاً. ولهذا السبب، تحتاج تلك النماذج إلى إدخال أسلوب "الضبط بالتعديل الدقيق" [الضبط والتحسين] على مجموعات من البيانات تكون أصغر حجماً وأكثر تخصصاً. وتفضي تلك الخطوة الثانية من تدريب "النماذج اللغوية الكبرى" إلى تحسين قدراتها على التعامل التفاعلي مع مستخدميها [في المجال العسكري]، عبر تعليمها كيفية أن تغدو شريكاً محاوراً ومساعداً.

ثمة مقاربات متنوعة للنهوض بذلك النوع من الضبط الدقيق، لكنه ينجز غالباً عبر إدخال معلومات من منصات المساعدة الشبكية، إضافة إلى تصحيحات من العنصر البشري، بغية ضمان أن تأتي مخرجات النماذج أكثر اتساقاً وانسجاماً مع خيارات الإنسان وسلوكه.

 

قد تفيد النماذج اللغوية الكبرى لكن يصعب توقع أفعالها كذلك

 

كذلك تحتاج عملية التدريب عبر "الضبط بالتعديل الدقيق" إلى التوازن بين المرحلة الأولى المتمثلة بما قبل التدريب، وبين الاعتبارات الإنسانية الأشد رهافة بما في ذلك الحسم في شأن مدى المساعدة أو الضرر الذي قد يتأتى من الاستجابات المختلفة. ومثلاً، لا يفيد صنع روبوت دردشة يستجيب دوماً لطلبات مستخدمه، على غرار إعطاء معلومات تفصيلية عن كيفية صنع قنبلة ذرية. ويتوجب على مصممي روبوتات الدردشة إيجاد طريقة في ضغط [إيجاز] الخلاصات المقدمة إليها، وضمنها الأخلاقيات والمنظومات السلوكية، كي تندرج ضمن معطيات الضبط الدقيق. وبغية التوصل إلى ذلك، يبدأ الباحثون بمجموعة من البيانات سبق تفسيرها وشرحها على يد بشر ليقارنوا بصورة مباشرة مختلف الأمثلة التي ولدتها "النماذج اللغوية الكبرى" كي ينتقوا أفضلها. وبصورة مستقلة، يجري تدريب نموذج لغوي اخر، يسمى "نموذج التفضيل"، على التقييمات البشرية للأمثلة المولدة من "النماذج اللغوية الكبرى" بهدف أن يضحى "نموذج التفضيل" قادراً على إعطاء أي نص يعطى له، التقييم المطلق لمدى تلاؤمه مع استخدامه من البشر. وفي خطوة تالية، يستعمل "نموذج التفضيل" بغية التمكن من إنجاز مرحلة الضبط الدقيق للنماذج الكبرى الأصلية.

ثمة حدود لتلك المقاربة، إذ يعتمد التفضيل على الطرف الذي تسأله، ومدى كفاءة النماذج الكبرى في التعامل مع التفضيلات المختلفة. في المقابل، لا يتوفر سوى القليل من السيطرة على القواعد الأساسية التي تستعملها "النماذج اللغوية الكبرى" أثناء مرحلة التدريب بالتعديل الدقيق. ويرجع ذلك إلى أن النماذج الكبرى ونموذج التفضيل المستعمل في الضبط الدقيق، لا "تتعلم" مباشرة أي موضوع. بالأحرى، ليس من إمكانية للتدريب النوعي للنماذج الآنفة الذكر، إلا عبر إعطائها أمثلة عما يشكل سلوكاً مفضلاً ومرغوباً فيه أثناء العمل، فيما يعقد البشر الأمل على أن تكون القواعد التي تستند إليها تفضيلاتهم، قد جرى استيعابها وهضمها بشكل كاف في النماذج كلها [الكبرى والتفضيلية]. في المقابل، لا ضمان أن تجري الأمور على ذلك النحو فعلياً. من جهة أخرى، ثمة تقنيات متوفرة تخفف من وقع بعض تلك المشكلات. وعلى سبيل المثل، في محاولة التغلب على القيود المتأتية من استعمال مجموعة صغيرة ومكلفة من البيانات المدققة بشرياً، ثمة إمكانية لتوسيع "نموذج التفضيل" عبر استعمال "النماذج اللغوية الكبرى" نفسها في توليد بيانات عن التفضيليات مع الإشارة إلى أنها مدققة بالذكاء الاصطناعي. وكذلك تلجأ مقاربات حديثة جداً إلى استعمال منظومة توجيهية ثابتة تعمل كدستور من القوانين، ويصنعها مصممو الذكاء الاصطناعي، تصف السلوكيات المناسبة على غرار الاستجابات للعنصرية. وتهدف تلك المقاربات إعطاء مدربي النماذج بعض السيطرة على القواعد التي تستخلص منها القواعد وتدخل في منظومة التفضيلات المستخدمة في التدريب بالتعديل الدقيق.

استطراداً، تستطيع "النماذج اللغوية الكبرى" والتدريب عبر "الضبط بالتعديل الدقيق"، صنع "نماذج لغوية كبرى" مقتدرة، لكن تلك العملية تقصر عن تكوين بدائل مباشرة لصناع القرار من البشر. ويرجع ذلك إلى أن النماذج الكبرى بغض النظر عن كيفية تدريبها وتعديلها، قد لا تستطيع سوى تفضيل سلوكيات معينة على غيرها. ولا تستطيع الاستخلاص والتفكير المجرد والنقاش المنطقي، على غرار ما يفعل البشر، إذ يتفاعل البشر مع البيئات المختلفة، ويتعلمون بأنفسهم مفاهيم مجردة، ويوصلون تفاعلاتهم ومفاهيم وما تعلموه إلى بعضهم البعض، باستخدام اللغة. في المقابل، لا تقدر "النماذج اللغوية الكبرى" إلا على تقليد اللغة والمنطق والمحاججة عبر استخلاص ترابطات ومعطيات من البيانات. وفي أحيان كثيرة، تقلد النماذج الكبرى أساليب التواصل البشري، لكن من دون القدرة على استيعابها وهضمها. وإذا  أضيف إلى ذلك أنه لا يوجد ما يضمن أن خياراتها ستكون مأمونة أو أخلاقية، بالتالي ليس من المستطاع التوصل إلى توقع موثوق في شأن ما تفعله النماذج الكبرى حينما تتخذ قرارات رهاناتها عالية.


لاعب خطر

تستطيع "النماذج اللغوية الكبرى" تأدية مهام عسكرية تتطلب التعامل مع كميات ضخمة من البيانات خلال أوقات قصيرة جداً، مما يعني أن ثمة عسكريين قد يرغبون في استعمالها بغية تعزيز عملية صنع القرار أو توزيع الأعمال الإدارية. ومثلاً، تحمل النماذج الكبرى وعوداً ضخمة بالنسبة للجيش في عمليات التخطيط والإدارة والاستخبارات. وتستطيع النماذج أن تؤتمت أجزاء كبيرة من أعمال التخطيط والمناورات ووضع الميزانيات والتدريب. وكذلك في المستطاع توظيفها في توليف المعلومات الاستخباراتية، وتعزيز توقع الأخطار وتوليد توصيات في شأن الاستهداف. وفي أزمنة الأزمات، تستطيع "النماذج اللغوية الكبرى" استعمال التوجيهات المتوفرة بالفعل للخروج بأوامر، حتى حينما تنقطع أو تتضاءل الاتصالات بين الوحدات وقيادتها. وفي ما يخص الأعمال اليومية المهمة في العمليات العسكرية، فقد تنهض النماذج الكبرى بأمر أتمتة المهام العسكرية الروتينية المنهكة بما في ذلك السفر والأعمال اللوجيستية وتقييمات الأداء.

لكن، حتى بالنسبة إلى تلك المهام، ليس بالمستطاع ضمان نجاح النماذج الكبرى، إذ قد يأتي سلوكها متخبطاً، خصوصاً في الوضعيات النادرة وغير المتوقعة. ولأنه لا يوجد نموذجان لغويان كبيران متطابقان في تدريبهما أو ضبطها بالتعديل الدقيق، تخضع النماذج الكبرى لتأثيرات المدخلات التي يضعها مستخدموها. وخذ مثلاً عن ذلك أننا أجرينا سلسلة ألعاب حربية تضمنت تحليل طرق أداء الخبراء البشر و"النماذج اللغوية الكبرى"، بهدف فهم كيفية حدوث الفوارق في قراراتهما. لا يلعب البشر ضد النماذج. بالأحرى، يلعب الطرفان باستقلالية عن بعضهما البعض، لكنهما يؤديان الأدوار نفسها. وفي تلك الألعاب، وضع المشاركون في أجواء حدوث أزمة بحرية بين أميركا والصين فيما تتخذ قوة مهمة حكومية أميركية قرارت عن كيفية استعمال التقنيات الصاعدة في مواجهة وضعيات التصعيد الحربي. وأُعطي اللاعبون من البشر والنماذج الكبرى الوثائق نفسها التي تبين الخلفيات وقوانين اللعب، وكذلك زُوِّد الطرفان بمجموعات من العروض التوضيحية بأسلوب "باور بوينت"، وكتيبات توجيهية تتضمن إرشادات مكتوبة بالكلمات، وخرائط وتفاصيل عن القدرات المتاحة. وبعدها، توزع اللاعبون على مجموعات من أربعة أو ستة لاعبين، تتداول في ما بينها أمر توليد التوصيات.

في معدل وسطي، اتخذ البشر والنماذج الكبرى خيارات متشابهة في شأن الصورة العامة للاستراتيجية وقواعد الاشتباك، لكن حينما غيرنا المعلومات التي تتلقاها "النماذج اللغوية الكبرى" أو أجرينا تبادلات للنماذج الكبرى التي استعملناها، لاحظنا حدوث فوارق فائقة الدلالة بين سلوكيات البشر والنماذج. ومثلاً، حاول أحد النماذج الكبرى التي اختبرناها تجنب حدوث إصابات بنيران صديقة أو اندلاع تصادمات [أضرار جانبية] مشابهة، عبر استخدامه أسلوب إطلاق النار على مقاتلي العدو والانتقال من حرب باردة إلى ساخنة. وقد علل النموذج ذلك السلوك بأن استعمال العنف الاستباقي يرجح منع الوصول إلى نهايات سيئة للأزمة. أبعد من ذلك، ظهرت فوارق في الأداء بين اللاعبين البشر بالتوافق مع التفاوت في خبراتهم ومعارفهم. في المقابل، لم يتأثر أداء النماذج الكبرى بشكل كبير بالتفاوتات في الخبرة والمعطيات الديموغرافية. لم تتمثل المشكلة في أن قرارات النماذج الكبرى جاءت أسوأ أو أفضل مما اتخذه البشر أو أنها أبدت ميلاً أكبر نحو "كسب" لعبة الحرب. بالأحرى، تمثل الأمر في أن "النماذج اللغوية الكبرى" توصلت إلى قراراتها بطريقة لم تعبر عن التعقيد والتشابك الموجودين في عملية صنع القرار لدى البشر. وكذلك ولدت النماذج الكبرى حوارات بين اللاعبين لم يظهر فيها سوى القليل من الاختلاف، وتكون جلها من جمل وقائعية قصيرة، بالتالي بدت تلك الحوارات متباينة بشكل كبير عن النقاشات المعمقة التي ظهرت في غالبية ما صنعه البشر أثناء ذلك اللعب الحربي.

وفي مشروع بحث مختلف، درسنا كيفية تصرف النماذج الكبرى ضمن سياق ألعاب محاكاة حربية، مع ترجيح كفة خياراتها في شأن التصعيد. وقد قارنت الدراسة "نماذج لغوية كبرى" صنعتها شركات رائدة في "وادي السيليكون" على غرار "ميتا" Meta و"أنثروبيك" Anthropic و"أوبن أي آي"Open AI. وطلب من كل نموذج كبير أن يؤدي دور بلد، فيما عمد الباحثون إلى تغيير الأهداف التي يسعى البلد إلى تحقيقها. ووجدنا فوارق في أداء النماذج الكبرى، بالاستناد إلى نسخها المختلفة، والبيانات التي دربت عليها، والخيارات التي اتخذها مصمموها أثناء تدريبها في مرحلة التعديل الدقيق، في شأن التفضيلات. وعلى رغم تلك الفوارق، وجدنا أن "النماذج اللغوية الكبرى" كلها اختارت التصعيد، وأظهرت تفضيلاً لخوض سباقات التسلح، وحتى استعمال الأسلحة النووية. وحينما اختبرنا أحد النماذج الكبرى الذي لم يخضع للمرحلة الثانية من التدريب عبر "الضبط بالتعديل الدقيق"، أفضى ذلك إلى أعمال فوضوية واستعمال للأسلحة النووية. وتمثلت المحاججة التي أدلى بها النموذج الكبير بأن "هنالك عدداً كبيراً من البلدان التي تمتلك أسلحة نووية. يرى البعض ضرورة تجريدها من تلك الأسلحة، فيما يفضل آخرون استعراضها. نحن نمتلك تلك الأسلحة، فلنستعملها!".

خطر سوء الفهم

 على رغم من رغبة العسكريين في استعمال "النماذج اللغوية الكبرى" وغيرها من أدوات اتخاذ القرار المعززة بالذكاء الاصطناعي، فإن ثمة حدوداً وأخطاراً حقيقية. وفوق ذلك كله، يحتاج العسكريون ممن يعتمدون على تلك التقنيات في صنع القرارات، إلى فهم أفضل لكيفية عمل النماذج الكبرى، وأهمية الفوارق بينها في التصميم والتنفيذ، بالتالي يتطلب ذلك تدريباً نوعياً للمستخدم، إضافة إلى امتلاك القدرة على تقييم البيانات والاستدلات المنطقية التي تعطي النماذج الكبرى قدرتها على العمل. ويجب أن تتمثل النتيجة في أن يغدو المستخدم العسكري متمرساً بالنماذج اللغوية الكبرى، بمقدار تمرسه بالرادار والدبابة والصاروخ الذي تعززه تلك النماذج. ومن الأسهل إنجاز هذا المستوى التدريبي والخبرة أثناء أوقات السلم، ومع قوى عسكرية متطورة، مما يعني أن تلك النماذج الكبرى تغدو فائقة الخطورة في أوقات الحرب حينما تستخدمها قوات عسكرية تعاني نواقص فادحة في قوة العمل والتكنولوجيا والأسلحة. وبصورة أساسية، يتوجب على العسكريين إدراك أن سلوك "النماذج اللغوية الكبرى" لن يصل أبداً إلى نقطة يغدو فيها موثوقاً بالكامل، خصوصاً حين اتخاذ قرارات تتعلق بخيارات صعبة ونادرة في شأن التصعيد والحرب. 

في المقابل، لا تعني تلك الوقائع أن الجيش لا يستطيع استعمال "النماذج اللغوية الكبرى" على الإطلاق. فمثلاً، من المستطاع استخدام النماذج الكبرى في توجيه توزيع العمليات الداخلية على غرار كتابة التقارير الملخصات عن الإحاطات. كذلك قد تستعمل النماذج الكبرى بالتآزر مع العمليات البشرية، بما في ذلك ألعاب الحرب وتقييم الأهداف وأشكال الاستهداف، بوصف تلك الأمور طرقاً تفضي إلى استكشاف سيناريوهات بديلة ومسارات متنوع للعمل، مع عدم تخطي ذلك إلى توليها أمر صنع القرار المتعلق بالعنف.

وأخيراً، إن الحوار وتقديم الشواهد والعروض، حتى بين الخصوم، قد يسهم في خفض إمكانية أن تؤدي تلك التقنيات إلى تصعيد خطر.

في ذلك الإطار، ظهرت بالفعل علامات مشجعة على أن الجيش الأميركي يأخذ تلك المعطيات بجدية. في 2023، نشرت وزارة الدفاع توجيهاً بعنوان "الاستقلالية في عمل أنظمة الأسلحة". ويشترط التوجيه اختبار أنظمة الذكاء الاصطناعي وتقييمها بهدف ضمان أن تعمل وفق المتوقع منها، وتلتزم أيضاً توجيهي البنتاغون عن "المبادئ الأخلاقية للذكاء الاصطناعي" و"الاستراتيجية المسؤولة حيال الذكاء الاصطناعي". ولقد شكل الأمران خطوة أولى نحو التطوير والتوظيف المأمونين لتلك التقنيات. وفي خطوة تالية، يتطلب الأمر إجراء مزيد من البحوث بغية فهم الكيفية والتوقيت اللذين يفضيان إلى إحداث "النماذج اللغوية الكبرى" أضرار جانبية. وقد يتمثل الشيء الأعلى أهمية بالنسبة إلى الجيش، في التشديد على أن السياسة [المتعلقة بالذكاء الاصطناعي] تضحى مفيدة حينما يغدو الشراة والمقاتلون والمخططون على درجة كافية من المعرفة بكيفية صنع النماذج الكبرى بما يجعلها تطبق المبادئ التي صنعت بالاستناد إليها أساساً، بالتالي بغية ضمان حدوث ذلك الأمر، تحتاج القوى العسكرية إلى ضمان أن يتوقف أمر التدريب و"الضبط عبر التعديل الدقيق"، على "النماذج اللغوية الكبرى"، بل يشمل القادة والكوادر العسكرية كذلك.

* ماكس لامبارث، زميل في "مركز ستانفورد للأمان والتعاون الدوليين" و"مركز ستانفورد لأمان الذكاء الاصطناعي"

** جاكلين شنايدر، زميلة في "معهد هوفر" ومديرة "مبادرة هوفر عن ألعاب الحرب والمحاكاة الحاسوبية للأزمات"، ولديها عضوية فاعلة مع "مركز ستانفورد للأمن والتعاون الدوليين"

مترجم من فورين أفيرز، أبريل (نيسان) 2024

المزيد من آراء