ملخص
سباق واشنطن وبكين حوّل تنظيم الذكاء الاصطناعي إلى ترف سياسي مؤجل، رغم أن مخاطره تتراكم أسرع من قدرة الحكومات على اللحاق بها. ومع اقتراب "لحظة صدمة" محتملة، لا بد من حوكمة انتقائية تفرض أولويات واضحة وتمول السلامة وتمنح الجهات الرقابية سلطة حقيقية.
في أواخر عام 2022، أطلق إصدار روبوت الدردشة "تشات جي بي تي" سباقاً عالمياً لتنظيم الذكاء الاصطناعي. وأنشأت إدارة الرئيس الأميركي جو بايدن "المعهد الأميركي لسلامة الذكاء الاصطناعي" U.S. AI Safety Institute، وهو مكتب كُلف وضع بروتوكولات لتحديد الأخطار التي يطرحها الذكاء الاصطناعي. وأنشأت كندا واليابان وسنغافورة وكوريا الجنوبية والمملكة المتحدة والاتحاد الأوروبي هيئات رقابية مماثلة. واجتمع قادة العالم في "بليتشلي بارك"، المقر الريفي الإنجليزي حيث عمل محللو الشيفرات التابعون للحلفاء سراً خلال الحرب العالمية الثانية، لمناقشة الذكاء الاصطناعي. وشهدت الأشهر الـ15 التالية مؤتمرات متابعة في سيول وباريس. وفي مواجهة تكنولوجيا تُنذر بإعادة تشكيل العمل والحروب ومعنى أن يكون الإنسان إنساناً، كانت الساحة مهيأة لرد فعل سياسي. حتى قادة المختبرات التجارية للذكاء الاصطناعي دعوا آنذاك إلى حوكمة منسقة لهذا المجال.
واليوم، أصبحت مثل هذه الدعوات نادرة. فعلى رغم التسارع المتزايد في قدرات نماذج الذكاء الاصطناعي التوليدي، واستطلاعات الرأي التي تظهر قلق الجمهور من احتمال فقدان الوظائف وأضرار أخرى، لا يرى قادة الحكومات ولا قادة القطاع الخاص أن التنظيم مرجح على المستوى الوطني أو فوق الوطني. ويفسر نفور إدارة ترمب الفطري من التنظيم، ولا سيما التنظيم العالمي، جزءاً من هذا التحول، لكنه ليس العامل الوحيد. فثمة حوافز قوية لترك التكنولوجيا تنطلق بلا قيود، إذ يولد ازدهار الذكاء الاصطناعي جزءاً كبيراً من نمو الاقتصاد الأميركي، وأية محاولة لعرقلة هذا المسار قد تكون مكلفة للغاية. وإن إطلاق الصين نماذج قوية مثل "ديب سيك" DeepSeek، صرف الحكومة الأميركية عن عرقلة مختبراتها المحلية خشية أن تسبقها الصين في السباق.
وحتى لو انفجرت فقاعة الذكاء الاصطناعي، وربما أفلست بعض كبريات الشركات، فإن عمالقة التكنولوجيا ذوي الموارد المالية الضخمة في الولايات المتحدة والصين سيواصلون تسريع نشر هذه التقنيات وتعميم استخدامها. وبفعل ديناميكية السباق هذه، ستظل آفاق حوكمة الذكاء الاصطناعي محفوفة بالصعوبات. لكن حجم ما هو على المحك أكبر من أن يسمح بالتخلي عن قضية التنظيم. عاجلاً أم آجلاً - وربما بعد كارثة مرتبطة بالذكاء الاصطناعي مثل هجوم سيبراني على بنية تحتية حيوية ينفذه طرف مارق - ستغدو هذه الحقيقة بديهية. فالذكاء الاصطناعي ينذر باضطرابات اجتماعية ونفسية على نطاق لا يقل عن الثورة الصناعية التي مهدت بدورها لقرن من الثورات السياسية والحروب العالمية. وفي مرحلة ما، ستدرك الحكومات أن الامتناع عن تشكيل الكيفية التي تتكشف بها ثورة الذكاء الاصطناعي ليس إلا تخلّياً عن المسؤولية. كما أن الرقعة غير المتجانسة من الجهود التنظيمية في كاليفورنيا وغيرها من الولايات الأميركية لن تنتج إطاراً متماسكاً للحوكمة. لكنها تبرز، في المقابل، أن كثراً يشعرون بعدم الارتياح إزاء خيار "عدم فعل شيء".
لكن الاستعداد لعودة الذكاء الاصطناعي لصدارة الأجندة الوطنية يقتضي من أنصار التنظيم مراجعة أوجه القصور في موقفهم. فقد تعثرت حملة السلامة عامي 2023 - 2024 جزئياً لأنها اتسعت أكثر مما ينبغي، إذ دفعت قاعدة مؤيديها العريضة إلى تضخم أجندتها لتشمل قائمة طويلة ومربكة من الأضرار المحتملة التي قد تسببها نماذج الذكاء الاصطناعي: فقدان الوظائف وتراجع التفكير النقدي في المدارس وأخطار على الأمن القومي وكلف بيئية وانتهاكات حقوق النشر و"هلوسات" النماذج والتزييف العميق، وغير ذلك كثير. لكن لكي ينجح تنظيم الذكاء الاصطناعي، لا بد لمناصريه من تحديد الأولويات وصوغ خطة أوضح. ولتحقيق ذلك، عليهم فهم المفاضلات بين أهداف متنافسة والتصدي لسوء الفهم الواسع في شأن الكيفية التي يُرجح أن يتطور بها الذكاء الاصطناعي مستقبلاً. ويجب على المنظمين المحتملين أيضاً التمييز بين سياسات قابلة للتطبيق وأخرى غير عملية. فالسياسات القابلة للتنفيذ تراعي حوافز المختبرات الخاصة وتمنح الحكومة ما يلزم من صلاحيات على نحو مناسب. فعلى سبيل المثال، من شأن فرض "ضريبة أخطار" على مختبرات الذكاء الاصطناعي الخاصة أن يدفعها إلى الاستثمار في أبحاث السلامة. كذلك فإن إنشاء مستودع وطني للبيانات يحقق عائداً مالياً سيزود الجهات الحكومية المشرفة على سلامة الذكاء الاصطناعي بالموارد التي تحتاج إليها لمراقبة النماذج الأكثر تقدماً.
توسع مفرط
يمكن تصنيف أهداف الداعين إلى وضع سياسات للذكاء الاصطناعي في الولايات المتحدة ضمن ثلاث فئات رئيسة. أولها الأمن القومي، أي تعزيز قدرات الجيش وأجهزة الاستخبارات عبر الذكاء الاصطناعي. وثانيها الأمن الاقتصادي، أي تمكين الشركات الأميركية من تطوير هذه التكنولوجيا ودمجها في أعمالها بما يعزز قدرتها التنافسية في الأسواق العالمية. أما الفئة الثالثة فهي الأمن المجتمعي، وتشمل الحد من المخرجات السامة للذكاء الاصطناعي مثل البرمجيات الخبيثة والحماية من البطالة واتساع فجوة اللامساواة ومنع إساءة استخدامه لأغراض إجرامية، بل حتى تجنب سيناريوهات خيالية متطرفة تبيد فيها الآلات البشر، غير أن المشكلة تكمن في أن السعي إلى تحقيق هذه الأهداف الثلاثة في وقت واحد يفضي إلى أجندة واسعة ومربكة، يصعب للغاية تحويلها إلى سياسات عملية قابلة للتنفيذ.
ولتوضيح ذلك، يمكن تصور ثلاثة سيناريوهات، يجمع كل منها بين هدفين من الأهداف الثلاثة. في السيناريو الأول، قد تسعى دولة إلى الجمع بين الأمن القومي والأمن الاقتصادي عبر تعظيم استثماراتها في أبحاث الذكاء الاصطناعي ومراكز البيانات، والبنية التحتية للطاقة. وهذا هو النهج الذي تتبناه إدارة ترمب. لكن لا يمكن لدولة أن تمضي في تعظيم هذين الهدفين، وفي الوقت نفسه تعظيم الأمن المجتمعي، إذ إن تعظيم الأخير يقتضي إبطاء طرح الذكاء الاصطناعي لإتاحة الوقت اللازم لتحديد أخطار السلامة في النماذج وإدراج معالجات لها قبل إطلاقها. وعلى العكس، إذا نجح دعاة السلامة في إبطاء وتيرة إصدار النماذج، فإنهم سيقوّضون الأمن القومي والأمن الاقتصادي. وعلى الطرفين إدراك هذه المفاضلة.
وفي السيناريو الثاني، قد تعطي دولة الأمن القومي والأمن المجتمعي الأولوية، فتتعامل مع الذكاء الاصطناعي كما لو كان تكنولوجيا نووية، عبر حصره في القطاعين العسكري وقطاع الطاقة، وتقييد استخدامه في المجالات الأخرى. ومن شأن هذا النهج أن يعزز أمن الدولة، ويخفف الاضطرابات عن المجتمع، ويمنع فقداناً واسعاً للوظائف، ويقلص فرص سوء الاستخدام. لكنه، في المقابل، سيضعف الأمن الاقتصادي عبر كبح التطبيقات التجارية للذكاء الاصطناعي، ومنع الصناعات من الاستفادة من كفاءاته، ودفع الشركات المحلية إلى التخلف عن منافسيها الدوليين.
أما في السيناريو الثالث، فقد تعطي دولة الأولوية للأمن الاقتصادي والأمن المجتمعي، فتشجع تطوير الذكاء الاصطناعي بأقصى سرعة، مع فرض التزام صارم بقواعد السلامة قبل إتاحة النماذج للجمهور. وقد وصفت شركات التكنولوجيا الكبرى هذا النهج أحياناً بـ"الابتكار المسؤول". وتقوم فكرته على أن الجمع بين التسابق في التطوير والحذر في الطرح يخلق دائرة إيجابية: يكتسب المطورون ثقة الجمهور ويتجنبون ردود الفعل السلبية، ويحققون انتشاراً أسرع على المدى الطويل، غير أن الدولة التي تجمع بين تطوير سريع وطرح حذر قد تواجه صعوبة في تعظيم أمنها القومي. فالدول التي تتصرف بمسؤولية قد تخضع نماذجها لتدقيق صارم، بينما يسارع المنافسون غير الملتزمين إلى نشر أسلحة ذاتية التشغيل وتعزيز قدراتهم السيبرانية، بما يمنحهم تفوقاً عسكرياً.
وهم التفرد
وزاد من صعوبة الموازنة بين هذه المفاضلات سوء فهم واسع لكيفية تطور الذكاء الاصطناعي على الأرجح، ويكمن هذا الالتباس في فكرة "التفرد" Singularity، وهو مفهوم طرحه قبل نحو 30 عاماً كاتب الخيال العلمي فيرنور فينج، ثم تبناه لاحقاً بعض كتاب الاستشراف التقني مثل راي كورزويل. ويعني "التفرد"، بحسب شرح فينج، اللحظة التي تصبح فيها نماذج الذكاء الاصطناعي قوية بما يكفي لترقية شيفرتها بنفسها، مطلقة حلقة تغذية راجعة من التحسين الذاتي المتكرر، تفضي إلى انفجار في الذكاء.
وإذا اعتُمد هذا التصور الذهني، فإن حل معضلة الذكاء الاصطناعي الثلاثية يبدو بسيطاً نسبياً. فإذا كان "التفرد" وشيكاً، فإن الجهود قصيرة الأمد لنشر الذكاء الاصطناعي في خدمة الأمن القومي تبدو بلا جدوى، إذ إن الذكاء الفائق، متى ظهر، سيتجاوز الأنظمة الحالية بمرات عدة. وبالمثل، فإن السعي القصير الأمد إلى تعزيز الأمن الاقتصادي عبر تبني الشركات الحالية للذكاء الاصطناعي يصبح عديم المعنى لأن الذكاء الفائق سيبتكر أساليب ثورية لرفع الإنتاجية، وربما ينسف المفاهيم السائدة عن كيفية عمل الاقتصادات.
وإذا كان الذكاء الاصطناعي يتجه نحو انفجار مفاجئ في القدرات، فإن الهدفين الوحيدين اللذين يستحقان الاهتمام في السياسة العامة هما: الوصول إلى "التفرد" قبل المنافسين (على افتراض أن التفوق العسكري والاقتصادي سيتبع ذلك تلقائياً)، وإعطاء الأولوية للأمن المجتمعي عبر تقليل خطر أن تخضع الآلات فائقة الذكاء البشر أو تفنيهم. وتمثل هذه النظرة القائمة على "التفرد" نسخة من مقاربة "الابتكار المسؤول": أي التسابق لتطوير الذكاء الفائق لتحقيق الأمنين العسكري والاقتصادي، مع طرحه بحذر لتجنب خطر انقلابه على البشر.
ويستند بعض مؤيدي ضوابط التصدير التي تفرضها واشنطن والتي تحد من وصول الصين إلى رقاقات الذكاء الاصطناعي وتقنيات تصنيعها - إلى هذا المنطق. فهم يقرون بأن حرمان الصين من أشباه الموصلات المتقدمة سيدفعها إلى تطوير بدائل محلية، مما قد يجعلها أكثر قوة على المدى الطويل. لكنهم يرون أن هذه المفاضلة مبررة لأن "التفرد" وشيك، بالتالي فإن تأخير تقدم الصين بضعة أعوام قد يكون كافياً لتمكين الولايات المتحدة من حسم سباق الذكاء الاصطناعي. وبحسب هذا المنطق، فإن المطلوب هو دفع معادلة "الابتكار المسؤول" إلى أقصاها، لضمان الوصول أولاً إلى "تفرد آمن".
ثمة الكثير على المحك بما لا يسمح بالتخلي عن قضية التنظيم
لكن المشكلة هي أن "التفرد" على الأرجح لن يتحقق. صحيح أن نسخة محدودة من التحسين الذاتي المتكرر أصبحت واقعاً بالفعل، إذ تساعد أدوات برمجة مدعومة بالذكاء الاصطناعي، مثل "كلود" التابع لشركة "أنثروبيك"، في كتابة شيفرات الجيل التالي من نماذج الذكاء الاصطناعي. لكن التكنولوجيا لا تكتسب القدرة على الفعل من تلقاء نفسها. ولكي يكون الذكاء الفائق مؤثراً، لا بد من وضعه في بيئة تمكنه من العمل، وهي بيئات سيظل البشر يصممونها ويتحكمون بها في المستقبل المنظور.
فعلى سبيل المثال، قد تصبح الأنظمة فائقة الذكاء قريباً قادرة على استبدال معظم المحامين، غير أن إحلالها محل البشر يتطلب أولاً منحها حق الوصول إلى مجموعات البيانات المناسبة مثل معلومات العملاء. ولكي يحدث ذلك، يتعين على مطوري الذكاء الاصطناعي حسم قضايا المسؤولية القانونية عن الأخطاء المهنية والحصول على الموافقات التنظيمية وتعزيز حماية الأنظمة ضد الهجمات وتجاوز ضغوط جماعات المصالح من العاملين الحاليين في المهنة. وبعد تخطي هذه العقبات، يجب منح هذه الأنظمة صلاحيات فعلية للعمل، بما في ذلك صياغة العقود القانونية وكتابة الشيفرات التي تعزز برمجيات الشركات القائمة وتشغيلها والتحقق منها ومشاركتها مع أنظمة أخرى. وكل خطوة من هذه الخطوات نحو منح الذكاء الاصطناعي قدرة مستقلة على التصرف ستصطدم على الأرجح بعوائق قانونية ومؤسسية جديدة. ولهذه الأسباب مجتمعة، لن يتمكن الذكاء الفائق من استبدال البشر بسرعة.
كذلك يتجاهل سيناريو "التفرد" العقبات المادية التي تعترض قابلية الذكاء الاصطناعي للتوسع. فبلوغ الذكاء الفائق وتطبيقه على ملايين المهمات يتطلب رفوفاً ضخمة من أشباه الموصلات وأنظمة تبريد متقدمة وكميات هائلة من الكهرباء. ولجعل ذلك ممكناً، يتعين على شركات تصنيع الرقاقات بناء مصانع للإنتاج، وتأمين أحدث الآلات لطباعة الدارات على السيليكون، والتفاوض على الحصول على المعادن النادرة، وضمان تزويد شبكات الكهرباء الوطنية بمحطات تحويل جديدة وخطوط نقل إضافية.
وتفترض رؤية "انفجار الذكاء" ضمنياً وجود حلقة تغذية راجعة مبسطة على نحو مفرط: يكتب الذكاء الاصطناعي الشيفرة، فتحسن الشيفرة أداءه، ثم يكتب شيفرة أفضل، وهكذا دواليك، غير أن الطريق إلى الذكاء الفائق يمر أيضاً عبر مفاوضات بشرية مع الحكومات في شأن مواقع مصانع جديدة واستخراج المواد والتفاوض على عقود الطاقة وجمع التمويل ومراعاة أخطار القراصنة المعادين، وسلسلة لا تحصى من العوائق والتعقيدات التي لا يستطيع التعامل معها سوى البشر.
وفي الواقع، يرجح أن يظهر الذكاء الفائق تدريجاً، لا في لحظة ثورية واحدة. ولهذا السبب، سيطول أمد السباق بين واشنطن وبكين، مما يضعف الحجج المؤيدة لفرض قيود على تصدير أشباه الموصلات. وبالمثل، يصبح منطق الاندفاع نحو "تفرد آمن" موضع شك لأن موازنة أهداف سياسات الذكاء الاصطناعي ستجري على مدى زمني طويل.
اختبار الواقعية
بعد استيعاب معضلة الذكاء الاصطناعي الثلاثية وتجاوز وهم "التفرد"، يتعين على دعاة حوكمة الذكاء الاصطناعي إنجاز خطوة أخيرة. وهي أن يكونوا صريحين في الإقرار بأن بعض المخاوف الشائعة حول الذكاء الاصطناعي لا ينبغي أن تتحول إلى أولويات سياسية. فأوضح الأمثلة تتعلق بمخاوف مبالغ فيها، أو بمشكلات لدى القطاع الخاص حوافز قوية لمعالجتها بنفسه، مما يجعل الضغط التنظيمي غير ضروري.
وينطبق ذلك على القلق من "هلوسات" الذكاء الاصطناعي. فحتى عام 2023، كانت النماذج اللغوية الكبرى غير مستقرة ومليئة بالأخطاء، مما يفسر تردد المختبرات الكبرى في طرحها. لكن منذ ذلك الحين، تراجعت هذه الظاهرة. وفي بعض السياقات، تظهر اختبارات الأداء أن الأنظمة الذكية باتت أكثر دقة من خبراء بشريين في الإجابة عن الأسئلة. كذلك، لدى المختبرات حوافز قوية لمواصلة تحسين دقة نماذجها.
وثمة مخاوف أخرى ربما تكون مشروعة، لكنها تظل غير عملية من منظور السياسات العامة، وينبغي استبعادها من الأجندة التنظيمية. فعلى سبيل المثال، يهدد الذكاء الاصطناعي وظائف العاملين في مجالات معرفية، غير أن صناع القرار لا ينبغي أن يجعلوا الحفاظ على الوظائف أولوية لأن قدرتهم على منع هذا التحول محدودة. فبعض المحامين ومتخصصي الأشعة وكتاب السيناريو في هوليوود سيتمكنون من الاحتفاظ بوظائفهم إذا أتقنوا استخدام الذكاء الاصطناعي. أما من يفقدون أعمالهم، فيستحقون شبكة أمان اجتماعي مثل الدخل الأساسي الشامل. لكن تجميد التقدم التكنولوجي ليس خياراً واقعياً.
وينبغي أيضاً إخضاع قيود تصدير أشباه الموصلات لاختبار الواقعية. فعندما فرضت إدارة بايدن ضوابط واسعة في أواخر عام 2022، كانت تأمل في تعزيز الأهداف الثلاثة التي تتضمنها معضلة الذكاء الاصطناعي. فحرمان الصين من أفضل الرقاقات كان يفترض أن يبطئ تقدمها العسكري، بما يعزز الأمن القومي الأميركي. وكان يفترض أيضاً أن يعرقل تطوير التطبيقات التجارية للذكاء الاصطناعي، فيدعم الأمن الاقتصادي الأميركي. إضافة إلى ذلك، كان الهدف منع الصين من بناء نماذج غير آمنة من المحتمل أن تهاجم البشر، بما يسمح لواشنطن بمطالبة مختبراتها بضبط النفس من دون الخشية من منح الأفضلية لخصم متهور.
لكن هذه الحزمة الثلاثية من الفوائد المرجوة لم تتحقق. فحتى الآن، لم تنجح قيود أشباه الموصلات في منع الصين من تطوير نماذج متقدمة. كذلك، يكاد يكون تهريب الرقاقات من المستحيل وقفه. ويمكن لمطوري النماذج في الصين تعويض نقص الشرائح المتطورة باستخدام أعداد كبيرة من الشرائح الأقل تقدماً. كذلك يستطيع المطورون الصينيون تجاوز القيود المرتبطة بالمكونات المادية عبر تحسين برمجياتهم. والنتيجة أن قطاع الذكاء الاصطناعي في الصين يواصل تقدمه السريع على رغم العقوبات الأميركية. وفي الوقت نفسه، دفعت قيود الرقاقات الصين إلى تكثيف تركيزها على تطوير صناعة أشباه الموصلات المحلية.
ليس من الواقعية تجميد التقدم التكنولوجي
شأنها شأن الحفاظ على الوظائف وقيود تصدير أشباه الموصلات، تبدو سياسة تقييد "النماذج ذات الأوزان المفتوحة " - أي النماذج التي يمكن تنزيلها وتعديلها، بما في ذلك تعديلها بطرق قد تجعلها غير آمنة - جذابة من ناحية المبدأ، لكنها صعبة التطبيق عملياً. فمن ناحية المبدأ، يعني تشديد القيود على هذه النماذج التضحية بجزء من المكاسب الاقتصادية الناتجة من الانتشار الأسرع قليلاً للذكاء الاصطناعي، في مقابل تعزيز هدفين آخرين هما الأمن القومي والأمن المجتمعي. فالأمن القومي سيستفيد لأن الخصوم الأجانب، سواء كانوا دولاً أو جهات غير حكومية، لن يكون بإمكانهم الحصول بسهولة على نماذج قوية مفتوحة الأوزان. وسيستفيد الأمن المجتمعي أيضاً للأسباب نفسها. فالحواجز الوقائية التي تدرجها المختبرات المسؤولة في أنظمتها المملوكة يمكن نزعها من النماذج المفتوحة، مما يسهل، على سبيل المثال، تطوير مساعدين أذكياء قادرين على التلاعب النفسي بالمستخدمين. ومع ذلك، فإن عالماً يعتمد حصراً على نماذج تملكها شركات خاصة لن يكون خالياً من الأضرار، ويكفي التذكير بصور التزييف العميق العارية التي يولدها نموذج "غروك" التابع لشركة xAI عند الطلب. لكن حين تنحرف النماذج المملوكة عن المسار، تستطيع الحكومات، في الأقل، تحديد الجهة المسؤولة.
ونظراً إلى أن حظر جميع النماذج المفتوحة سيكون مستحيلاً، يقترح أنصار هذا التوجه غالباً مقاربة انتقائية، تقوم على تقييد أقوى النماذج فقط. فهذه النماذج تنتجها شركات معروفة يمكن إخضاعها للضغط التنظيمي. وبعض المطورين مثل "ميتا"، تقع مقارهم في الولايات المتحدة. وآخرون مثل "كوهير" الكندية و"ميسترال" الفرنسية، جمعوا تمويلاً في الولايات المتحدة ويأملون في المزيد. وإن معظم المطورين الجادين يسعون إلى خدمة الشركات والأسر في الولايات المتحدة أو الدول الحليفة لها.
وإذا تمكن المنظمون من التلويح بحرمان المطورين من الوصول إلى مموليهم وعملائهم وشركائهم في مراكز البيانات، فإن فرض هذه القيود سيبدو أكثر قابلية للتطبيق. ومن خلال بناء تحالف من دول متقاربة التوجهات، قد تتمكن إدارة أميركية مقبلة من جعل جمع التمويل وتحقيق الإيرادات في أميركا الشمالية وأوروبا أمراً بالغ الصعوبة على مطوري هذه النماذج. ويمكنها أيضاً أن تمنع مشغلي مراكز البيانات الكبرى مثل "أمازون" و"غوغل" و"مايكروسوفت"، من تشغيل نماذج مفتوحة عالية الأخطار وغير خاضعة للتدقيق. ومن شأن هذه الخطوات أن تدفع الشركات الكبرى إلى الابتعاد من هذا النوع من النماذج.
لكن العقبة الأساسية هي أن المطورين الصينيين على الأرجح لن ينضموا إلى مثل هذا التحالف. ونظراً إلى تدهور العلاقات الأميركية - الصينية، تكاد المختبرات الصينية لا ترتبط بالسوق الأميركية. وإذا واصلت هذه المختبرات إطلاق نماذج قوية مفتوحة الأوزان، فلن يكون لمنع "ميتا" وغيرها من الشركات الأميركية جدوى تُذكر، بل إن تقييد النماذج الأميركية سيؤدي فقط إلى تعميق اعتماد الدول النامية التي تفضل هذه النماذج بسبب انخفاض كلفتها - على التكنولوجيا الصينية. وفي ظل غياب أي انفراج في العلاقات بين واشنطن وبكين، تفشل سياسة تقييد النماذج ذات الأوزان المفتوحة في اجتياز اختبار الواقعية.
تقبّل المفاضلات
يتمثل المسار الأفضل لتنظيم الذكاء الاصطناعي في تقبّل تسويتين، ينطوي كل منهما على كلفة اقتصادية محدودة، مقابل مكاسب أكبر في مجال الأمان المجتمعي. وتنطلق التسوية الأولى من أن سلامة النماذج تمثل منفعة خاصة ومنفعة عامة في آنٍ واحد. فمختبرات الذكاء الاصطناعي لديها حوافز لإنتاج نماذج آمنة لمستخدميها، مما يحقق لها منفعة مباشرة. لكن النموذج الذي لا يضر مستخدميه ربما يظل قادراً على الإضرار بالمجتمع. فعلى سبيل المثال، إذا طلب مستخدم من نموذج ما إنتاج آلاف المقالات المتشابهة ظاهرياً التي تزعم وقوع تزوير انتخابي وهمي، فسيكون لدى المختبر حافز للاستجابة لهذا الطلب إرضاءً للعميل، على رغم أن هذه الاستجابة نفسها تضر بالمصلحة العامة عبر نشر معلومات مضللة. وبما أن المختبرات الخاصة لا تملك حوافز كافية لتجنب مثل هذه الآثار الخارجية، فإنها لا تستثمر بالقدر اللازم في أبحاث السلامة.
ويمكن لـ"ضريبة أخطار" خاصة أن تعالج هذا الخلل. فهدفها لا يتمثل في جمع الإيرادات، بل في التأثير في كيفية توزيع الشركات لمواردها، ودفعها إلى تخصيص حصة أكبر لأبحاث السلامة. فعلى سبيل المثال، إذا أنفق مطور للذكاء الاصطناعي مليار دولار لبناء نموذج، فسيخضع لضريبة بنسبة خمسة في المئة، أي 50 مليون دولار. وفي المقابل، ستمنح الحكومة رصيداً ضريبياً يعادل 25 في المئة من كل دولار ينفق على أبحاث السلامة. فإذا أنفق المختبر 200 مليون دولار إضافية على هذه الأبحاث، فسيحصل على رصيد ضريبي بقيمة 50 مليون دولار يعادل قيمة الضريبة المستحقة.
ومن الممكن أن يعترض قادة القطاع على أن فرض الإنفاق على السلامة قسراً سيضعف قدرتهم المالية، ويضر بموقعهم في السباق مع المطورين الصينيين غير المقيدين، غير أن هذا التدخل يظل محدوداً بالنظر إلى مئات المليارات التي تستثمرها المختبرات الأميركية في الذكاء الاصطناعي. كما أن أثره السلبي على وتيرة النشر سيكون موقتاً. فعلى المدى الطويل، سيعزز تحسين أبحاث السلامة ثقة الجمهور، ويسهل الانتشار الواسع للتكنولوجيا، وما يرافقه من فوائد اقتصادية.
وستؤدي زيادة الإنفاق على السلامة أيضاً إلى تعزيز الأمن المجتمعي وتحقيق منافع إضافية، من بينها وقف تراجع المختبرات الأكاديمية. فمع احتكار الشركات الخاصة للمعدات والمواهب، تعاني مختبرات الجامعات التي كانت تاريخياً مصدراً للتفوق التكنولوجي الأميركي- التراجع. ومن خلال السماح للشركات بالحصول على إعفاءات ضريبية مقابل تمويل منح السلامة التي تقدمها "المؤسسة الوطنية للعلوم"، أو إتاحة موارد الحوسبة للجامعات، يمكن لضريبة الأخطار أن تعيد الحيوية للقطاع الأكاديمي. وتحول "المؤسسة الوطنية للعلوم" نحو مليار دولار سنوياً إلى برامج علوم الحاسوب في الجامعات. وبما أن كلف التدريب في القطاع الخاص تفوق هذا الرقم بأضعاف، فإن الدعم الذي توفره ضريبة الأخطار للبحث الأكاديمي في علوم الحاسوب سيكون ذا أثر كبير.
يجب تمكين الجهات التنظيمية الحكومية من امتلاك صلاحية منع إطلاق نماذج خطرة من الذكاء الاصطناعي
إضافة إلى تحفيز الإنفاق على السلامة، ينبغي للحكومة أن توظف ما تمتلكه من بيانات غير متاحة للعموم لتعزيز التعاون مع شركات الذكاء الاصطناعي. فحتى الآن، هيمن القطاع الخاص على جمع وتنظيم البيانات اللازمة لتدريب النماذج، عبر استخراج محتوى الإنترنت المفتوح ومصادر أخرى، غير أن مخزون النصوص العامة عالية الجودة بات شبه مستنفد، مما يدفع حدود الابتكار إلى الانتقال نحو مجموعات بيانات غير عامة، من بينها بيانات تمتلكها الحكومة الأميركية.
والعام الماضي، أعلنت إدارة ترمب خطة تتيح لوزارة الطاقة نشر مجموعات بيانات علمية جمعها 17 مختبراً وطنياً، لاستخدامها في تدريب نماذج الذكاء الاصطناعي في القطاع الخاص. ويمكن توسيع هذه المبادرة الإيجابية لتشمل مجالات أخرى. ففي قطاع الصحة مثلاً، يمكن للبيانات السريرية منزوعة الهوية أن تمكن النماذج من تشخيص الأمراض ووصف الأدوية. وفي المجال الاقتصادي، يمكن لبيانات الضرائب منزوعة الهوية - غير المتاحة حالياً للجمهور - أن تساعد النماذج في التنبؤ على نحو أدق بتحولات الادخار والاستهلاك.
اقرأ المزيد
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
ويمكن لإدارة ترمب إنشاء مستودع وطني للبيانات تحت مظلة "مركز معايير وابتكار الذكاء الاصطناعي" CAISI الذي أنشأته إدارة بايدن في الأصل باسم "المعهد الأميركي لسلامة الذكاء الاصطناعي". وسيتولى هذا المستودع تنقية كميات واسعة من البيانات الحكومية غير المنشورة حالياً وإخفاء هويات أصحابها وفق أعلى معايير الخصوصية، ثم إتاحتها لمطوري الذكاء الاصطناعي في القطاع الخاص. وسيدفع المطورون مقابلاً مالياً لاستخدام هذه البيانات، كما يفعلون حالياً مع شركات تنظيم البيانات الخاصة. وستستخدم هذه الإيرادات لتعزيز قدرات المركز على مراقبة سلامة النماذج التي تطورها الشركات الخاصة.
وبعد تأمين التمويل الكافي، سيحتاج المركز إلى صلاحيات إضافية. فقد ألزمت إدارة بايدن مطوري النماذج المتقدمة مشاركة معلومات السلامة مع مكتب الصناعة والأمن في وزارة التجارة، غير أن إدارة ترمب علقت هذا الإجراء على نحو غير حكيم. لكن الاطلاع وحده لا يكفي، إذ يحتاج المركز إلى سلطة فعلية للتدخل. وكما تمتلك إدارة الغذاء والدواء صلاحية منع تسويق الأدوية غير الآمنة، ينبغي تمكين الجهات المنظمة للذكاء الاصطناعي من حق الاعتراض على إطلاق النماذج الخطرة.
وكما هي الحال مع "ضريبة الأخطار"، فإن الهدف من إنشاء مركز أقوى للذكاء الاصطناعي يتمثل في تحقيق زيادة كبيرة في الأمان المجتمعي مقابل خسارة محدودة في الأمن الاقتصادي، من دون الإضرار بالأمن القومي. صحيح أن إخضاع النماذج لاختبارات ضغط قبل طرحها سيؤدي إلى كلف وتأخيرات معتدلة، لكن هذه الأعباء ستعوض بإتاحة مجموعات بيانات عامة عالية الجودة للتدريب، وبأن التدقيق العلني في النماذج سيسرع تقبّل الجمهور لها. وفي الوقت نفسه، يمكن لاختبارات ما قبل الإطلاق الصارمة أن تجرى من دون المساس بالأمن القومي، إذا سُمح للمختبرات الخاصة بمشاركة نماذجها مع مسؤولي الدفاع والاستخبارات قبل مراجعتها من قبل المركز. وبهذه الطريقة، يتمكن قادة الأمن القومي من التخطيط لاستخدام النماذج الجديدة قبل أن يعرف العالم بوجودها.
نحو انتصار جديد في منع الانتشار
من المحتمل أن يعترض منتقدو هذه المقترحات على جدوى فرض ضرائب على مطوري النماذج المملوكة في الولايات المتحدة، وإلزامهم بزيادة الإنفاق على السلامة، وإنشاء هيئة قادرة على رصد النماذج الخطرة ومنع إطلاقها، طالما أن هناك خطراً بأن تواصل الصين ومطورو النماذج المفتوحة طرح نماذج غير آمنة، غير أن هناك مبرراً قوياً لفرض تنظيم فيدرالي على النماذج المملوكة، حتى في حال الانتشار الواسع للنماذج الصينية أو المفتوحة. والسبب أن النماذج الأميركية المملوكة تظل الأقوى، ولا سيما في المهمات المعقدة التي تتطلب استدلالاً متقدماً وقدرات متعددة الوسائط. وإذا كان هدف الجهات المنظمة مراقبة أكثر النماذج ابتكاراً وقوة - بالتالي أكثرها خطورة - فإن التركيز على المختبرات الأميركية المملوكة للشركات يبدو خياراً منطقياً.
وفضلاً عن ذلك، فإن فرض الضرائب والتنظيم على الذكاء الاصطناعي المملوك ستكون له آثار إيجابية تمتد إلى بقية القطاع. فإجبار المختبرات الخاصة على تمويل أبحاث السلامة سيدفع إلى تطوير خصائص تعزز أمان جميع النماذج. فعندما ظهر التشفير والمصادقة متعددة العوامل، اقتصر استخدامهما في البداية على البرمجيات المتقدمة، ثم أصبحا لاحقاً معياراً عاماً. وبالمثل، ستبدأ منهجيات سلامة الذكاء الاصطناعي كحلول مكلفة ومحدودة، قبل أن تتحول إلى معايير صناعية. وبمجرد أن يُثبت أحد الرواد المملوكين قيمة إضافة سلامة معينة، سيُنظر إلى أي نموذج مفتوح يفتقر إليها على أنه معيب أو حتى خطِر. وسيسهم هذا الضغط السوقي، المدعوم بقدرة مركز الذكاء الاصطناعي على إدراج النماذج الرديئة ضمن قوائم سوداء، في ضمان أن الابتكارات الممولة عبر ضرائب النماذج المملوكة ستفرض معايير صارمة على القطاع بأكمله.
وعلاوة على ذلك، قد يشكل بناء جهاز تنظيمي للنماذج المملوكة خطوة تمهيدية لمشروع حوكمة أوسع، ينتهي مستقبلاً باتفاق دولي لتقييد النماذج المفتوحة. واليوم، يعود تعذر ضبط هذه النماذج جزئياً لتردي العلاقات الأميركية - الصينية، لكن هذا الواقع قد يتغير. فخلال الحرب الباردة، تخللت فترات التوتر مراحل من الانفراج. وعام 1968، وبعد ست سنوات فقط من أزمة الصواريخ الكوبية وفي ذروة حرب فيتنام، وقعت الولايات المتحدة والاتحاد السوفياتي وأكثر من 50 دولة أخرى معاهدة منع انتشار الأسلحة النووية التي نجحت في إبطاء انتشار السلاح النووي. ويمكن لواشنطن اليوم أن تطمح إلى تحقيق إنجاز مماثل في مجال الذكاء الاصطناعي المفتوح. ومن خلال إرساء بنية مؤسساتية متينة لتنظيم النماذج المملوكة، ستضع الولايات المتحدة نفسها على طريق تحقيق انتصار جديد في منع الانتشار.
وفي ضوء صعوبة حوكمة تكنولوجيا سريعة التغير وضبط سباق عالمي على التفوق، يواجه مؤيدو تنظيم الذكاء الاصطناعي خيارات قاسية، تتطلب التضحية بجزء من الأمن الاقتصادي أو المجتمعي أو القومي، غير أن الاعتراف بهذه المفاضلات يظل أفضل من إنكارها. فإذا فشلت الحكومات في اتخاذ قرارات واعية حول الذكاء الاصطناعي، فإن التكنولوجيا ستتقدم وتفرض خياراتها بنفسها.
ترجمة عن "فورين أفيرز"، 13 فبراير (شباط) 2026
سيباستيان إلبوم، بروفيسور في علم الكمبيوتر، "جامعة فرجينيا"، وزميل أول في "مجلس العلاقات الخارجية"
سيباستيان مالابي، زميل أول في "مجلس العلاقات الخارجية" ومؤلف كتاب مرتقب بعنوان "الآلة اللانهائية، ديميس حسابيس، ديب مايند، والسباق إلى الذكاء الاصطناعي الخارق"