في خطوة غير معتادة تعكس تصاعد التحديات الجيوسياسية والتكنولوجية، بدأت شركات "أوبن أي آي" و"أنثروبيك" و"غوغل"، على رغم احتدام المنافسة بينها، العمل معاً للحد من قيام منافسين صينيين باستخراج نتائج من نماذج الذكاء الاصطناعي الأميركية المتقدمة بهدف تحقيق تفوق في السباق العالمي للذكاء الاصطناعي.
وتتبادل هذه الشركات المعلومات عبر ما يعرف بالنماذج الحدودية، وهي منظمة غير ربحية في القطاع أسستها الشركات الثلاث إلى جانب "مايكروسوفت" عام 2023، لرصد محاولات ما يُعرف بـ"التقطير العدائي" التي تنتهك شروط الاستخدام.
لماذا يُعد هذا التعاون مهماً وخطراً في الوقت نفسه؟
يعكس هذا التعاون النادر خطورة المخاوف التي أثارتها شركات الذكاء الاصطناعي الأميركية من أن بعض المستخدمين، خصوصاً في الصين، يقومون بإنشاء نسخ مقلدة من منتجاتها، مما قد يؤدي إلى تقويضها من ناحية الأسعار وسحب العملاء منها، إضافة إلى ما يشكله ذلك من أخطار على الأمن القومي.
وقدّر مسؤولون أميركيون بأن عمليات التقطير غير المصرح بها تكلف مختبرات "وادي السيليكون" مليارات الدولارات سنوياً من الأرباح.
أكدت "أوبن أي آي" مشاركتها في جهود تبادل المعلومات حول التقطير العدائي عبر المنتدى، مشيرة إلى مذكرة حديثة أرسلتها إلى الكونغرس اتهمت فيها شركة "ديب سيك" بمحاولة "الاستفادة المجانية من القدرات التي طورتها "أوبن أي آي" وغيرها من مختبرات الذكاء الاصطناعي الأميركية المتقدمة.
ما هو "التقطير" في عالم الذكاء الاصطناعي؟
يُعد "التقطير" تقنية يُستخدم ضمنها نموذج ذكاء اصطناعي أقدم يُعرف بـ"المعلم" لتدريب نموذج أحدث يُعرف بـ"الطالب"، فيحاكي قدرات النظام السابق وغالباً بكلفة أقل بكثير من بناء نموذج جديد من الصفر.
وتُعد بعض صور التقطير مقبولة بل مشجعة مثل تطوير نسخ أصغر وأكثر كفاءة من النماذج أو السماح لمطورين خارجيين باستخدامها لبناء تقنيات غير تنافسية.
ويثير التقطير جدلاً عند استخدامه من قبل أطراف ثالثة، خصوصاً في دول منافسة مثل الصين أو روسيا لاستنساخ أعمال مملوكة من دون إذن.
وحذرت أبرز مختبرات الذكاء الاصطناعي الأميركية من أن خصوماً أجانب قد يستعملون هذه التقنية لتطوير نماذج خالية من ضوابط السلامة مثل القيود التي تمنع المستخدمين من إنشاء مسببات أمراض قاتلة.
اقرأ المزيد
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
وغالباً ما تكون النماذج التي تطورها المختبرات الصينية "مفتوحة الأوزان"، أي إن أجزاء من النظام متاحة للجمهور للتنزيل والتشغيل بحرية، مما يجعل استخدامها أقل كلفة.
ويشكل ذلك تحدياً اقتصادياً للشركات الأميركية التي تحتفظ بنماذجها بصورة مغلقة، معتمدة على دفع العملاء مقابل الوصول إليها لتعويض مئات مليارات الدولارات التي استثمرتها في مراكز البيانات والبنية التحتية.
وبدأ التدقيق المكثف في التقطير في يناير (كانون الثاني) عام 2025 بعد إطلاق "ديب سيك" المفاجئ لنموذج الاستدلال" آر1" الذي أثار ضجة واسعة في عالم الذكاء الاصطناعي. وبعد ذلك بوقت قصير، حققت "مايكروسوفت" و"أوبن أي آي" في ما إذا كانت الشركة الصينية استخرجت بصورة غير قانونية كميات كبيرة من البيانات من نماذج الشركة الأميركية لإنشاء "آر1".
هل تستمر محاولات الاستخراج رغم الإجراءات الوقائية؟
في فبراير (شباط) الماضي حذرت "أوبن أي آي" المشرعين الأميركيين من أن "ديب سيك" تواصل استخدام أساليب متطورة بصورة متزايدة لاستخراج النتائج من النماذج الأميركية، على رغم تشديد إجراءات الحماية، مشيرة إلى اعتمادها على التقطير لتطوير نسخة جديدة من روبوت الدردشة الخاص بها.
ويشبه تبادل المعلومات بين شركات الذكاء الاصطناعي الأميركية حول التقطير العدائي الممارسات المعروفة في قطاع الأمن السيبراني، فتتبادل الشركات البيانات حول الهجمات وأساليب الخصوم لتعزيز الدفاعات.
ومن خلال هذا التعاون، تسعى الشركات إلى تحسين قدرتها على رصد هذه الممارسات، وتحديد الجهات المسؤولة، ومنع المستخدمين غير المصرح لهم من النجاح.
وأبدى مسؤولون في إدارة الرئيس الأميركي دونالد ترمب انفتاحهم على تعزيز تبادل المعلومات بين شركات الذكاء الاصطناعي للحد من هذه الظاهرة. ودعت "خطة عمل الذكاء الاصطناعي" التي أعلنت العام الماضي إلى إنشاء مركز لتبادل المعلومات والتحليل لهذا الغرض.
ولا يزال تبادل المعلومات حول التقطير محدوداً بسبب حال عدم اليقين لدى الشركات في شأن ما يمكن مشاركته وسط قواعد مكافحة الاحتكار الحالية لمواجهة التهديد التنافسي من الصين، بحسب مصادر مطلعة التي أشارت إلى أن الشركات ستستفيد من مزيد من الوضوح من الحكومة الأميركية.
وتصدّر التقطير قائمة المخاوف لدى مطوري الذكاء الاصطناعي في الولايات المتحدة منذ أن أثارت "ديب سيك" اضطرابات في الأسواق العالمية مطلع عام 2025 بإطلاق نموذجها "آر1"، وتستمر النماذج المفتوحة والمتقدمة في الانتشار داخل الصين، فيما يترقب كثرٌ في القطاع إصداراً مطوراً جديداً من نموذج الشركة.
ما أبرز الاتهامات الموجهة للشركات الصينية؟
العام الماضي، منعت "أنثروبيك" الشركات الخاضعة لسيطرة صينية من استخدام نموذج الدردشة "كلود"، وفي فبراير الماضي حددت ثلاثة مختبرات ذكاء اصطناعي صينية "ديب سيك" و "مونشوت" و"ميني ماكس" باعتبارها تستخرج قدرات النموذج بصورة غير مشروعة عبر التقطير.
وأكدت أن التهديد "يتجاوز أية شركة أو منطقة واحدة" ويشكل خطراً على الأمن القومي، نظراً إلى أن النماذج المقطرة غالباً ما تفتقر إلى ضوابط السلامة التي تمنع إساءة استخدام أدوات الذكاء الاصطناعي.
ونشرت "غوغل" تدوينة أشارت ضمنها إلى رصد زيادة في محاولات استخراج النماذج، ولم تقدم الشركات الأميركية الثلاث حتى الآن أدلة واضحة على مدى اعتماد الابتكار في النماذج الصينية على التقطير، لكنها تشير إلى أن انتشار هذه الهجمات يمكن قياسه من خلال حجم طلبات البيانات واسعة النطاق.