ملخص
تخوف من "انفجار ذكاء" يفوق فيه النظام القدرات المعرفية البشرية بكثير
لأعوام عدة، حذر بعض أبرز علماء الذكاء الاصطناعي في الدول الغربية من أن أنظمة الذكاء الاصطناعي المستقبلية قد تصبح قوية بما يكفي لتشكل أخطاراً كارثية على البشرية. وأشعل القلق في شأن هذه الأخطار، التي غالباً ما تصنف تحت مسمى "سلامة الذكاء الاصطناعي"، مجالات بحثية تقنية جديدة، وأدى إلى إنشاء معاهد حكومية لسلامة الذكاء الاصطناعي داخل الولايات المتحدة والمملكة المتحدة ودول أخرى.
وثمة اليوم أدلة متزايدة على أن الصين تشارك بالفعل هذه المخاوف، ويشير عدد متزايد من الأوراق البحثية والتصريحات العامة والوثائق الحكومية إلى أن الصين تعامل سلامة الذكاء الاصطناعي كمسألة ملحة بصورة متزايدة، تستحق استثمارات تقنية كبيرة وتدخلات تنظيمية محتملة.
وبدأ الزخم حول سلامة الذكاء الاصطناعي يتزايد داخل مجتمع النخبة التقني في الصين، ويبدو الآن أنه يكتسب بعض الزخم في دوائر السياسة العليا داخل البلاد، وهذا ما ظهر جلياً بإصدار الحزب الشيوعي الصيني وثيقة سياسية رئيسة خلال يوليو (تموز) 2024، تضمنت دعوة لإنشاء "أنظمة رقابة لضمان سلامة الذكاء الاصطناعي".
بوادر القلق الصينية
ينقسم علماء ومهندسو الذكاء الاصطناعي حول احتمالية أن تشكل أنظمته القوية تهديداً للبشرية يوماً ما، وإذا كان الأمر كذلك، فما الإطار الزمني لذلك. وفي دوائر سياسات الذكاء الاصطناعي، يرى بعض أن التركيز على الأخطار الكارثية التخمينية يصرف الانتباه عن أضرار الذكاء الاصطناعي الحالية، بدءاً من خوارزميات إصدار الأحكام المتحيزة وصولاً إلى الضربات العسكرية بواسطة الذكاء الاصطناعي.
أما في الصين، فقد بدأت المخاوف في شأن سلامة الذكاء الاصطناعي تطفو على السطح بين أوساط النخبة العلمية والأكاديمية عام 2020، حين باشر بعض أبرز علماء الحاسوب ومستشاري السياسات المؤثرين في البلاد مناقشة أخطار السلامة علناً، وإجراء بحوث تقنية حول سبل التخفيف منها.
ومن الأمثلة المبكرة البارزة على ذلك وين جاو، مدير أحد أهم مختبرات بحوث الذكاء الاصطناعي الصينية وعميد جامعة "بكين". فخلال عام 2021، شارك غاو في تأليف ورقة بحثية حول الأخطار المحتملة للذكاء الاصطناعي العام والتدابير التقنية اللازمة للسيطرة عليها، وسلطت الورقة الضوء على القدرة المحتملة لنظام الذكاء الاصطناعي العام على التحسين الذاتي بصورة متكررة، مما يؤدي إلى "انفجار ذكاء" يفوق فيه النظام القدرات المعرفية البشرية بكثير. وجادل جاو وزملاؤه بأنه في مثل هذه الحال ستكون "النتيجة الافتراضية كارثية حتماً"، ما لم تتخذ تدابير مضادة كافية.
هذه الحجج ليست جديدة تماماً، فقد استشهد بمزاعم مماثلة بانتظام ونوقشت بشدة في مجتمع بحوث الذكاء الاصطناعي العالمي. لكن ورقة غاو البحثية برزت بفضل نفوذه في الأوساط التقنية والسياسية في الصين، فهو يشغل عضوية عدد من الهيئات الاستشارية العلمية والتكنولوجية رفيعة المستوى للحكومة الصينية، وهو العالم الوحيد الذي قاد المكتب السياسي للحزب الشيوعي الصيني في "جلسة دراسة جماعية" حول الذكاء الاصطناعي. وكانت ورقة غاو البحثية ومحاضراته اللاحقة حول هذا الموضوع بمثابة إشارة مبكرة إلى أن بعضاً من أكثر العلماء نفوذاً في الصين كانوا يفكرون في الأخطار الكارثية الناجمة عن الذكاء الاصطناعي.
المستوى السياسي
لم يكن واضحاً في البداية ما إذا كانت هذه المخاوف التي ذكرناها آنفاً انتقلت من البحث العلمي إلى مداولات الحكومة حول الذكاء الاصطناعي، وظهرت أول إشارة إلى دخول مخاوف محددة في شأن سلامة الذكاء الاصطناعي الرائد إلى النقاش السياسي خلال سبتمبر (أيلول) 2021، عندما أصدرت لجنة خبراء حوكمة الذكاء الاصطناعي الرسمية التابعة لوزارة العلوم والتكنولوجيا وثيقة بعنوان "المعايير الأخلاقية للجيل الجديد من الذكاء الاصطناعي". وتضمنت إحدى المعايير الأخلاقية الستة في الوثيقة دعوة إلى "ضمان خضوع الذكاء الاصطناعي دائماً لسيطرة بشرية"، وهو مصدر قلق رئيس في دوائر سلامة الذكاء الاصطناعي.
وخلال العام التالي، طرحت الصين أولى اللوائح التنظيمية التي تركز على الذكاء الاصطناعي والتي استهدفت خوارزميات التوصية والتزييف العميق. وأصدرت هذه اللوائح "إدارة الفضاء الإلكتروني" الصينية، وهي الجهة التنظيمية الرئيسة للإنترنت في الحزب الشيوعي الصيني، وركزت على دور الذكاء الاصطناعي في إنشاء المحتوى ونشره عبر الإنترنت.
أبرز عالم حاسوب صيني يحذر من العواقب
وخلال عام 2023، انضم عالم الحاسوب الصيني أندرو ياو وهو أكثر علماء الحاسوب احترافاً في الصين، وتتمتع كلمته بثقل كبير في الأوساط الأكاديمية والسياسية، إلى زملائه الحائزين على جائزة "تورينغ" ورائدي الذكاء الاصطناعي جيفري هينتون ويوشوا بينجيو، في تأليف ورقة بحثية بعنوان "إدارة أخطار الذكاء الاصطناعي الشديدة وسط التقدم السريع".
وحذرت الورقة صراحة من أن "التقدم غير المقيد في مجال الذكاء الاصطناعي قد يؤدي إلى خسائر فادحة في الأرواح والمحيط الحيوي، وتهميش البشرية أو انقراضها". وحددت المجالات الرئيسة للبحث التقني اللازم لضمان السلامة، ودعت شركات التكنولوجيا الكبرى إلى تخصيص ثلث موازناتها المخصصة لتطوير الذكاء الاصطناعي لبحوث السلامة.
اقرأ المزيد
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
تكثيف البحوث المتعلقة بسلامة الذكاء الاصطناعي
على مدار العام الماضي استمرت مناقشات سلامة الذكاء الاصطناعي في اكتساب زخم داخل الدوائر التقنية والسياسية في الصين. وعُقد الحوار الثاني حول سلامة الذكاء الاصطناعي بين كبار العلماء الصينيين والغربيين في بكين، وأسفر عن بيان مشترك حول الخطوط الحمراء الموصى بها التي يجب ألا يتجاوزها تطوير الذكاء الاصطناعي الرائد.
وإلى جانب التصريحات رفيعة المستوى المعربة عن القلق من قبل كبار الشخصيات، كثف العلماء الصينيون بحوثهم التقنية حول مشكلات سلامة الذكاء الاصطناعي الرائدة، وتناولت أوراقهم البحثية عدداً من الأسئلة الجوهرية المتعلقة بسلامة الذكاء الاصطناعي، والتي تتعلق بمواءمة ومتانة الأنظمة الرائدة، وغالباً ما بُنيت على أعمال السلامة التقنية المنجزة في الجامعات الغربية.
وجد هذا التركيز على سلامة الذكاء الاصطناعي منصته الأكبر خلال يوليو 2024 ضمن المؤتمر العالمي للذكاء الاصطناعي في شنغهاي، وهو أبرز تجمع سنوي للذكاء الاصطناعي داخل الصين. بعد ذلك، برز "مختبر شنغهاي للذكاء الاصطناعي" كواحد من أكثر منتجي البحوث التقنية في البلاد إنتاجاً حول سلامة الذكاء الاصطناعي، كما بدأ في إعداد أوراق سياسات مصاحبة، وأصدر تقريراً شارك في تأليفه مع مجموعة من مستشاري السياسات المؤثرين حول "سلامة الذكاء الاصطناعي كسلعة عامة عالمية".
وثيقة الحزب الشيوعي الصيني
بعد بضعة أسابيع، نشرت قيادة الحزب الشيوعي الصيني وثيقة سياسية حول سلامة الذكاء الاصطناعي، وكانت الوثيقة بمثابة قرار من الجلسة الكاملة الثالثة، وهي اجتماع يعقد كل خمسة أعوام لكبار قادة الحزب الشيوعي الصيني لوضع مخطط للسياسة الاقتصادية والاجتماعية في الصين. وفي قسم يتعلق بالتهديدات التي تطاول السلامة والأمن العامين، دعت قيادة الحزب الشيوعي الصيني إلى "إنشاء أنظمة رقابة لضمان سلامة الذكاء الاصطناعي".
يدرج موضوع سلامة الذكاء الاصطناعي في الوثيقة بعد التهديدات الرئيسة الأخرى للصحة والسلامة العامة، بما في ذلك سلامة الغذاء والدواء، والرصد والإنذار المبكر والوقاية من الأخطار والسيطرة عليها لأغراض السلامة البيولوجية والأمن الحيوي. وتأتي الدعوة إلى نظام رقابة على سلامة الذكاء الاصطناعي مباشرة بعد دعوة إلى "تعزيز نظام الأمن السيبراني". وفي هذا السياق، يبدو أن أخطار سلامة الذكاء الاصطناعي التي يشير إليها الحزب الشيوعي الصيني تمثل تهديدات واسعة النطاق للسلامة العامة، تشبه الكوارث الطبيعية والصناعية أو تهديدات الصحة العامة.
ترافقت هذه الوثيقة مع دعوات شخصيات ومؤسسات رئيسة في منظومة الذكاء الاصطناعي الصينية، تطالب بإنشاء معاهد لسلامة الذكاء الاصطناعي كتلك التي أسستها المملكة المتحدة والولايات المتحدة العام الماضي.
المشاركة في مجال السلامة وسط المنافسة الجيوسياسية
على رغم تزايد بروز المخاوف المتعلقة بالسلامة لا يزال قادة الصين قلقين بالقدر نفسه، إن لم يكن أكثر، من التخلف عن الولايات المتحدة في مجال الذكاء الاصطناعي المتقدم. وعند مناقشة سياسات الذكاء الاصطناعي، غالباً ما يستشهد الباحثون ومستشارو السياسات بمقولة راسخة لدى الحزب الشيوعي الصيني وهي "الفشل في التطوير أكبر تهديد للأمن"، وهذا يضمن أن يظل اللحاق بقدرات الذكاء الاصطناعي أولوية قصوى للحزب الشيوعي الصيني. لكن المواقف المتغيرة تجاه أخطار الذكاء الاصطناعي الرائد تعني أن العمل على السلامة سيزداد على الأرجح بالتوازي.
وبصرف النظر عما ستفعله الصين لاحقاً، سيظل الالتزام الدولي بسلامة الذكاء الاصطناعي يواجه عقبات هائلة. ولدى كل من الصين والولايات المتحدة أسباب وجيهة للشك العميق في نيات الطرف الآخر ضمن هذا المجال. وإذا كانت أنظمة الذكاء الاصطناعي فائقة القوة والتي يحتمل أن تكون خطرة تلوح فعلاً في الأفق التكنولوجي، فإن الضغط التنافسي لبناء هذه الأنظمة سيكون هائلاً، وستجعل هذه الديناميكيات أية اتفاقات دولية ملزمة في شأن إدارة الذكاء الاصطناعي الرائد أمراً مستبعداً.
ولكن حتى لو ظلت الاتفاقات الرئيسة بعيدة المنال، فقد يبقى هناك مجال لتعاون تقني محدود حول تقييم بعض أخطار السلامة العابرة للحدود الوطنية والتخفيف منها. فبالنسبة إلى بعض التقنيات القوية، هناك تقنيات أمان ترغب الدول في أن يمتلكها حتى خصمها الجيوسياسي. ومن يحاججون بهذا المنطق يستندون إلى اتفاقات حقبة الحرب الباردة التي شاركت فيها الولايات المتحدة تقنيات أمنية لمنع التفجيرات النووية العرضية مع الاتحاد السوفياتي.