Sorry, you need to enable JavaScript to visit this website.

على العالم التنبه بسرعة لأخطار الذكاء الاصطناعي

علماء كبار ينبهون إلى تهاون في التصدي لأخطار الذكاء الاصطناعي التوليدي

لاحظ الخبراء وجود فرص كبرى في تكنولوجيا الذكاء الاصطناعي إذا جرى استغلالها بصورة مسؤولة (غيتي)

ملخص

أطلقت مجموعة من الخبراء العالمية نداءً بضرورة رفع مستوى الإجراءات المتخذة على المستوى العالمي لمواجهة أخطار الذكاء الاصطناعي التوليدي وزيادة درجة مأمونيته. وضمت صفوف أولئك العلماء الخبير جيوفري هيوتون الذي يعرف بلقب "عراب الذكاء الاصطناعي"

حذر خبراء من عدم كفاية الجهود المبذولة في التصدي لأخطار الذكاء الاصطناعي التي ما زالت بحاجة إلى إجراءات عاجلة لمواجهتها.

وفي ورقة بحثية جديدة أفاد أولئك الخبراء بأن التقدم في ضمان أمان الذكاء الاصطناعي، يستمر في التأخر عن تطور تلك التكنولوجيا، مما قد يضع العالم قيد خطورة مستمرة نتيجة لذلك التلكؤ.

ونشرت الورقة بعد ستة أشهر من أول "قمة سلامة الذكاء الاصطناعي" التي استضافتها المملكة المتتحدة وقبيل ثانية مماثلة في سيول. وتشمل الورقة مساهمات 25 من أبرز المتخصصين العالميين في مجال الذكاء الاصطناعي، بما في ذلك العالِم الذي يشار إليه بلقب "عراب الذكاء الاصطناعي" وأهم الخبراء الاقتصاديين الدوليين.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

ولاحظ أولئك البحاثة أن حكومات عدة اتخذت بالفعل مجموعة خطوات في مناقشة أخطار الذكاء الاصطناعي، وأدخلت خطوطاً توجيهية قد تساعد في التصدي لبعض أخاطر تلك التقنية. في المقابل، حذر الباحثون أنفسهم من أن تلك الإجراءات لا ترقى إلى مستوى الخطر الذي يعتقد خبراء كثيرون بأنه ماثل في تلك التكنولوجيا.

وكذلك أطلق البحاثة تحذيرات بأن تلك المشهدية أدت إلى حرماننا عالمياً من إنجاز ما يكفي من البحوث الضرورية لفهم الأخطار التي يفرضها الذكاء الاصطناعي. واستطراداً، بتنا لا نملك أيضاً الآليات أو المؤسسات التي يجب إرساؤها كي تتصدى لتلك الأخطار.

وفي ورقتهم البحثية المطولة التي سعت إلى تجميع الخطوط الأكثر تقدماً في شأن أمان الذكاء الاصطناعي، ذكر الخبراء أن تلك الأخطار قد تغدو كارثية. إذ يمكن أن تعمل أنظمة الذكاء الاصطناعي على كسب ثقة البشر والتأثير في قراراتهم، مما يساعد ربما في تنفيذ جرائم سيبرانية واسعة، إضافة إلى توليد أنواع جديدة من الأخطار خلال الحروب.

وكذلك شدد الخبراء على أن تلك المعطيات قد تؤدي إلى خسارة في الأرواح على مستوى واسع، أو حتى إلى انقراض الإنسانية كلها.

وذكر جيف كلون، بروفيسور في الذكاء الاصطناعي من "جامعة بريتش كولومبيا" وأحد الموقعين على الورقة، أن "تقنيات مثل رحلات الفضاء والإنترنت والأسلحة النووية انتقلت من الخيال العلمي إلى التحقق على أرض الواقع، خلال حفنة من الأعوام. ولا يشذ الذكاء الاصطناعي عن ذلك المسار".

وأضاف كلون، "يجب علينا الآن التأهب لأخطار جديدة قد تبدو الآن كأنها خيال علمي، على غرار أن يستولي الذكاء الاصطناعي على الشبكات الأساسية والبنى التحتية، وحدوث تلاعب سياسي على مستوى واسع تحت تأثير الذكاء الاصطناعي، وظهور أنواع تعمل باستقلالية ذاتية من الروبوتات الجنود والمسيّرات القاتلة، وحتى حدوث محاولات من أنظمة الذكاء الاصطناعي للتلاعب بنا وتجنب جهودنا في إيقاف عملها".

ولاحظ الخبراء وجود فرص كبرى في تلك التكنولوجيا. في المقابل، حذروا من أن تلك الفرص لا يمكن الاستفادة منها إلا إذا جرى التصرف بمسؤولية حيال الأخطار.

وبحسب دون سونغ، بروفيسور الذكاء الاصطناعي في "جامعة كاليفورنيا بيركلي" وأحد البحاثة الذين تُقتبس آراؤهم بصورة واسعة عن الأمن والخصوصية في الذكاء الاصطناعي، "من المهم الاتحاد وإعادة توجيه الأمور صوب التطوير المسؤول للذكاء الاصطناعي، مع تخصيص موارد وأولويات لتطوير مأمونية الذكاء الاصطناعي والقدرات المتعلقة بتخفيف أخطاره. ومن ثم، سيساعد ذلك في البقاء على إيقاع التقدم في تطور قدرات الذكاء الاصطناعي، وتجنب أي كارثة".

في المقابل، اقترح خبراء آخرون أن الذعر إزاء أخطار الذكاء الاصطناعي قد يكون سابقاً لأوانه. ورأى يان ليكون الذي يوصف أيضاً بأنه "عراب الذكاء الاصطناعي"، على غرار جيوفري هيوتون الذي وقع على الورقة البحثية الواردة آنفاً، أن الذكاء الاصطناعي لم يتطور بعد بدرجة كافية كي يفرض أخطاراً كبرى.

وفي تدوينة حديثة وضعها على الإنترنت رداً على طلب من موظف سابق في شركة "أوبن أي آي" التي صنعت روبوت الدردشة "تشات جي بي تي" الشهير، كتب ليكون "يبدو لي أنه قبل الحديث عن ’الضرورة الطارئة للتفكير في كيفية السيطرة على ظهور أنظمة الذكاء الاصطناعي تفوقنا في الذكاء بأشواط عدة‘، يجب علينا الشروع في رسم ملامح عن تصميم أنظمة للذكاء الاصطناعي تتفوق على قطة المنزل في الذكاء. ويكشف هذا الإحساس بإلحاح الأخطار، عن وجهة نظر مشوهة في شأن حقيقة الأمور".

وظهرت الورقة المشار إليها في مطلع المقالة، ضمن عدد مجلة "ساينس" Science تحت عنوان "التعامل مع الأخطار القصوى للذكاء الاصطناعي في خضم تطوره السريع" Managing extreme AI risks amid rapid progress.

© The Independent

المزيد من علوم