Sorry, you need to enable JavaScript to visit this website.

خطر الذكاء الاصطناعي يضاهي الحروب النووية

الخبراء يعتبرون أن مهمة تخفيف مخاطر الفناء بسبب الذكاء الاصطناعي ينبغي أن تكون "أولوية عالمية إلى جانب مواجهة الجوائح وحرب ذرية"

هل حان الوقت لكي نهلع من اجتياح الذكاء الاصطناعي البشرية؟ (رويترز)

ملخص

هل يصبح الذكاء الاصطناعي أخطر على البشرية من الحروب النووية؟

مرة أخرى، أصدر رئيسا شركتي ذكاء اصطناعي بارزتين تحذيراً من المخاطر الوجودية التي يطرحها الذكاء الاصطناعي المتطور.

وقد تعهد كل من المديرين التنفيذيين لـ"ديبمايند" (DeepMind) و"أوبن إي آي" (OpenAI)، ديميس هاسيبيس وسام آلتمان، تقديم دعمهما لبيان مقتضب نشره "مركز سلامة الذكاء الاصطناعي" (Centre for AI Safety)، وتضمن دعوة إلى الجهات المنظمة والمشرعين لوجوب التعامل بجدية أكبر مع "المخاطر الجسيمة" التي يطرحها الذكاء الاصطناعي اليوم.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وذكر البيان "أن مهمة التخفيف من مخاطر الفناء بسبب الذكاء الاصطناعي يجب أن تكون أولوية عالمية إلى جانب مهمات مواجهة مخاطر أخرى تطاول تداعياتها المجتمع بأسره، مثل الجوائح والحرب النووية".

وكان "مركز سلامة الذكاء الاصطناعي"، وهو منظمة غير ربحية مركزها سان فرانسيسكو وتهدف "إلى تقليص المخاطر ذات الأبعاد الاجتماعية الكبرى التي يطرحها الذكاء الاصطناعي"، اعتبر أن استخدام الذكاء الاصطناعي في الحروب ربما يكون "مفرط الأذى"، لأنه قد يستخدم لتطوير أسلحة كيماوية جديدة وتعزيز الحرب الجوية.

وقع على البيان المقتضب هذا مديرو شركات وأكاديميون بارزون في علوم الفضاء، علماً أن البيان المذكور لا يوضح ما يراه الموقعون مهدداً بالفناء بفعل مخاطر الذكاء الاصطناعي. ومن بين الموقعين جيوفري هينتون، الذي يلقب أحياناً بـ"عراب الذكاء الاصطناعي"، وإليا سوتسكيفير، المدير التنفيذي لـ"تشات جي بي تي" (ChatGPT) وأحد مطوري "أوبن إي آي". كما تضم لائحة موقعي البيان أيضاً عشرات مديري الشركات المعروفة، مثل مدير "غوغل"، وأحد مؤسسي "سكايب"، ومؤسسي شركة "آنثروبيك" (Anthropic) للذكاء الاصطناعي.

إلى هذا تتركز النقاشات العالمية اليوم على الذكاء الاصطناعي بعد إطلاق عدد من الشركات أدوات جديدة تمكن المستخدمين من إنتاج نصوص وصور ورموز كمبيوتر حتى، من دون أن يكلفهم ذلك سوى طلب ما يريدون. ويقول خبراء في هذا السياق إن بوسع هذه التكنولوجيا تجريد البشر من وظائف عديدة - إلا أن هذا البيان الجديد الذي نحن في صدده يشير إلى مخاطر أعمق وأكبر. إذ إن ظهور أدوات مثل "تشات جي بي تي" و"دال-إي" (Dall-E) أدى إلى بروز مخاوف من قيام الذكاء الاصطناعي يوماً بإفناء البشرية إن تخطى الذكاء البشري.

وفي وقت سابق من هذا العام، وبالإطار عينه، قام رؤساء شركات تكنولوجيا بارزون بدعوة شركات الذكاء الاصطناعي الطليعية إلى إيقاف تطوير أنظمتها لستة أشهر بغية العمل على سبل لتخفيف المخاطر.

"أنظمة الذكاء الاصطناعي القادرة على منافسة الذكاء البشري بوسعها أن تمثل مخاطر هائلة على المجتمع والبشرية ككل"، ذكرت رسالة مفتوحة نشرها "معهد مستقبل الحياة" (Future of Life Institute). وتابعت هذه الرسالة: "ينبغي على أنشطة أبحاث وتطوير الذكاء الاصطناعي أن تكون مركزة على جعل أنظمتها الحاذقة وبالغة التطور اليوم أكثر دقة، وأماناً، ووضوحاً، وشفافية، وقدرة، ومواءمة، وموثوقية، وإخلاصاً (للحياة البشرية)".            

© The Independent

اقرأ المزيد

المزيد من علوم