Sorry, you need to enable JavaScript to visit this website.

ما وراء تحذير الشركات من خطر الذكاء الاصطناعي

ربما تتهددنا هذه التكنولوجيا بـ"الانقراض" ولكن يبدو أن التخويف منها يعود بفائدة كبيرة على الجهات التي تصدره

كل ذكاء اصطناعي خطر هو في الواقع نتاج خيارات تقصدت أن تختارها الجهات المطورة، وفي معظم الحالات، الشركات التي وقعت على البيان الجديد (ويكيميديا كامونز.كوم)

ملخص

ربما تتهددنا هذه التكنولوجيا بـ"الانقراض" ولكن يبدو أن التخويف منها يعود بفائدة كبيرة على الجهات التي تصدره

22 كلمة فقط ولكنها تثير الذعر في نفوس القراء، وعلى قدر قسوتها في بساطتها تبدو عامة في معناها: "ينبغي أن يكون تقليص خطر انقراض [البشر] نتيجة الذكاء الاصطناعي أولوية عالمية شأن المخاطر المجتمعية الأخرى من قبيل الجوائح والحرب النووية".

صدر البيان المذكور عن "مركز سلامة الذكاء الاصطناعي" غير الهادف للربح في سان فرانسيسكو، وقد وقعه الرؤساء التنفيذيون من "ديب مايند" DeepMind التابعة لشركة "غوغل" والمعنيون في شركة "أوبن أي آي" OpenAI المطورة لروبوت الدردشة "تشات جي بي تي" ChatGPT، إلى جانب شخصيات بارزة أخرى في بحوث الذكاء الاصطناعي.

حقيقة أن كثراً من الباحثين والمعنيين في الشركات الرائدة في مجال الذكاء الاصطناعي قد ذيلوا البيان بتوقيعهم تعني أنه لا بد من أن يلقى آذاناً صاغية، ولكنها تعني أيضاً أنه لا بد من أن يخضع لفحص من كثب: ما السبب وراء قولهم هذا، ولماذا الآن؟ ربما يزيل الجواب بعضاً من الرعب (ولكنه لن يمحيه كله).

صوغ بيان على هذه الشاكلة هو أقرب إلى حملة تسويقية عكسية [استراتيجية ترويجية تشجع المستهلكين على البحث من تلقاء نفسهم عن المنتج]، مفادها أن منتجاتنا فائقة القوة وجديدة تماماً، كما يقول البيان، إلى حد أنه يسعها أن تمحو العالم. غالبية المنتجات التكنولوجية تكتفي بأن تعدنا بتغيير حياتنا، ولكن [أنظمة الذكاء الاصطناعي المشار إليها في البيان] في يدها أن تكتب نهاية حياتنا. عليه، فإن ما يبدو أنه بيان حول الخطر المحدق بنا هو أيضاً بيان يسلط الضوء على ما تعتقد "غوغل" و"أوبن أي آي" وشركات أخرى كثيرة أنها ستوفره [تجعله متاحاً].

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

في الحقيقة، التحذير من أن الذكاء الاصطناعي ربما يكون مروعاً شأن الجوائح ينطوي أيضاً على تأثير عجيب يجعل مخاطر هذا الذكاء تبدو كأنها تنشأ بصورة طبيعية في العالم، تماماً كما تنشأ طفرة فيروسية، ولكن كل ذكاء اصطناعي خطر هو في الواقع نتاج خيارات تقصدت أن تختارها الجهات المطورة، وفي معظم الحالات، الشركات التي وقعت على البيان الجديد.

من الجمهور المستهدف من البيان؟ وإلى من تتوجه هذه الشركات بكلامها؟ قبل كل شيء، إنها الجهات المصنعة للمنتجات التي ربما تنهي الحياة على الأرض. يبدو الأمر كما لو أن لصاً يخيفك بأن إقفال منزلك ليست جيدة بما فيه الكفاية.

ليس الغرض مما تقدم ذكره القول إن التحذير غير حقيقي أو كاذب، أو أنه لا ينبغي أن يحظى بأي اهتمام، الخطر حقيقي جداً لا ريب، ولكنه يعني أنه الأجدر بنا أن نطرح مزيداً من الأسئلة على الجهات التي تحذرنا من [الذكاء الاصطناعي]، خصوصاً عندما تكون، ببساطة، هي نفسها أساساً الشركات التي ابتكرت هذه التكنولوجيا الكارثية كما يقال.

حتى الآن، لا يبدو أن الذكاء الاصطناعي يدمر العالم. ربما تشكل الكلمات المشؤومة في التصريح مفاجأة لمن استخدموا أنظمة الذكاء الاصطناعي المتاحة، من قبيل "تشات جي بي تي". وقد تكون المحادثات مع روبوت المحادثة هذا وغيره مضحكة ومدهشة ومبهجة، وأحياناً مخيفة، ولكن من الصعب أن يرى المرء كيف أن ما يبدو في معظمه ثرثرة يتفوه بها روبوت دردشة ذكي إنما غبي في مقدوره أن يوجه ضربة قاضية إلى العالم.

كذلك ربما يترك التصريح وقع المفاجأة لدى من قرأوا عن الطرق الكثيرة والبالغة الأهمية التي يستخدم فيها الذكاء الاصطناعي للمساعدة في إنقاذنا، وليس قتلنا. في الأسبوع الماضي، أعلن عدد من العلماء أنهم استعانوا بنظام ذكاء اصطناعي في تطوير مضاد حيوي جديد يقضي على أنواع من البكتيريا الخارقة، وليست هذه إلا البداية.

بيد أن صب التركيز على "خطر الانقراض" و"الخطر المجتمعي" اللذين يطرحهما الذكاء الاصطناعي، يسمح لمؤيديه بتحويل الاهتمام بعيداً من نقاط ضعف تشوب الذكاء الاصطناعي الموجود والأسئلة الأخلاقية المحيطة به على حد سواء. إزاء الحدة التي يتسم بها البيان، وإشارته إلى الحرب النووية والجوائح، نشعر كأننا في حال لا تختلف عن ارتعادنا خوفاً في ملاجئ تحمينا من القنابل أو أضرارنا إلى اعتماد إغلاق عام [حجر يحمينا من فيروس]. يقولون إنه "لا ملحدين في الخنادق" [الإيمان بقوة عليا يظهر في الشدائد]. وربما نقول أيضاً إنه لا مكان لعلماء أخلاقيات في ملاجئ القنابل النووية.

ولكن إذا كان الذكاء الاصطناعي أشبه بحرب نووية، فنحن أقرب إلى تأسيس مشروع مانهاتن لإنتاج الأسلحة النووية منه إلى الحرب الباردة. ليس علينا أن نختبئ كما لو أن الخطر هنا لا محالة ولا حيلة لنا سوى "التخفيف من وطأته"، ما زال أمامنا متسع من الوقت لتحديد شكل هذه التكنولوجيا، ومدى قوتها، ومن سيوجه دفة هذه القوة.

تصريحات على هذه الشاكلة تشكل انعكاساً لحقيقة أن الأنظمة الذكية التي في متناولنا اليوم بعيدة جداً من الأنظمة التي قد نمتلكها غداً: فالعمل الجاري في الشركات التي حذرتنا في شأن هذه المشكلات هائل، وأكثر قدرة على إحداث تغيير [الأذى] ولا يقتصر على دردشة مع روبوت. تأخذ كل هذه التحولات مجراها وراء الأبواب المغلقة، ويكتنفها الغموض والضجيج التسويقي، ولكن يمكننا أن نفهم أننا ربما نكون على بعد بضع سنوات فقط من أنظمة أشد قوة وأكثر شراً.

وبالفعل، يواجه العالم صعوبات جمة في التمييز بين الصور المزيفة ونظيرتها الحقيقية، وقريباً ربما يصير التمييز بين الأشخاص المزيفين والأشخاص الحقيقيين عسيراً جداً بسبب التطورات في الذكاء الاصطناعي. وفق بعض الفاعلين في هذا القطاع، لن تمر إلا سنوات قليلة قبل أن يتطور الذكاء الاصطناعي على نحو يجعل من هذه التحذيرات أقل إثارة للقلق نظرياً وأكثر رعباً عملياً.

وقد أصاب التصريح في تعيينه تلك المخاطر، وحثه على السعي إلى تفاديها، ولكن ما يصب في مصلحة هذه الشركات الموقعة هو أن تبدو تلك المخاطر محتومة ومن فعل الطبيعة، وكأنه لا يعود إليها خيار أن تبتكر هذه التكنولوجيا التي يعتريها قلق في شأنها وأن تستفيد منها.

يبقى أنه في يد تلك الشركات، وليس الذكاء الاصطناعي، القدرة على رسم وجه ذلك المستقبل، وما إذا كان سيؤدي إلى "انقراضنا".

© The Independent

اقرأ المزيد

المزيد من علوم