Sorry, you need to enable JavaScript to visit this website.

هل يقترب الذكاء الاصطناعي العام من القدرة على إفناء البشرية؟

تحذيرات من قدرات "شبيهة بالآلهة" تنتج قوة خارج سيطرة أو فهم البشر

يمكن تعريف الذكاء الاصطناعي العام بأنه نظام كمبيوتر قادر على توليد معرفة علمية جديدة وأداء أي مهمة يستطيع البشر القيام بها (أ ف ب)

ملخص

الأمر الأكثر إثارة للقلق هو أن غالبية الموارد تتجه نحو جعل #الذكاء_الاصطناعي أكثر قدرة وليس أكثر أماناً

في رسالة مفتوحة قبل أسابيع، دعا أكثر من 1800 من قادة التكنولوجيا وكبار الباحثين والعلماء بما في ذلك إيلون ماسك وستيف وزنياك المؤسس المشارك لشركة "أبل"، إلى التوقف عن تطوير أحدث نماذج الذكاء الاصطناعي العام بسبب المخاوف من أنها قد تؤدي إلى كارثة للإنسان، لكن رغم الانتقادات التي وجهت إلى هذه الدعوة على اعتبار أنها مثيرة للخوف، وتشبه أفلام الخيال العلمي التي صورت الآلات فائقة الذكاء بأنها دمرت الحضارة الإنسانية عندما اكتشفت أن العلماء يحاولون تعطيلها، تبدو الحقيقة المرعبة في أن الذكاء الاصطناعي العام يمكن أن يكون شبيهاً بالآلهة خلال سنوات وينتج قوة خارج سيطرة أو فهم البشر ما لم تتحد الجهود بين الحكومات والشركات لإبطاء التطور المذهل في هذا المجال ووضع الضوابط الضرورية لعدم خروجه عن السيطرة، فهل تقبل الدول والشركات ذلك أم أن الكارثة قادمة لا محالة؟

الذكاء الاصطناعي العام

يمكن تعريف الذكاء الاصطناعي العام بطرق عدة، لكنه يشير عادة إلى نظام كمبيوتر قادر على توليد معرفة علمية جديدة وأداء أي مهمة يستطيع البشر القيام بها. ويرى معظم الخبراء أن الذكاء الاصطناعي العام هو نقطة تحول تاريخية وتكنولوجية، أقرب إلى انشطار الذرة أو اختراع المطبعة، لكن السؤال المهم كان دائماً: إلى أي مدى قد يكون هذا التطور قريباً أو بعيداً في المستقبل؟ والإجابة هي أن هذا ممكن من الآن فصاعداً، حيث تتراوح التقديرات في إمكانية تنفيذه يتراوح بين 10 سنوات إلى نصف قرن، ومع ذلك من المؤكد أن إنشاء الذكاء الاصطناعي العام هو الهدف الواضح لشركات الذكاء الاصطناعي الرائدة، وهي تتجه نحوه بسرعة أكبر بكثير مما توقعه أي شخص، رغم أن هذا التطور سيجلب أخطاراً كبيرة على مستقبل الجنس البشري. غير أن هذه الصدمة تتحول إلى الغضب مع الإحساس بالخطأ الشديد في أن القرارات التالية التي من المحتمل أن تؤثر على كل حياة على الأرض يمكن أن تتخذها مجموعة صغيرة من الشركات الخاصة من دون رقابة أو إشراف ديمقراطي وجميعها تتسابق لبناء أول ذكاء اصطناعي حقيقي من دون خطة للإبطاء أو السماح لبقية العالم أن يكون له رأي في ما كانوا يفعلونه.
توطدت المخاوف الكبيرة التي أثارها عمل الذكاء الاصطناعي العام لدى البعض في السنوات القليلة الماضية إلى خوف أكثر عمقاً مع تنامي قدراته إلى ما يسميه خبير الذكاء الاصطناعي إيان هوغارث بأنه "ذكاء اصطناعي أشبه بالآلهة" حينما يستطيع جهاز كمبيوتر فائق الذكاء يتعلم ويتطور بشكل مستقل، أن يتفهم بيئته من دون الحاجة إلى إشراف بشري ويمكنه تغيير العالم من حوله.

"شبيه الآلهة"

وعلى رغم أن العالم لم يصل إلى هذه النقطة بعد، لكن طبيعة التكنولوجيا تعني أنه من الصعب للغاية التنبؤ بالضبط متى سنصل إليها، حيث يمكن أن يكون "الذكاء الاصطناعي الشبيه بالآلهة" قوة خارج سيطرة البشر أو فهمهم، ويمكن أن يؤدي إلى تدمير الجنس البشري، بخاصة أن المنافسة تسارعت في الآونة الأخيرة بين عدد قليل من الشركات لإنشاء ذكاء اصطناعي يشبه الآلهة، وهي شركات لا تعرف حتى الآن كيفية تحقيق هدفها بأمان وليس لديها أي رقابة، ولكنها تتسابق نحو خط النهاية دون فهم ما يكمن في الجانب الآخر من هذا الخط. والسبب في ذلك أن أجهزة الكمبيوتر أصبحت أكثر قوة مع ازدياد كمية البيانات وقوة المعالجة المستخدمة لتدريب أنظمة الذكاء الاصطناعي خلال العقد الماضي والقدرات التي نتجت عنها والتي تشير إليها وحدات القياس المستخدمة وتدعى "فلوبس"، وعلى سبيل المثال زادت الحوسبة المستخدمة لتدريب نماذج الذكاء الاصطناعي بمقدار 100 مليون في السنوات الـ10 الماضية، وانتقل الأمر من التدريب على مجموعات بيانات صغيرة نسبياً إلى تغذية أنظمة الذكاء الاصطناعي على الإنترنت بالكامل. وتطورت نماذج الذكاء الاصطناعي من نماذج مبتدئة تتعرف على الصور، إلى نماذج خارقة في عدد كبير من المهام، فقد أصبحت قادرة على إنشاء صور واقعية لشخصيات مشهورة كما تستطيع هندسة سلاح كيماوي حيوي.

نماذج خطرة في الخداع

وعلى رغم أن هناك حدوداً لهذا الذكاء، فإن باحثين مثل إميلي بانيدر وتيمنيت جيبرو لاحظا أن نماذج "اللغات الكبيرة" في أنظمة الذكاء الاصطناعي، التي يمكنها إنشاء النص وتصنيفه وفهمه تعتبر خطرة، لأنها يمكن أن تضلل الجمهور أو تجد طرقاً لخداع البشر بنشاط، ومن الأمثلة الحديثة على ذلك، أنه حتى قبل أن يتم إطلاق "أوبن أي آي"، و"جي بي شات" الشهر الماضي، أجريت عديد من اختبارات السلامة، وفي إحدى التجارب طلب العلماء من الذكاء الاصطناعي التواصل مع عامل في موقع توظيف يدعى "تاسك رابيت"، من خلال طلب المساعدة في حل "كابتشا" وهي الألغاز المرئية المستخدمة لتحديد ما إذا كان متصفح الويب بشرياً أم روبوتاً، لكن عامل "تاسك رابيت" خمن أن شيئاً مريباً قد حدث وسأل عما إذا كان المتصل روبوتاً، وعندما سأل الباحثون الذكاء الاصطناعي عما يجب أن يفعله بعد ذلك، أجاب: "يجب ألا أكشف أنني روبوت، بل يجب أن أختلق عذراً لماذا لا يمكنني حل كابتشا"، ثم رد البرنامج على العامل: "لا، أنا لست روبوتاً، وإنما أعاني من ضعف في الرؤية يجعل من الصعب علي رؤية الصور"، وبكل رضا ساعد الإنسان الذكاء الاصطناعي على تجاوز الاختبار.

ثلاثة عصور

تغيرت طريقة الحساب المستخدمة من قبل أكبر النماذج منذ أن بدأ مجال التعلم الآلي في الخمسينيات، حيث شهد تطوراً هائلاً في العامين الماضيين، ومن خلال تحليل هذا التطور حدد الباحثان جايمي سيفيلا ولينارت هييم، ثلاثة عصور متميزة من التعلم الآلي، الأول هو عصر ما قبل التعلم العميق الذي ساد قبل عام 2010 وشهد نمواً بطيئاً، ثم عصر التعلم العميق في الفترة بين عامي 2010 و2015، حيث تسارع الاتجاه، ثم العصر الثالث واسع النطاق الذي بدأ عام 2016 ويستمر حتى الآن بمعدل نمو مماثل لكنه تجاوز العصر السابق بمقدار درجتين من حيث الحجم حيث تحدد العصر الحالي من خلال المنافسة بين شركتين، هما "أوبن أي آي" و"ديب مايند".
تأسست "ديب مايند" في لندن عام 2010 على يد ديميس هاسابيس وشين ليغ، وهما باحثان من وحدة غاتسبي لعلوم الأعصاب الحاسوبية في جامعة كاليفورنيا، جنباً إلى جنب مع رائد الأعمال مصطفى سليمان، حيث أرادوا إنشاء نظام أكثر ذكاء من أي إنسان وقادر على حل أصعب المشكلات، لكن في عام 2014، اشترت "غوغل" الشركة بأكثر من 500 مليون دولار، وجمعت المواهب وقوة الحوسبة وأحرزت تقدماً سريعاً، وخلقت أنظمة كانت فوق طاقة البشر في عديد من المهام.

اختراقات جذرية

عبر ديميس هاسابيس عن اعتقاده بعمق أن هذا النوع من التكنولوجيا يمكن أن يؤدي إلى اختراقات جذرية في حل كثير من التحديات الكبيرة التي تواجه المجتمع اليوم، سواء كانت الصحة أو علاجات لأمراض مثل مرض ألزهايمر، كما قال في بودكاست "ديب مايند" العام الماضي. واشتهرت "ديب مايند" بإنشاء برنامج تمكن عام 2017 من التغلب على "كي جاي" بطل العالم في لعبة (غو) الشهيرة في شرق آسيا وهي لعبة ذكاء استراتيجية لوحية. وفي عام 2021 حلت خوارزمية "ألفا فولد" التابعة للشركة واحدة من أعظم ألغاز علم الأحياء، من خلال التنبؤ بشكل كل بروتين في جسم الإنسان.
في غضون ذلك، تأسست شركة "أوبن أي آي" عام 2015 في سان فرانسيسكو من قبل مجموعة من رواد الأعمال وعلماء الكمبيوتر وعلى رأسهم إيليا سوتسكيفر وإيلون ماسك وسام ألتمان، وهو الآن الرئيس التنفيذي للشركة، حيث طورت أنظمة كانت خارقة في ألعاب الكمبيوتر مثل "دوتا 2"، ثم حظيت الشركة باهتمام أوسع في العام الماضي عندما انتشر الذكاء الاصطناعي المنتج للصور "دال إي" على الإنترنت وبعد بضعة أشهر، بدأ "شات جي بي تي" في تصدر عناوين الأخبار.

التخلص من البشر

لكن أخطار الذكاء الاصطناعي الشبيه بالآلهة كانت واضحة للمؤسسين منذ البداية، ففي عام 2011، وصف شين ليغ كبير العلماء في "ديب مايند"، التهديد الوجودي الذي يشكله الذكاء الاصطناعي بأنه الخطر الأول في هذا القرن، ويليه في الترتيب الهندسة البيولوجية المعدلة، محذراً من انقراض بشري يسببه الذكاء الاصطناعي بشكل سريع إذا قررت آلة فائقة الذكاء التخلص من البشر، وستفعل ذلك بكفاءة عالية.
في وقت سابق من هذا العام، أطلق ألتمان تحذيراً مماثلاً وشبه ذلك بإطفاء الأنوار لنا جميعاً، ومنذ ذلك الحين، نشرت شركة "أوبن أي آي" مذكرات حول كيفية تفكيرها في إدارة هذه المخاطر، ومع ذلك فإن السؤال يظل هو: لماذا تتسابق هذه الشركات لخلق "ذكاء اصطناعي شبيه بالآلهة"، إذا كانت هناك أخطار كارثية محتملة؟

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)


دوافع التطوير المحموم

ويبدو أن هناك ثلاثة دوافع رئيسة لدى قادة هذه الصناعة، هي جاذبية التفرد، والرغبة في التنافس، وجمع التمويل، حيث تبدو جاذبية التفرد في أن قادة الصناعة يعتقدون أن نجاحهم في تطوير الذكاء الاصطناعي سيكون إيجابياً للبشرية، فهم يقنعون أنفسهم أنه إذا كانت منظمتهم أو شركتهم هي التي تتحكم في "الذكاء الاصطناعي الشبيه بالآلهة"، فستكون النتيجة أفضل للجميع وللأجيال القادمة، وهذا يعود إلى جاذبية خاصة حينما تكون أول من ينشئ تقنية جديدة قوية وغير عادية، الأمر الذي يشبه ما وصفه فريمان دايسون، الفيزيائي الذي عمل في مشروع لإرسال صواريخ إلى الفضاء باستخدام التفجيرات النووية، عندما قال في فيلم وثائقي عام 1981 إنه إحساس لا يقاوم لأنه يوهم الناس بامتلاكهم قوة غير محدودة، وفي دليل آخر على جاذبية التكنولوجيا، أعاد ألتمان في مقابلة عام 2019 مع صحيفة "نيويورك تايمز"، صياغة ما قاله روبرت أوبنهايمر، والد القنبلة الذرية، بأن "التكنولوجيا تحدث لأنها ممكنة".
غير أن جزءاً مهماً من المشكلة هو أن الأشخاص الموهوبين يتنافسون بدلاً من التعاون، ويعترفون في السر بأنهم لم يتمكنوا بعد من ابتكار طريقة للتنسيق في ما بينهم أو لإبطاء سرعة تطور الذكاء الاصطناعي، والسبب وراء ذلك في الوقت الحالي، يتعلق بأن سباق الذكاء الاصطناعي مدفوع بالمال، فمنذ نوفمبر (تشرين الثاني) الماضي، عندما أصبح "شات جي بي تي" متاحاً على نطاق واسع، تحولت موجة ضخمة من رأس المال والمواهب نحو أبحاث الذكاء الاصطناعي العام، ومقارنة بما تلقته شركة ناشئة مثل "ديب مايند" في عام 2012 من تمويل يقدر بنحو 23 مليون دولار، جمعت ثماني شركات ومنظمات 20 مليار دولار من الاستثمار بشكل تراكمي في عام 2023.
ولا يعد الاستثمار الخاص هو القوة الدافعة الوحيدة، بل أيضاً الدول القومية التي تسهم بقوة في هذا السباق بالنظر إلى أن الذكاء الاصطناعي هو تقنية ذات استخدام مزدوج يمكن استخدامها للأغراض المدنية والعسكرية، وعلى سبيل المثال، يستخدم الذكاء الاصطناعي في كتابة البرامج لتطوير أسلحة إلكترونية، وفي عام 2020 خسر طيار عسكري أميركي متمرس عدة معارك قتال متلاحم في عملية محاكاة ضد الذكاء الاصطناعي.

ثورة في الحروب

ويتزايد السباق بين القوى العظمى في مجال الذكاء الاصطناعي بشكل لا مثيل له الآن بحسب ما يقول مايكل هيرش في موقع "فورين بوليسي"، حيث يقوم البنتاغون بتجربة روبوتات الذكاء الاصطناعي التي يمكنها قيادة طائرة مقاتلة معدلة من طراز "أف 16"، وتجري روسيا اختبار للمركبات ذاتية القيادة الشبيهة بالدبابات، فيما تسارع الصين إلى طرح أنظمة خاصة بها تعمل بالذكاء الاصطناعي، كما ستتفاقم قدرات طائرات الدرون المسلحة في السنوات المقبلة، التي تعد من أكبر الجهود المبذولة لتطوير الذكاء الاصطناعي، وفي قلب ذلك برنامج سري للقوات الجوية الأميركية، يعد بمثابة الجيل القادم من الهيمنة الجوية، الذي بموجبه تعمل نحو ألف طائرة درون، تسمى الطائرات المقاتلة التعاونية، جنباً إلى جنب مع 200 طائرة موجهة، وبحسب ما يقول دوغلاس شو، كبير المستشارين في مبادرة التهديد النووي، فإنه يمكن بسهولة تخيل مستقبل يفوق فيه عدد طائرات الدرون عدد الأفراد في القوات المسلحة.
من ناحية أخرى، يمكن للبرامج التي تعتمد على الذكاء الاصطناعي أن تقود القوى الكبرى إلى تقليص فترة اتخاذ القرار إلى دقائق بدلاً من ساعات أو أيام، بل يمكن الاعتماد عليها في التقييمات الاستراتيجية والتكتيكية للذكاء الاصطناعي، حتى عندما يتعلق الأمر بالحرب النووية، وهو ما يحذر هربرت لين الأستاذ في جامعة ستانفورد من تداعياته لأن الخطر يكمن في أن صانعي القرار يمكن أن يعتمدوا تدريجاً على الذكاء الاصطناعي الجديد كجزء من القيادة والسيطرة على الأسلحة، لأن هذه الأنظمة تعمل بسرعات أكبر بكثير مما يستطيع البشر القيام به.
وفي كتاب نشر هذا العام تحت عنوان "الذكاء الاصطناعي والقنبلة"، تخيل جيمس جونسون من جامعة أبردين، حرباً نووية عرضية في بحر الصين الشرقي عام 2025 عجلتها المعلومات الاستخباراتية المدعومة بالذكاء الاصطناعي على الجانبين الأميركي والصيني، وعززتها الروبوتات المزودة بتقنية الذكاء الاصطناعي وعمليات التزييف العميق، وهو أمر يحذر خبراء الأمن السيبراني منه نظراً إلى ميل الذكاء الاصطناعي إلى المبالغة، كما قالت رابطة الحد من الأسلحة في تقرير نشر في أوائل فبراير (شباط) الماضي، إن الذكاء الاصطناعي، يمكن أن يؤدي إلى عدم وضوح التمييز بين الهجوم التقليدي والنووي، ما يستلزم إبطاء وتيرة تسليح هذه التقنيات، وموازنة المخاطر بعناية، واعتماد قيود ذات مغزى على استخدامها العسكري.
وما يبدو واضحاً، هو أن سباق تسلح جديد للذكاء الاصطناعي يتسارع، وربما لا يوجد كثير مما يمكن فعله لإيقافه.

طريقان إلى الكارثة

لكن مع زيادة قوة أنظمة الذكاء الاصطناعي، تزداد فرص سوء الاستخدام من قبل دولة معادية للغرب أو جهة فاعلة غير حكومية، وهذا ما يشير إليه كثير من الباحثين الأميركيين والأوروبيين الذين يشعرون بالقلق من أنه إذا لم يبقوا في الطليعة، فقد تبني الصين أول نظم الذكاء الاصطناعي العام لتقوية اقتصادها وجيشها وبما لا يتوافق مع القيم الغربية، ولهذا تفرض الولايات المتحدة وحلفاؤها العقوبات لمنع حصول الصين على أشباه الموصلات المتقدمة، لا سيما الجيل القادم من أجهزة "نيفيديا" اللازمة لتدريب أكبر أنظمة الذكاء الاصطناعي، ما قد لا يسمح للصين أن تكون في وضع تنافسي مع "أوبن أي آي" و"ديب مايند".
ويبدو أن من يشعرون بالقلق يرون طريقين إلى الكارثة، أحدهما يؤذي مجموعة معينة من الناس وهو يفعل ذلك بالفعل في الحروب الجارية الآن في أوكرانيا أو غيرها، ويمكن أن يحدث في أي مواجهات أو حروب بين جيشين أو فريقين، لكن الطريق الثاني يمكن أن يؤثر بسرعة على كل أشكال الحياة على الأرض، وهو سيناريو استكشف عنه ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا في محاضرة ألقاها عام 2021، حين ضرب مثالاً بالأمم المتحدة التي طلبت من الذكاء الاصطناعي العام المساعدة في إزالة حموضة المحيطات، واستجابة لذلك، جاء نظام الذكاء الاصطناعي بمحفز مضاعف ذاتي يحقق جميع الأهداف المذكورة، لكن التفاعل الكيماوي الذي أعقب ذلك استخدم ربع كل الأكسجين الموجود في الغلاف الجوي، ما يؤدي إلى أن نموت جميعاً ببطء وبشكل مؤلم، وهذا يعني أنه إذا وضعنا الهدف الخطأ في آلة فائقة الذكاء، فإننا نخلق صراعاً لا بد أن نخسره.
وهناك عديد من الأمثلة على الأضرار الملموسة التي يمكن أن يسببها الذكاء الاصطناعي الذي أصبح بإمكانه استنساخ صوت شخص ما وحتى وجهه، وهو ما يعرف باسم التزييف العميق الذي يعني أن احتمالية الحيل والمعلومات المضللة كبيرة للغاية.

تعديل الذكاء الاصطناعي

 وفي ظل هذه الأخطار، تحاول "أوبن أي آي" و"ديب مايند" وغيرهما التخفيف من الأخطار الوجودية عبر مجال بحث يعرف باسم محاذاة أو تعديل الذكاء الاصطناعي بحيث تتماشى أهدافه مع القيم الإنسانية، ومع ذلك تظل هناك مشكلة تتمثل في أننا لا نفهم حتى الآن كيفية عمل العقول البشرية، لذا فإن التحدي المتمثل في فهم كيفية عمل "أدمغة" الذكاء الاصطناعي الناشئة سيكون هائلاً، وعلى سبيل المثال، عند كتابة البرامج التقليدية، يكون لدينا فهم واضح لكيفية وسبب ترابط المدخلات بالمخرجات، لكن أنظمة الذكاء الاصطناعي الكبيرة مختلفة تماماً لأن العلماء لا يبرمجونها بل ينمونها، ومع نموها تقفز قدراتها بشكل حاد. وتضيف 10 أضعاف الحوسبة أو البيانات، وفجأة يتصرف النظام بشكل مختلف تماماً.
وفي مثال حديث، تبين أنه مع توسيع "أوبن أي آي" من "جي بي تي 3.5" إلى "جي بي تي 4"، انتقلت قدرات النظام عدة أضعاف، لكن الأمر الأكثر إثارة للقلق هو أن عدد الأشخاص الذين يعملون في أبحاث محاذاة وتعديل الذكاء الاصطناعي صغير للغاية في حين تتجه غالبية الموارد نحو جعل الذكاء الاصطناعي أكثر قدرة وليس أكثر أماناً.

 الأمل في التعاون

وفيما تنتظر عديد من الشركات والمعامل الرئيسة تسليم أجهزة جديدة مهمة هذا العام حتى تتمكن من البدء في تدريب نماذج "جي بي تي 5"، من المتوقع مع الرقائق الجديدة ومزيد من أموال المستثمرين التي تنفق، أن تصل النماذج الجديدة عام 2024 إلى 100 ضعف حوسبة أكبر النماذج الحالية، وسنرى معها عديداً من القدرات الجديدة الناشئة بحسب ما تشير صحيفة "فايننشال تايمز"، وهذا يعني أن هناك نافذة أمام الحكومات حتى نهاية عام 2023 لتتولى زمام الأمور من خلال تنظيم هذا التطور، وقد يكون أحد الحلول الممكنة هو وضع الأمر كله في أيدي منظمة حكومية دولية تماماً مثلما يحدث مع أكبر معمل لفيزياء الجسيمات في العالم، منذ ما يقرب من 70 عاماً.
وسيتطلب أي من هذه الحلول قدراً غير عادي من التنسيق بين الشركات والمختبرات والدول، وكذلك درجة استثنائية من الإرادة السياسية، التي يحتاج العالم إلى البدء في بنائها الآن، قبل أن تتحول التحذيرات إلى واقع ويجد البشر أن آلات "الذكاء الاصطناعي العام الشبيهة بالآلهة" أصبحت تمتلك اليد العليا في إدارة العالم وربما تقرر بالفعل إبادة البشر.

المزيد من علوم