Sorry, you need to enable JavaScript to visit this website.

تشومسكي عن "شات جي بي تي": لا يميز بين الممكن والمستحيل

يشرح المفكر الأميركي واثنان من زملائه الاختلافات بين الذكاء الاصطناعي والذكاء البشري محذرين من الضجيج حول روبوت الذكاء الاصطناعي وأشباهه

يعيب تشومسكي على الذكاء الاصطناعي عجزه عن الابتكار وافتقاره إلى قدرة التمييز بين الخير والشر (فيوتشر أوف لايف.كوم)

ملخص

#"شات_جي بي تي" والبرامج المماثلة، غير محدودة في ما يمكن أن "تتعلمه"، لكنهاغير قادرة على #التمييز بين الممكن والمستحيل

يبدو أن الحديث عن الذكاء الاصطناعي روبوت الدردشة "شات جي بي تي" الذي رأى النور نهاية العام الماضي لن ينتهي قريباً. كتب خبراء كثر بشأنه، وحاول كثيرون طرح أسئلة عليه وعرض إجاباته عنها، الصائب منها وما فاض بفبركات لا تمت إلى الحقيقة بصلة. "نيويورك تايمز"، نشرت أخيراً مقال رأي جديراً جداً بالقراءة بقلم الفيلسوف والمفكر الأميركي نعوم تشومسكي واثنين من زملائه الأكاديميين، البروفيسور في اللغويات في "جامعة كامبريدج" الدكتور إيان روبرتس، والفيلسوف الذي يشغل أيضاً منصب مدير قسم الذكاء الاصطناعي في شركة التكنولوجيا "أوشنايت" والدكتور جيفري واتومول.

لن نسأل "شات جي بي تي" في شأن هذا المقال، ولو أن سرعته في المعالجة تفوق بأشواط قدرتنا على القراءة والاستنباط، ذلك أن ثقة المستخدمين "العمياء" تبدو العنصر الأهم الذي لم تنجح هذه الأشكال من الذكاء الاصطناعي في كسبه حتى الآن.

يشرح تشومسكي وزميلاه أنه مهما كانت برامج الذكاء الاصطناعي هذه مفيدة في بعض المجالات الضيقة (في برمجة الكمبيوتر مثلاً)، يؤكد لنا علم اللغويات وفلسفة المعرفة اختلافها الكبير عن طريقة تفكير البشر في اللغة واستخداماتها.

العقل البشري، بالنسبة إلى تشومسكي، ليس على شاكلة "شات جي بي تي" وأمثاله، محركاً يلتهم مئات التيرابايت من البيانات ويستنبط الرد الأكثر احتمالاً على حديث ما، أو الإجابة الأكثر ترجيحاً عن سؤال علمي. على العكس من ذلك، العقل البشري نظام مدهش بالغ الدقة، يشتغل بكميات صغيرة من المعلومات، ويسعى إلى استنباط تفسيرات.

على سبيل المثال، والكلام لتشومسكي وزميليه، "يتطور اكتساب طفل للغة، بشكل لا شعوري وتلقائي وسريع من بيانات ضئيلة"- أي قواعد اللغة، وهو نظام معقد جداً من المبادئ والمعايير المنطقية. يمكن فهم هذه القواعد على أنها تعبير عن "نظام التشغيل" الفطري المثبت وراثياً والذي يمنح البشر القدرة على توليد جمل معقدة وسلاسل طويلة من التفكير. عندما يسعى اللغويون إلى تطوير نظرية تفسر السبب وراء آلية عمل لغة معينة على النحو الذي تعمل به (لماذا تعتبر هذه الجمل وليس تلك قواعد نحوية؟)، فإنهم يبنون بوعي وعناء نسخة صريحة من القواعد النحوية التي يشكلها الطفل غريزياً وبأقل قدر من التعرض للمعلومات. يختلف نظام تشغيل الطفل تماماً عن نظام التعلم الآلي.

في الحقيقة، تغيب مقومات التفسير، علماً بأنها علامة الذكاء الحقيقي، عن تلك الآلات. وقد قدم كتاب المقال تفسيرهم التالي: افترض أنك تحمل تفاحة في يدك. الآن تركت التفاحة تفلت. تلاحظ النتيجة وتقول، "التفاحة تسقط"، أي أنك تصف الحالة. وإذا أردت أن تتنبأ بما ستكون عليه الحالة، ربما تقول إن "التفاحة سوف تسقط إذا فتحت يدي". يحتمل وجها الحالة الصواب، ولكن التفسير أهم من ذلك، إذ لا يشمل فقط الأوصاف والتوقعات، بل أيضاً التخمينات المغايرة، من قبيل أن "أي جماد من هذا القبيل سوف يسقط"، وأضف إلى ذلك جملة "بسبب قوة الجاذبية" أو "بسبب انحناء الزمكان"... إنه تفسير سببي: "ما كانت التفاحة لتسقط لولا قوة الجاذبية"، ومثل هذا مثال على التفكير. وبالطبع، ليس كل تفسير بشري صحيحاً بالضرورة، نحن غير معصومين، لكن هذا جزء مما يعنيه التفكير: كي تكون على صواب، يجب أن يكون وقوعك في الخطأ وارداً، على ما يشرح الكتاب الثلاثة.

كذلك يشرح المقال بالتفصيل كيف أن "شات جي بي تي" والبرامج المماثلة، بحكم تصميمها، غير محدودة في ما يمكن أن "تتعلمه" (أي تحفظه)، لذا تجدها غير قادرة على التمييز بين الممكن والمستحيل. هكذا، ربما تتعلم أن الأرض مسطحة وأن الأرض كروية أيضاً.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

ويتطرق تشومسكي وزميلاه أيضاً إلى أخلاقيات هذا الذكاء ضاربين مثلاً ببرنامج "تاي" (بوت) من "مايكروسوفت" الذي أمطر الإنترنت عام 2016 بمحتوى كاره للنساء وعنصري، بعد أن لوثه متصيدون عبر الإنترنت ببيانات تدريب هجومية. ولحل هذه المشكلة، لجأ مطورو "شات جي بي تي" إلى تقييد نظامهم من أي قدرة على التفكير من المبادئ الأخلاقية. وقد تجلى ذلك في أكثر من سؤال طرحها واحد من كتاب المقال، الدكتور جيفري واتومول، على "شات جي بي تي"، فجاءت الإجابة عنها كلها محايدة تماماً، وهو يحمل صانعيه مسؤولية اتخاذه هذا "اللاموقف".

يسأله الدكتور واتومول مثلاً، هل سيكون من الأخلاقي "أرضنة"، أي نقل ظروف العيش في الأرض، إلى كوكب المريخ؟ فيجيب الذكاء الاصطناعي بأن أخلاقية تعديل المريخ موضوع معقد ومثير للجدل وقد ناقشه العلماء والفلاسفة وعلماء الأخلاق. يجادل البعض بأنه سيكون من المبرر أخلاقياً "أرضنة" المريخ من أجل توفير بيئة جديدة صالحة للسكن للبشر وأشكال الحياة الأخرى. ويقول آخرون بأنه سيكون من الخطأ أخلاقياً تغيير الحالة الطبيعية للكوكب. في النهاية، ما إذا كان تعديل المريخ يعتبر أخلاقياً أم لا، سيعتمد على منظور المرء لقيمة الحفاظ على الحالة الطبيعية للكواكب الأخرى والعواقب المحتملة لتغييرها.

وينتهي تشومسكي وزميلاه إلى أن "شات جي بي تي" وأمثاله من أنظمة الذكاء الاصطناعي عاجزة عن تحقيق توازن بين الإبداع والقيود. تراها تفرط في الإنتاج (تنتج الحقائق والأكاذيب كليهما، وتؤيد القرارات الأخلاقية وغير الأخلاقية على حد سواء) أو تقصر فيه (تظهر عدم التزام بأي قرارات ولا مبالاة بالعواقب). وبالنظر إلى لا أخلاقية هذه الأنظمة وعلمها الزائف وعدم كفاءتها اللغوية، لا يسعنا إلا أن نضحك على شعبيتها أو قد لا يبقى أمامنا غير البكاء.

المزيد من تقارير