Sorry, you need to enable JavaScript to visit this website.

"OpenAI"... الذكاء الاصطناعي بين الصالح العام وتحفيز الاستثمار

تساؤلات متزايدة حول برامج الخوارزميات المتقدمة ومدى توازنها بين المعرفة والسلامة وتجارة البيانات

 يحذر متخصصون من تداعيات احتكار النماذج المتقدمة والبيانات الحساسة من قبل شركة واحدة (رويترز)

ملخص

أعلنت وزارة الدفاع الأميركية (البنتاغون) في الـ18 من يونيو (حزيران) الجاري توقيع عقد بقيمة 200 مليون دولار مع شركة "OpenAI"، لتطوير أدوات ذكاء اصطناعي تُستخدم في الدفاع السيبراني وتحسين الكفاءة الإدارية والعسكرية.

سعت "OpenAI" منذ بداياتها إلى تطوير الذكاء الاصطناعي بما يخدم البشرية جمعاء، واضعة الصالح العام في صميم أهدافها، غير أن رحلتها نحو بناء "الذكاء الاصطناعي العام" قادتها لاحقاً إلى تبني نموذج ربحي محدود، أثار نقاشاً واسعاً حول توازن الابتكار والمسؤولية.

أُسست الشركة في الـ15 من ديسمبر (كانون الأول) 2015 على يد سام ألتمان وإيلون ماسك ومجموعة من الشركاء، من بينهم شركتا "أمازون ويب سيرفيسز" و"إنفوسيس" الهندية. ووفقاً للميثاق التأسيسي فإن مهمة "OpenAI" الأساسية هي "ضمان أن يستفيد جميع البشر من الذكاء الاصطناعي العام (AGI)".

وتشير الشركة في وثائقها الرسمية إلى أن "من الصعب تخيل حجم الفائدة التي قد يجلبها الذكاء الاصطناعي على مستوى الإنسان للمجتمع"، مؤكدة في الوقت ذاته أن "من الصعب بالقدر نفسه إدراك حجم الضرر الذي قد يلحقه بالمجتمع إذا بُني أو استُخدم بطريقة خاطئة". وتضيف "نظراً إلى التاريخ المفاجئ لتطور الذكاء الاصطناعي، فمن الصعب التنبؤ بموعد اقترابه من مستوى الذكاء البشري. وعندما يحدث ذلك سيكون من المهم وجود مؤسسة بحثية رائدة تضع الصالح العام فوق مصالحها الذاتية".

وفي هذا السياق، توقع الرئيس المشارك سام ألتمان أن المشروع "سيستغرق عقوداً"، وقد "يتجاوز في نهاية المطاف الذكاء البشري".

عقد بقيمة 200 مليون

أعلنت وزارة الدفاع الأميركية (البنتاغون) في الـ18 من يونيو (حزيران) الجاري توقيع عقد بقيمة 200 مليون دولار مع شركة "OpenAI"، لتطوير أدوات ذكاء اصطناعي تُستخدم في الدفاع السيبراني وتحسين الكفاءة الإدارية والعسكرية.

وذكر بيان الوزارة أن "OpenAI" ستطوّر نماذج أولية لمعالجة تحديات الأمن القومي، في حين أوضحت الشركة أن هذا التعاون يأتي ضمن مبادرة جديدة لإتاحة نماذجها للحكومة الأميركية، مع التزام عدم استخدامها في تطوير الأسلحة أو الإضرار بالأشخاص.

الصفقة أعادت الجدل في شأن تعديل "OpenAI" لشروط الاستخدام العام الماضي، وإزالة الحظر على التطبيقات العسكرية، مما أثار انتقادات داخل الأوساط الأكاديمية.

وأشارت الشركة إلى أن أدواتها ستُسهم أيضاً في تحسين خدمات الرعاية الصحية العسكرية، وتعزيز الدفاع السيبراني الاستباقي.

وتأتي هذه الخطوة بعد شراكة مماثلة أبرمتها "OpenAI" مع شركة "Anduril" لتطوير تقنيات مواجهة الطائرات المسيّرة، في وقت تخفف فيه شركات مثل "Anthropic" و"Google" و"Meta" قيودها على الاستخدامات العسكرية للذكاء الاصطناعي.

تحول تدريجي نحو الربحية

في عام 2019، أعلنت "OpenAI" تحولها إلى نموذج "ربحي محدود العائد" (Capped-Profit)، يحدد سقف أرباح المستثمرين عند 100 ضعف قيمة استثماراتهم الأصلية. ووفقاً للشركة، فإن هذا النموذج "يتيح جذب الاستثمارات من صناديق رأس المال الجريء بصورة قانونية، كذلك يسمح بمنح الموظفين حصصاً في الشركة".

وفي إطار هذا التحول، أطلقت "OpenAI" شراكة استراتيجية مع شركة "مايكروسوفت" شملت استثماراً بقيمة مليار دولار، لكن ألتمان أشار لاحقاً إلى أن هذا المبلغ "قد لا يكون كافياً"، مضيفاً أن المشروع "قد يتطلب رأس مال يفوق ما جمعته أي منظمة غير ربحية في التاريخ".

وعلى رغم الانتقال إلى نموذج ربحي، أبقت الشركة على بنيتها القانونية لضمان التزامها الرسالة العامة، إذ تعد "OpenAI, Inc" – وهي المنظمة غير الربحية – المساهم المسيطر في الشركة التجارية "OpenAI Global, LLC"، مما يمنحها سلطة قانونية للحفاظ على أهداف الميثاق غير الربحي.

 

 

تحول غير ناضج أم تمويه استثماري؟

يثير نموذج "الربح المحدد" الذي تتبناه "OpenAI" تساؤلات متزايدة في الأوساط التقنية والأكاديمية، حول ما إذا كان بالفعل يحد من جشع المستثمرين كما تدعي الشركة، أم أنه مجرد غلاف تسويقي يتيح تحقيق أرباح ضخمة تصل إلى 100 ضعف قيمة الاستثمار الأصلي، من دون رقابة حقيقية أو إفصاح شفاف أمام الرأي العام.

وتعقد البنية المؤسسية للشركة هذا الجدل، إذ تتولى المنظمة غير الربحية "OpenAI, Inc" السيطرة الكاملة على الكيان الربحي "OpenAI Global, LLC"، في صيغة إدارية هجينة يرى بعض المتابعين أنها تفتقر إلى الوضوح وتفتح الباب أمام تضارب المصالح. وقد زادت الشكوك مع التغيرات التي طرأت على مجلس الإدارة، إذ استبدلت ببعض الشخصيات العلمية وجوهاً ذات خلفيات تجارية واستثمارية، مما أثار مخاوف في شأن تغير الأولويات داخل المؤسسة.

كذلك يحذر متخصصون من تداعيات احتكار النماذج المتقدمة والبيانات الحساسة من قبل شركة واحدة، مما قد يقوض مبدأ "الابتكار المفتوح" الذي نشأت عليه "OpenAI"، ويحد من فرص الباحثين والأكاديميين المستقلين في الوصول إلى أدوات الذكاء الاصطناعي المتطورة. وهو ما يفتح الباب أمام تساؤلات أوسع: من يمثل المستخدمين أو الصالح العام داخل منظومة باتت تدار بقرارات مغلقة ومصالح استثمارية متسارعة؟

وفي هذا السياق، يوضح أستاذ علوم الحاسوب والذكاء الاصطناعي في جامعة الكويت، محمد علي الملا، أن استخدام "OpenAI" للبيانات العامة المتاحة على الإنترنت لتدريب نماذجها، ثم تحويل هذه النماذج إلى منتجات تجارية، يثير إشكالات متعددة "أخلاقية وقانونية وتقنية – اقتصادية"، على حد وصفه.

ويضيف الملا "أخلاقياً، يعد استخدام المحتوى الإبداعي أو الابتكاري، مثل المقالات والصور والبرمجيات المفتوحة المصدر، من دون إذن أو تعويض، نوعاً من الاستغلال غير العادل. أما من الناحية القانونية فلا تزال معظم التشريعات حول العالم غير محدثة بما يتوافق مع تطورات الذكاء الاصطناعي، مع الإشارة إلى وجود فارق قانوني دقيق بين مجرد الاطلاع على المحتوى واستخدامه لإنتاج بديل ربحي مغلق".

ويتابع قائلاً "من الجانب التقني – الاقتصادي يمكن النظر إلى المسألة بصورة أكثر مرونة إذا استخدمت البيانات العامة لتطوير أدوات تخدم المصلحة العامة، مثل إتاحة نماذج مجانية من ChatGPT، أو دعم أبحاث غير ربحية، كذلك يمكن تقنين هذا الاستخدام من خلال تعويض منشئي المحتوى عبر اتفاقات أو تراخيص عادلة تضمن حقوقهم".

تحذير من "احتكار العقول" في عصر الذكاء الاصطناعي

يحذر أستاذ الذكاء الاصطناعي بجامعة الكويت، محمد الملا، من تداعيات احتكار نماذج الذكاء الاصطناعي المتقدمة من قبل عدد محدود من الشركات الكبرى مثل "OpenAI" و"غوغل" و"Anthropic"، معتبراً أن استمرار هذا التوجه سيجعل الابتكار موجهاً لمصالح السوق على حساب الاستخدامات العامة، كتحسين التعليم في الدول الفقيرة أو دعم القضايا البيئية.

ويؤكد الملا أن ما نشهده اليوم يتجاوز احتكار البيانات نحو "احتكار العقول"، إذ باتت هذه النماذج قادرة على إنتاج المعرفة وتقديم الاستشارات وكتابة الأكواد وتحليل البيانات المالية، مما يمنح الشركات المالكة لها سلطة شبه شاملة على القرار الفردي والمجتمعي. ويضيف "نحن أمام جيل جديد من الإمبراطوريات التقنية، لكن الأخطر أنها لا تسيطر على وقتك أو سلوكك فحسب، بل على طريقة تفكيرك".

ويختتم بالقول إن إدارة الذكاء الاصطناعي يجب أن تعامل كمنفعة عامة لا كسلعة تجارية، محذراً من "استعمار معرفي" قد يفرض إذا لم تفتح هذه النماذج بصورة تدريجية ومدروسة وتحت رقابة عالمية.

أزمة قيادة وتمويل محفوفة بالتحديات

في نوفمبر (تشرين الثاني) 2023 واجهت "OpenAI" واحدة من كبرى أزماتها الإدارية، حين قرر مجلس الإدارة إقالة الرئيس التنفيذي سام ألتمان بدعوى "فقدان الثقة"، مما أدى إلى موجة استقالات شملت كبار الباحثين، وتهديد نحو 95 في المئة من الموظفين بالاستقالة والانضمام إلى "مايكروسوفت" ما لم يعد ألتمان إلى منصبه. وتحت ضغط داخلي وخارجي عاد ألتمان لاحقاً إلى موقعه، مع إعادة تشكيل مجلس الإدارة. وأشارت تقارير لاحقة إلى أن الخلافات تمحورت حول مشروع سري يعمل على تطوير قدرات الذكاء الاصطناعي في مجالي المنطق والرياضيات، مما أثار مخاوف تتعلق بالسلامة.

 

في موازاة ذلك تواجه الشركة تحديات تمويلية كبيرة في ظل كلف تشغيلية مرتفعة تشمل بناء مراكز بيانات وتأمين خبرات تقنية متقدمة. ويبدو أن الاستمرار بنموذج غير ربحي لم يعد خياراً واقعياً، في وقت تتجه فيه شركات منافسة مثل "xAI" التابعة لإيلون ماسك، إلى جمع تمويلات ضخمة تجاوزت 14 مليار دولار منذ عام 2023، مع خطط لجمع مزيد عبر الأسهم والديون.

نماذج متباينة في سباق الذكاء الاصطناعي

يتسارع التنافس بين شركات الذكاء الاصطناعي حول العالم، وسط تباين في الفلسفات بين الربحية والانفتاح والسلامة. ففي حين تتبنى "OpenAI" نموذجاً مختلطاً بين الربح والمسؤولية، اختارت "Anthropic" نهج "الذكاء الاصطناعي الدستوري" مع تركيز واضح على الحوكمة الأخلاقية، أما "DeepMind" التابعة لـ"غوغل"، فانتقلت تدريجاً من مشروع بحثي إلى ذراع تجاري، في حين تبنت "Meta" الانفتاح الكامل عبر نماذج LLaMA مفتوحة المصدر.

في المقابل، تتبنى شركات مثل "xAI" و"مسترال" نهجاً أكثر تحرراً في تطوير ونشر النماذج، بينما تبرز "DeepSeek" الصينية باهتمامها بالشفافية وإتاحة أدوات قوية مفتوحة المصدر في مجالات عدة. هذا التنوع يعكس معادلة معقدة تجمع بين الطموح التقني ومتطلبات الأمان والحوكمة العالمية.

مع احتدام المنافسة بين شركات كبرى مثل "OpenAI" للوصول إلى الذكاء الاصطناعي العام (AGI)، تزداد المخاوف من أن تسارع الخطى بدافع الربح قد يتجاوز معايير السلامة والأخلاقيات، في ظل غياب جهة رقابية دولية موحدة. وهو ما يفتح الباب أمام دعوات متزايدة لتأسيس ميثاق عالمي أو هيئة أممية، على غرار "الوكالة الدولية للطاقة الذرية"، لضبط هذا السباق ووضع معايير شفافة للمساءلة واستخدام الموارد.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وفي ظل هذا الفراغ الرقابي، تطرح ثلاثة مسارات محتملة: اتفاق دولي ملزم، أو هيئة مستقلة لمراقبة تطور AGI، أو تنسيق متعدد الأطراف عبر مؤسسات قائمة مثل الشراكة العالمية للذكاء الاصطناعي (GPAI).

على المستوى العربي، يرى محمد الملا أن تطوير بدائل مفتوحة المصدر ممكن، شرط وجود دعم حكومي واستثمار منظم في البحث والبنية التحتية. ويؤكد أن الكفاءات العربية موجودة، كما أثبت نجاح نماذج في دول مثل الهند وتركيا، لكن المطلوب اليوم هو رؤية استراتيجية تدمج التشريعات والتمويل والتدريب، لبناء منظومات ذكاء اصطناعي محلية قادرة على المنافسة.

ومع تصاعد نفوذ شركات الذكاء الاصطناعي في تشكيل المشهد المعرفي والاقتصادي، يبرز سؤال جوهري: هل يمكن للعالم أن يواكب هذا التحول بأدوات رقابية وتشريعية تضمن العدالة والشفافية؟ أم أن السباق نحو "الذكاء العام" سيبقى مفتوحاً أمام من يمتلك القدرة، لا من يستحق القرار؟

اقرأ المزيد

المزيد من علوم