Sorry, you need to enable JavaScript to visit this website.

المملكة المتحدة تصدر أول دليل دولي لسلامة الذكاء الاصطناعي

وضعت "هيئة المعايير البريطانية" توجيهات بشأن تطوير الشركات لمنتجاتها بطريقة آمنة ومسؤولة

تستخدم المؤسسات في المملكة المتحدة تكنولوجيات الذكاء الاصطناعي على نطاق واسع على الرغم من عدم وجود إطار تنظيمي راسخ يحكمها (شاترستوك)

ملخص

وتحدد الإرشادات طرق إنشاء نظام لإدارة الذكاء الاصطناعي، وتنفيذه وصيانته والمواظبة على تحسينه، مع صب التركيز على التدابير الاحترازية

في المملكة المتحدة، نشرت "هيئة المعايير الوطنية" معياراً دولياً يُعتبر الأول من نوعه حول سبل التعامل الآمن مع الذكاء الاصطناعي.

وتحدد الإرشادات طرق إنشاء نظام لإدارة الذكاء الاصطناعي، وتنفيذه وصيانته والمواظبة على تحسينه، مع صب التركيز على التدابير الاحترازية.

"هيئة المعايير البريطانية" BSI نشرت الإرشادات التي قدمت فيها توجيهات بشأن الطرق التي تسمح للشركات بتطوير ونشر أدوات الذكاء الاصطناعي بشكل مسؤول داخل تلك الشركات وكذلك في أي منتج يقدم للمستهلكين.

ويأتي إصدار الإرشادات في خضم وجود حال من الجدل المستمر بشأن الحاجة إلى صوغ معايير تنظيمية تحكم هذه التكنولوجيا السريعة التطور، والتي برز نجمها بشكل متزايد خلال العام الماضي عقب إصدار أدوات الذكاء الاصطناعي التوليدية من قبيل روبوت الدردشة "تشات جي بي تي" ChatGPT وإتاحتها أمام الجميع.

تذكيراً، كانت المملكة المتحدة عقدت القمة العالمية الأولى لسلامة الذكاء الاصطناعي في نوفمبر (تشرين الثاني) الماضي، وفيها التقى زعماء العالم والمسؤولون في شركات التكنولوجيا الكبرى من مختلف أنحاء العالم لبحث سبل التطوير الآمن والمسؤول للذكاء الاصطناعي، فضلاً عن التهديدات المحتملة الطويلة الأمد التي ربما تطرحها هذه التكنولوجيا.

يسر "هيئة المعايير البريطانية" أن تعلن عن نشر أحدث معايير الإدارة الدولية لهذه الصناعة بشأن استخدام تكنولوجيات الذكاء الاصطناعي، والتي ترمي إلى مساعدة الشركات على تضمين الاستخدام الآمن والمسؤول للذكاء الاصطناعي في منتجاتها وخدماتها

سكوت ستيدمان، "هيئة المعايير البريطانية"

 

ومن بين تلك التهديدات استخدام الذكاء الاصطناعي بغرض إنشاء برمجيات خبيثة لشن هجمات سيبرانية، وحتى طرحه تهديداً وجودياً محتملاً ضد الإنسانية، في حال فقد البشر السيطرة على هذه التكنولوجيا.

وبخصوص هذا المعيار الدولي الجديد، قالت سوزان تايلور مارتن، الرئيسة التنفيذية لـ"هيئة المعايير البريطانية" إن "الذكاء الاصطناعي تكنولوجيا تحويلية. ولكي يكون قوة عظمى تعود بالخير والنفع، فإن الثقة عنصر بالغ الأهمية".

في رأي مارتي، "يعد نشر أول معيار دولي لنظام إدارة الذكاء الاصطناعي خطوة مهمة في تمكين المؤسسات من التعامل مع هذه التكنولوجيا بشكل مسؤول، ما يوفر بدوره الفرصة لتسخير الذكاء الاصطناعي في تسريع التقدم نحو مستقبل أفضل وعالم مستدام".

وأضافت: " ’هيئة المعايير البريطانية’ فخورة بكونها في المقدمة لضمان الدمج الآمن والموثوق للذكاء الاصطناعي في المجتمع".

وتنص التوجيهات على إنشاء تقييمات للمخاطر مصممة خصيصاً لسياقات محددة، إلى جانب تنفيذ ضوابط إضافية لمنتجات وخدمات الذكاء الاصطناعي، سواء اُستخدمت داخل المؤسسة أو مع العملاء.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

وقال سكوت ستيدمان، المدير العام لقسم المعايير في "هيئة المعايير البريطانية" إن المؤسسات في المملكة المتحدة تستخدم تكنولوجيات الذكاء الاصطناعي على نطاق واسع على الرغم من عدم وجود إطار تنظيمي راسخ يحكمها.

وأضاف: "في وقت تبحث الحكومة البريطانية في سبل صوغ قوانين تنظم هذه التكنولوجيا بأقصى قدر من الفاعلية، يطالب الناس أينما كانوا بوضع مبادئ توجيهية وحواجز حماية تقيهم مخاطرها"

وأوضح ستيدمان: "في هذا الفضاء السريع التطور، يسر ’هيئة المعايير البريطانية’ أن تعلن عن نشر أحدث معايير الإدارة الدولية لهذه الصناعة بشأن استخدام تكنولوجيات الذكاء الاصطناعي، والتي ترمي إلى مساعدة الشركات على تضمين الاستخدام الآمن والمسؤول للذكاء الاصطناعي في منتجاتها وخدماتها".

وفق ستيدمان، "التشخيص الطبي، والسيارات ذاتية القيادة، والمساعدون الرقميون ليست سوى أمثلة قليلة على المنتجات التي تحصل فعلاً على الاستفادة من الذكاء الاصطناعي". مشدداً على أنه " لا بد من وجود الثقة لدى المستهلكين والصناعة على حد سواء من أننا، في غمرة السباق إلى تطوير هذه التكنولوجيات الجديدة، لا نعمل على تضمينها أي بيانات تنطوي على أشكال من التحيز والتمييز أو نقاط خفية متعلقة بالسلامة أو انتهاك للخصوصية".

وختم ستيدمان: "المبادئ التوجيهية الخاصة برؤساء شركات تكنولوجيا الذكاء الاصطناعي التي يتضمنها المعيار الجديد للذكاء الاصطناعي، تهدف إلى تحقيق التوازن بين الابتكار وأفضل الممارسات من طريق التركيز على المخاطر الرئيسة والمسؤوليات والتدابير الاحترازية."

المزيد من علوم