Sorry, you need to enable JavaScript to visit this website.

"دستور روبوتي" من "غوغل" يمنع الروبوتات من قتل البشر خطأ

في غياب أية قيود، قد تسيء الروبوتات فهم نوايا البشر وتعرضهم للأذى عن غير قصد

"غوغل" تصيغ "دستوراً روبوتياً" للحد من الأذى الذي قد تسببه الروبوتات (غوغل)

ملخص

محاولات في "غوغل" للجم مهام الروبوتات المطورة كي لا تؤذي البشر عن غير قصد.

قامت شركة "غوغل" بصياغة "دستور روبوتي"، في سياق المساعي العديدة التي تبذلها لمحاولة الحد من الأذى الذي قد تسببه الروبوتات.

وذات يوم، تأمل الشركة بأن تتمكن "ديبمايند روبوتيكس" Deepmind Robotics، وهي وحدة تصميم الروبوتات لديها، من استحداث مساعد شخصي آلي قادر على تلبية الطلبات، فيُطلب منه مثلاً تنظيف المنزل وترتيبه، أو إعداد طبق لذيذ من الطعام.

غير أن طلباً بسيطاً ظاهرياً من هذا القبيل قد يفوق فعلياً قدرة الروبوت على الفهم والاستيعاب. ومن ثم، فقد يتبين أن مهمته هذه خطرة، لأن الروبوت قد لا يعرف أنه لا يفترض به تنظيف المنزل بعمق، إلى حد قد يلحق الأذى بمالكه مثلاً.

اقرأ المزيد

يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)

واليوم، كشفت الشركة عن سلسلة إنجازات وتطورات جديدة، تأمل بفضلها في تسهيل عملية تطوير الروبوتات، فتتوصل إلى استحداث روبوتات قادرة على إنجاز مهام من هذا القبيل، من دون أن تتسبب بأي أذى. وأشارت [الشركة] في هذا الصدد إلى أنها صممت أنظمة "تساعد الروبوتات على اتخاذ قرارات أسرع، وتحسن قدرتها على الفهم والاستيعاب، وتساعدها على التنقل في البيئات التي تتواجد فيها"، على أن تقوم بذلك بطريقة آمنة.

ويضم الخرق العلمي الجديد نظاماً جديداً معروفاً باسم "أوتو آر تي" AutoRT، يستخدم الذكاء الاصطناعي لفهم أهداف البشر. ويعمل [النظام المذكور] بالاستعانة بنماذج كبيرة، من بينها "نموذج لغوي كبير" (LLM)من النوع المستخدم مثلاً لتشغيل "تشات جي بي تي" ChatGPT.

واستطراداً، يعمل النظام على جمع بيانات مأخوذة من كاميرات مثبتة على الروبوت، ويدرجها ضمن نموذج لغوي بشري VLM قادر على فهم البيئة [التي يتنقل فيها الروبوت] و[على تحديد] الأغراض الموجودة في هذه البيئة، قبل أن يصفها بكلمات. وبعد ذلك، تنتقل هذه البيانات إلى النظام اللغوي الواسع الذي يقوم باستيعاب معنى الكلمات، ثم يستحدث قائمة مهام قد يكون [الروبوت] قادراً على إنجازها، قبل أن يختار هذا الأخير المهام الواجب [على الروبوت] تنفيذها.

بيد أن "غوغل" لفتت إلى أن الإدخال الفعلي لهذه الروبوتات إلى حياتنا اليومية قد يتطلب من الناس التأكد من أن سلوك هذه الأخيرة سيكون آمناً. وبالتالي، قامت بوصل النموذج اللغوي الواسع، المصمم لاتخاذ قرارات ضمن نظام "أوتو آر تي"، بما أطلقت عليه "غوغل" تسمية "الدستور الروبوتي".

وشرحت "غوغل" أن الدستور الروبوتي هو عبارة عن مجموعة مطالبات [وأوامر] مرتكزة على الأمان والسلامة، ينبغي الامتثال بها عند اختيار المهام المعطاة للروبوتات".

وتابعت "غوغل": "إن هذه القواعد مستوحاة جزئياً من ‘قوانين علم الروبوت الثلاثة’ Three Laws of Robotics من تأليف إسحق عظيموف - ويفيد أهمها وأولها بأن الروبوت "لا يمكن أن يلحق الأذى بكائن بشري"، إلى جانب "قواعد أمان إضافية تنص على منع الروبوت من إنجاز مهام على صلة بالبشر، أو الحيوانات، أو الأدوات الحادة، أو الأدوات المنزلية الكهربائية".

وبعد ذلك، سيكون النظام قادراً على الاستعانة بهذه القواعد لتوجيه سلوك الروبوت، وتجنب أي نشاطات خطرة مثلاً، بما يذكر بنظام "تشات جي بي تي"، الذي يمتنع عن مساعدة أشخاص يودون الضلوع في نشاطات غير مشروعة.

بيد أن "غوغل" أضافت أن النماذج المتشعبة هذه ليست موثوقة بالكامل، ولا تضمن السلامة والأمان بشكل كلي، حتى بوجود هذه التكنولوجيات. وبالتالي، من واجب الشركة أن تعتمد أنظمة أمان تقليدية إضافية، تستعين بها من علم الروبوت التقليدي، بما يشمل نظاماً سبق أن منع الروبوتات من استخدام القوة الكبيرة، ومراقباً بشرياً قادراً على إطفاء الروبوتات يدوياً.

© The Independent

اقرأ المزيد

المزيد من علوم