جوجل تضع أول دستور في التاريخ يمنع الروبوتات من تهديد البشر
وضعت شركة جوجل، ما يمكن اعتباره أول صياغة لدستور الروبوتات، في سياق المساعي العديدة التي تبذلها لمحاولة الحد من الأضرار الذي قد تسببه الروبوتات.
وتأمل الشركة بأن تتمكن وحدة تصميم الروبوتات لديها، من استحداث مساعد شخصي آلي قادر على تلبية الطلبات، فيُطلب منه مثلاً تنظيف المنزل وترتيبه، أو إعداد طبق لذيذ من الطعام.
غير أن طلباً بسيطاً ظاهرياً من هذا القبيل قد يفوق فعلياً قدرة الروبوت على الفهم والاستيعاب. ومن ثم، فقد يتبين أن مهمته هذه خطرة، لأن الروبوت قد لا يعرف أنه لا يفترض به تنظيف المنزل بعمق، إلى حد قد يلحق الأذى بمالكه مثلاً.
وفقا لتقرير صحيفة إندبندنت، كشفت الشركة عن سلسلة إنجازات وتطورات جديدة، تأمل أن تؤدي إلى استحداث روبوتات قادرة على إنجاز مهام من هذا القبيل، من دون أن تتسبب بأي أذى. وذكرت جوجل أنها صممت أنظمة تساعد الروبوتات على اتخاذ قرارات أسرع، وتحسن قدرتها على الفهم والاستيعاب، وتساعدها على التنقل في البيئات التي تتواجد فيها، على أن يكون ذلك بطريقة آمنة.
ويضم المشروع العلمي نظاماً جديداً معروفاً باسم أوتو آر تي AutoRT، يستخدم الذكاء الاصطناعي لفهم أهداف البشر. ويعمل بالاستعانة بنماذج كبيرة، من بينها نموذج لغوي كبير (LLM)من النوع المستخدم مثلاً لتشغيل تشات جي بي تي ChatGPT.
وشرحت جوجل أن الدستور الروبوتي هو عبارة عن مجموعة مطالبات وأوامر مرتكزة على الأمان والسلامة، ينبغي الالتزام بها عند اختيار المهام للروبوتات.
وتابعت جوجل: إن هذه القواعد مستوحاة جزئياً من “قوانين علم الروبوت الثلاثة”، من تأليف إسحق عظيموف – ويفيد أهمها وأولها بأن الروبوت لا يمكن أن يلحق الأذى بكائن بشري، إلى جانب قواعد أمان إضافية تنص على منع الروبوت من إنجاز مهام على صلة بالبشر، أو الحيوانات، أو الأدوات الحادة، أو الأدوات المنزلية الكهربائية.
وبعد ذلك، سيكون النظام قادراً على الاستعانة بهذه القواعد لتوجيه سلوك الروبوت، وتجنب أي نشاطات خطرة مثلاً، بما يذكر بنظام تشات جي بي تي ، الذي يمتنع عن مساعدة أشخاص يودون الضلوع في نشاطات غير مشروعة.
وأضافت جوجل أن النماذج المتشعبة هذه ليست موثوقة بالكامل، ولا تضمن السلامة والأمان بشكل كلي، حتى بوجود هذه التكنولوجيات. وبالتالي، من واجب الشركة أن تعتمد أنظمة أمان تقليدية إضافية، تستعين بها من علم الروبوت التقليدي، بما يشمل نظاماً سبق أن منع الروبوتات من استخدام القوة الكبيرة، ومراقباً بشرياً قادراً على إطفاء الروبوتات يدوياً.