هل تستطيع “الروبوتات” أن تقول  لا؟

بشكل عام لا يفعل الإنسان كل ما يمليه عليه الآخرون، ويملك الحق في قول ” لا”، إذا كان لا يريد أو يرغب في تنفيذ أمر لأي سبب كان.

والسؤال الذي يطرحه العلماء المعنيون بالذكاء الصناعي فيما إذا كان الروبوت يملك هذا الحق مستقبلا في رفض الأوامر وعدم إطاعة الطلبات.

يبدو للوهلة الأولى صعوبة أن تقول الروبوتات لا لصانعها لأنها ببساطة عبارة عن آلات، وهي مصمّمة على إطاعة الأوامر. لكن الامر لا يخلو من التعقيد فالكثير من الحالات التي يتلقى فيها الروبوت أوامر وعليه أن يقول نعم يمكن أن تؤدي إلى نتائج غير مرغوبة، لكن ليست كل الحالات تُحمد عقباها؛ حتى لو بدت الأوامر كذلك في البداية.

هناك أوامر تبدو بسيطة لكن تنفيذها من قبل الروبوت بشكل خاطئ تكون كارثية فلو ان روبوتَ سيارةٍ أُعطي أمراً بالرجوع للخلف مع وجود كلبٍ نائمٍ على الممر وراءه، أو أن روبوتاً مساعداً في المطبخ أُعطي أمراً بالتقدم نحو الطاهي وهو يحمل سكيناً.

هذه الطاعة العمياء مؤذية للبشر فكيف يتجنبون نتائجها المخيفة فيما لو نفذ الأمر بشكل غير صحيح؟

مثلا لو كان الالتفاف حول الكلب النائم مستحيلاً، فيجب على السيارة الروبوت رفضَ أمر الرجوع، وبالمثل، لو كان تجنب طعن الطاهي غير ممكنٍ، فيجب على روبوت المطبخ التوقف؛ أو عدم حمل السكينة أصلاً.

ويقوم العلماء بتعليم الروبوتات كيف تكتشف الخطر المحتمل لفعلها، وأن تستجيب له إما بتجنب الخطر أو بعدم تنفيذ الأمر المسبّب له.

ويعمل العلماء على تطوير أنظمة تحكم للروبوتات لتقوم بوظيفة الاستدلال، بناءاً على أوامر الإنسان، ستحدد هذه الأنظمة فيما إذا كان الروبوت سيطيع الأوامر أو سيرفضها؛ بسبب خرقِها أحد المبادئ الأخلاقية المبرمجة فيه.

ويطور العلماء استجابة الروبوت بتحديد ماهية الأذى، أو المشاكل الناتجة عن فعلٍ ما، فالكرة المرمية إلى خارج النافذة قد لا تسبب الأذى فيما إذا وقعت في الباحة الخلفية، لكنها قد تصل إلى أحد الشوارع المكتظة مسببةً انحراف أحد السيارات وتحطمها، تختلف النتائج باختلاف السياق.

ويبدو الامر صعبا حاليا ويحتاج إلى الكثير من العمل لتستطيع الروبوتات تحديدَ كون رمي الكرة أمراً صحيحاً؛ في حال اللعب مع طفل، أو خاطئاً؛ في حال رميها من النافذة أو في القمامة، والأمر أصعب بكثيرٍ فيما إذا كان الطفل يريد خداع الروبوت، وأمَرَه برمي الكرة إليه؛ ليتجنبها الطفل وتخرج من النافذة.

ويقول العلماء إن فهم تلك المخاطر يتطلب الكثير من المعرفة السابقة، مثل معرفة بأن اللعب بالكرة أمام نافذةٍ مفتوحةٍ قد يؤدي إلى خروجها منها. إن ذلك الفهم لا يتطلب من الروبوت أن يتوقع النتائج المباشرة فحسب، بل عليه أن يتنبّأ بنوايا الإنسان الذي يعطي الأوامر.

ويواجه الروبوت بشكل عام تعقيدات في طبيعة الأوامر التي يتلقاها: هل هي صادقة ام لا ويحتاج إلى التفكير في عواقب الأفعال، ومقارنة نتائجها مع المبادئ والأخلاق الاجتماعية، لمعرفة ما هو مسموح منها وما هو غير ذلك.

ويسعى مبرمجو الروبوتات إلى تحقيق أهم النقاط في نظام الاستجابة للأوامر وهي: “يجب على الروبوت أن يتمكن من مخالفة الأوامر من أجل أن يطيعها”.

.