languageFrançais

''انتحار'' روبوت بسبب ضغط العمل.. الذكاء الاصطناعي يُفسّر!

"انتحار روبوت بسبب ضغط العمل".. عنوان قرأناه جميعا بالمواقع بالأخبار والمواقع المتخصصة بالتكنولوجيا. فما القصة؟

في حادثة غريبة أثارت القلق، قام روبوت في كوريا الجنوبية مصمم للمساعدة المدنية بعمل غريب وُصف بـ"الانتحار"، عندما ألقى بنفسه من أعلى الدرج، ما أثار جدلاً واسعاً بشأن الأبعاد النفسية لسلوك الذكاء الاصطناعي، وشكوكاً بشأن عيوب برمجية مُحتملة.

الحادث تسبب كذلك في إثارة المزيد من الغموض على مستقبل التفاعل بين البشر والروبوتات.

وكان الروبوت المصمم للمساعدة في المهام الإدارية الروتينية، جزءاً من مبادرة سول لدمج الذكاء الاصطناعي في الخدمات العامة. وقالت السلطات في كوريا الجنوبية، التي أطلقت تحقيقاً بشأن الحادث إن "الروبوت تعطل على ما يبدو، وتحرك عمداً نحو السلم، وألقى بنفسه، ما أدى إلى تدميره".

وأعلنت بلدية في وسط كوريا الجنوبية فتحها تحقيقا إثر إلقاء روبوت كان يستعان به في إنجاز المهام البلدية، بنفسه من أعلى الدرج.

وأوضح مسؤول في الفريق البلدي لوكالة "فرانس برس" أنّ هذا الروبوت الذي طورته شركة "بير روبوتيكس" (Bear Robotics) الأمريكية في كاليفورنيا، يساعد منذ عام تقريبا سكان مدينة غومي على القيام بمهام إدارية.

فتح تحقيق في الحادث

وأفادت وسائل إعلام محلية بأنّ مجلس مدينة غومي فتح تحقيقا في الواقعة، بعد العثور على الروبوت خاملا في أسفل الدرج منذ أيام.

وأكّدت البلدية أنهم "لا يمزحون بشأن حياة الروبوتات في كوريا الجنوبية وأنهم يأخذون الأمر على محمل الجد".

وأشارت إلى أنّ الروبوت يبدو أنه قد ألقى بنفسه من أعلى الدرج.

وصرّح المسؤول في الفريق البلدي بأن شهود عيان رأوا الروبوت قبيل سقوطه، يدور حول نفسه كما لو أن خطبا ما قد أصابه، مضيفا أن سبب الحادث قيد التحقيق لتحديد أسباب هذا السقوط.

وأضاف أنه "تم جمع الأجزاء وسيتم تحليلها" من قبل الشركة التي صممتها.

وكان الروبوت يعمل من الساعة 9 صباحا حتى 6 مساء، وكانت لديه بطاقة خدمة عامة خاصة به.

وعلى عكس الروبوتات الأخرى المحصورة في طبقة واحدة كان بإمكانه طلب المصعد والانتقال من طابق إلى آخر.

وعلى الرغم من أن الروبوتات لا تمتلك وعياً أو مشاعر مثل البشر، إلا أن هذه الحادثة تسلط الضوء على مشكلات كبيرة في برمجتها.

ChatGPT يحلل أسباب الحادث

وهناك 3 أسباب مُحتملة قد تكون أدت إلى هذا السلوك غير المعتاد للروبوت، وذلك بحسب ما أفاد به ChatGPT عند سؤاله عن الحادث:

1)قد تكون مستشعرات الروبوت، المسؤولة عن اكتشاف العوائق والتنقل قد فشلت في العمل، ما ترتب عليه سوء في تفسير الروبوت لمحيطه، وبالتالي اتخذ قراراً بتحركات خطرة وعشوائية.

2)قد يكون هناك بعض الأخطاء في خوارزمية الملاحة، مما وجه الروبوت نحو السلم. وهذه العيوب قد تنشأ من أخطاء برمجية أو اختبارات غير كافية خلال مرحلة التطوير.

3)قد تؤدي الأعطال البرمجية، التي غالباً ما تكون غير متوقعة خلال الاختبارات الأولية، إلى سلوك غير منتظم. هذه الأعطال قد تكون ناجمة عن تعارض في أوامر التشغيل أو مشاكل في تدفق الذاكرة.

يذكر أن الروبوتات تستخدم خوارزميات البحث عن المسار للتنقل داخل محيطها، فإذا لم يتم تصميم هذه الخوارزميات بشكل دقيق، فقد يتخذ الروبوت قرارات توصف بـ"الخطيرة" أو"غير آمنة". وتعتبر آليات الأمان ضرورية لمنع الروبوتات من القيام بسلوكيات "ضارة"، وغيابها أو عدم برمجتها بدقة قد يتسبب في تنفيذ عمل خطير دون الاعتماد على بروتوكولات الطوارئ.

وتعتبر الاختبارات الشاملة في مختلف السيناريوهات ضرورية لضمان موثوقية الروبوت، ولكن حال عدم اكتمال الاختيارات، خاصة في البيئات المعقدة، قد تتحول إلى "أخطاء كارثية". وقد يؤدي تعقيد عمليات اتخاذ القرار في الذكاء الاصطناعي أحياناً إلى نتائج "غير متوقعة"، ففي حال موقف لا يمكنه معالجته بشكل صحيح، فقد يتخذ إجراءات "غير مناسبة".

ويمثل الحادث تذكيراً شديد الأهمية لإجراء جميع الاختبارات اللازمة، لضمان الأمان التام أثناء عمل الروبوت، خاصة فيما يخص البيئة المحيطة به.

يذكر أن الصحف المحلية تناولت الحادث وتساءلت إحداها على الصفحة الأولى "لماذا تصرف هذا الموظف الحكومي المجتهد بهذه الطريقة؟"، أو ما إذا كان "العمل شاقا للغاية بالنسبة للروبوت؟".

وتعرف كوريا الجنوبية بولعها بالروبوتات، إذ تضم أعلى كثافة منها في العالم مع إنسان آلي لكل عشرة موظفين، وفق الاتحاد الدولي للروبوتات.

العربيّة