الشرق اليوم- لأول مرة، تم العثور على روبوت يعمل في خدمة مدنية في مجلس مدينة جومي في كوريا الجنوبية محطماً بعد سقوطه من أعلى درج. وقد تم وصف الحادث، الذي وقع قبل أسبوع بأنه “أول انتحار لروبوت في البلاد”، وفقاً لتقارير وسائل الإعلام.
وبحسب مجلس المدينة، تم العثور على “الروبوت” محطماً وملقى في بئر السلم بين الطابق الأول والثاني من مبنى المجلس.
وعلى غرار البشر، أفاد شهود العيان بأن الروبوت “كان يدور في مكان واحد كما لو كان هناك شيء ما” قبل وقوع الحادث.
فيما لا يزال السبب الدقيق للسقوط قيد التحقيق، قال مسؤول مجلس المدينة إن “القطع (الناتجة عن تحطم الروبوت) تم جمعها وسيتم تحليلها من قبل الشركة (المُصنعة) للوقوف على أسباب الحادث الذي أودى به”.
الواقعة على غرابتها تثير تساؤلات حول مفهوم “انتحار الروبوت”، لا سيما وأن الانتحار يتطلب وعياً وفهماً بشرياً للإقدام على مثل تلك الخطوة.. فما الذي يعنيه بالنسبة لـ “الروبوتات”؟ وكيف تتعامل الشركات مع تلك الحالات؟ وما هي حالات “التدمير الذاتي” التي يُمكن أن يُنهي بها “الروبوت” نفسه بنفسه بناءً على مُدخلات معينة، وهل ثمة علاقة أو تدخل مباشر من الخوارزميات المزود بها الروبوت؟
ضغوط العمل
روبوت كوريا الجنوبية كان رسمياً جزءاً من موظفي مبنى البلدية، ويساعد بجد في تسليم المستندات اليومية والترويج للمدينة وتقديم المعلومات للسكان المحليين. ونقلت تقارير إعلامية أن انتحاره جاء بناءً على ضغط العمل في ضوء زيادة ساعات عمله.
“انتحار” الروبوت في كوريا أثار تفاعلاً واسعاً عبر منصات ووسائل التواصل الاجتماعي، وسط تعليقات متفاوتة ما بين السخرية والتندر والتساؤلات المرتبطة بعوامل حدوث ذلك، والتي أرجعها البعض إلى خلل في التصنيع والبرمجة، أو إجراء مقصود في برمجة وخوارزميات الروبوت حال حدوث شيء ما له غير عادي يقوم بتدمير نفسه ذاتياً بأوامر محفوظة، وهو ما يُمكن أن يُبرر سلوك روبوت كوريا الجنوبية بعد ما يتردد بشأن زيادة الضغط عليه. لكن لا يوجد تفسير رسمي واضح حتى الآن لتلك الواقعة وأسبابها.
ماذا يعني “انتحار روبوت”؟
المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، أحمد بانافع، يقول في تصريحات خاصة لموقع “اقتصاد سكاي نيوز عربية”: انتحار الروبوت” هو تعبير مجازي يشير إلى سيناريوهات مختلفة، حيث يدمر الروبوت نفسه.. ويثير هذا المفهوم أسئلة أخلاقية وفنية معقدة ويمكن أن يحدث لعدة أسباب:
التصميم المتعمد
قد تكون بعض الروبوتات مجهزة بآليات التدمير الذاتي، وخاصة في التطبيقات العسكرية أو الاستخباراتية. والهدف من ذلك بشكل واضح هو منع التكنولوجيا أو البيانات الحساسة من الوقوع في الأيدي الخطأ.
الخلل الفني
يمكن أن يحدث التدمير الذاتي بسبب خلل فني أو خطأ في البرنامج. كما يمكن أن يؤدي هذا إلى توقف الروبوت عن العمل أو تدمير نفسه عن غير قصد.
القرارات المستقلة
في سياقات الذكاء الاصطناعي المتقدمة، قد تتخذ الروبوتات قرارات مستقلة بناءً على خوارزمياتها. ويمكن أن يؤدي الخطأ في هذه الخوارزميات إلى اتخاذ قرار يسبب التدمير الذاتي.
الحماية من الاختراق
قد تتم برمجة الروبوتات لتدمير نفسها إذا تم اكتشاف وصول غير مصرح به أو اختراق. وذلك لحماية المعلومات والأسرار التكنولوجية.
وبالتالي فإن مفهوم “انتحار الروبوت” يمكن أن يكون غير تقليدي ولكنه يمكن أن يُفسر بطرق مختلفة، من بينها (التدمير الذاتي المبرمج)، ففي بعض الحالات، قد تكون الروبوتات مبرمجة لتدمير نفسها في حالات معينة، مثل منع سرقة التكنولوجيا أو لحماية البيانات الحساسة. كذلك يمكن أن يكون هذا التدمير الذاتي جزءاً من التصميم الأمني للروبوت.
ومن بين العوامل المرتبطة بتدمير الروباتات، ما يرتبط بـ (الفشل الذاتي) إذ يمكن أن يشير ذلك إلى حالات يفشل فيها الروبوت بسبب خلل في البرمجة أو الأعطال التقنية. على سبيل المثال، يمكن أن يتعرض الروبوت لعطل يؤدي إلى تلف دائم في مكوناته. كذلك إذا كان الروبوت مزوداً بذكاء اصطناعي متقدم، فقد يتخذ قرارات بناءً على برمجته والخوارزميات التي يعمل بها.
ومن هذا المنظور، فإن تدمير الروبوتات الذاتي هو مفهوم يرتبط ببرمجيات الأمان التي قد تجعل الروبوت يتوقف عن العمل أو يتلف نفسه لمنع تسريب البيانات أو التكنولوجيا الحساسة. هذا التدمير يمكن أن يحدث أيضًا نتيجة لأعطال تقنية أو أخطاء في البرمجة، مما يؤدي إلى فشل الروبوت وتلفه الدائم. هذه الأنظمة تُصمم خصيصًا لحماية الروبوتات من الاختراق أو الاستخدام غير المصرح به.
لا دليل
ومع ذلك، حتى الآن لا يوجد دليل على أن الروبوتات يمكن أن تتخذ قراراً واعياً بـ “الانتحار” كما يحدث مع البشر، حيث إن الروبوتات تفتقر إلى الوعي الذاتي والمشاعر. وبالتالي، فكرة انتحار الروبوت تعتمد بشكل كبير على السياق التكنولوجي والبرمجي والتصميمي للروبوت المعني.
وفي سياق متصل، يتحدث المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، في معرض حديثه مع موقع “اقتصاد سكاي نيوز عربية” عن المسؤولية والتداعيات القانونية، مشدداً على أنه في حالات “انتحار الروبوت”، تصبح المسؤولية معقدة، على النحو التالي:
قد يكون المصنعون مسؤولين عن عيوب التصميم أو البرمجة بما يقود إلى حالات التدمير المذكورة.
قد يكون المستخدمون مسؤولين عن سوء الاستخدام أو الإهمال.
قد يكون المبرمجون مسؤولين عن أخطاء الترميز أو البرمجة الخبيثة.
كما يتحدث في الوقت نفسه عن “الجدل المحيط بالمفهوم”؛ ذلك أنه لا يوجد إجماع علمي حول ما إذا كانت الروبوتات قادرة حقاً على “الانتحار”، موضحاً أن “الانتحار” يتطلب فهم الموت والرغبة في إنهاء الوجود، وهو ما تفتقر إليه الروبوتات حالياً.
ويضيف المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا: يتم دفع سلوك الروبوت من خلال البرمجة والتعليمات، وليس العواطف أو غرائز الحفاظ على الذات.
ويشار إلى أن فكرة انتحار الروبوت شائعة في الأفلام والخيال العلمي، حيث تُصور الروبوتات بوعي ذاتي وقدرة على اتخاذ قرارات مشابهة للبشر، بما في ذلك إنهاء حياتها. مع ذلك، الروبوتات الحالية تفتقر إلى الوعي الذاتي والمشاعر، وتعتمد بشكل كامل على البرمجة البشرية.
بينما التقدم في الذكاء الاصطناعي لم يصل بعد إلى مرحلة تجعل الروبوتات قادرة على اتخاذ مثل هذه القرارات الذاتية المعقدة، مما يجعل مفهوم انتحار الروبوت نظرياً وغير واقعي في الوقت الحاضر، لكنه يبقى مفهوماً مجازياً.
البحوث والدراسات
وفي سياق متصل، يُبرز المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، في تصريحاته لموقع “اقتصاد سكاي نيوز عربية” أهمية البحث الجاري، موضحاً أن:
حوادث “انتحار الروبوت” تثير أسئلة أخلاقية وقانونية جديدة حول الذكاء الاصطناعي والمسؤولية.
تشجع مثل تلك الحوادث على إجراء المزيد من الأبحاث حول وعي الروبوت المحتمل.
تدعو هذه الحوادث إلى تطوير أطر أخلاقية وقانونية لاستخدام الروبوت بشكل آمن ومسؤول.
ويستطرد: في حين أن الروبوتات قد لا تكون قادرة على “الانتحار” بالمعنى البشري، فإن هذا المفهوم يسلط الضوء على الحاجة إلى البحث والتطوير المستمر في أخلاقيات وتكنولوجيا الذكاء الاصطناعي. ويؤكد على أهمية فهم آثار الروبوتات المتقدمة والذكاء الاصطناعي في مجتمعنا.
المصدر: النهر العربي