"الروبوت القاتل".. الأمم المتحدة تهدف إلى تنظيم أسلحة الذكاء الاصطناعي بحلول عام 2026.. وخبراء يحذرون من سباق التسلح

"الروبوت القاتل".. الأمم المتحدة تهدف إلى تنظيم أسلحة الذكاء الاصطناعي بحلول عام 2026.. وخبراء يحذرون من سباق التسلح
"الروبوت القاتل".. الأمم المتحدة تهدف إلى تنظيم أسلحة الذكاء الاصطناعي بحلول عام 2026.. وخبراء يحذرون من سباق التسلح
تابع أحدث الأخبار عبر تطبيق google news

تجتمع الدول في الأمم المتحدة، لإحياء الجهود الرامية إلى تنظيم أنواع الأسلحة ذاتية التحكم التي تعمل بالذكاء الاصطناعي والتي تستخدم بشكل متزايد في الحروب الحديثة، في حين يحذر الخبراء من أن الوقت ينفد لوضع حواجز أمام التكنولوجيا القاتلة الجديدة.

وقالت صحيفة رويترز، إن أنظمة الأسلحة ذاتية التشغيل والمزودة بالذكاء الاصطناعي تلعب دورًا متزايدًا في النزاعات من أوكرانيا إلى غزة، ويبشر ارتفاع الإنفاق الدفاعي عالميًا بدفعة إضافية للتكنولوجيا العسكرية الناشئة المدعومة بالذكاء الاصطناعي.

إلا أن التقدم نحو إرساء قواعد عالمية تحكم تطويرها واستخدامها لم يواكب هذا التقدم. ولا تزال المعايير الدولية الملزمة معدومة تقريبًا.

اتفاقية الأسلحة التقليدية في جنيف

منذ عام 2014، اجتمعت الدول الموقعة على اتفاقية الأسلحة التقليدية في جنيف لمناقشة حظر محتمل للأنظمة المستقلة بالكامل التي تعمل دون سيطرة بشرية ذات معنى وتنظم الآخرين.

وحدد الأمين العام للأمم المتحدة أنطونيو غوتيريش عام 2026 موعدا نهائيا للدول لوضع قواعد واضحة، يفتح علامة تبويب جديدةحول استخدام أسلحة الذكاء الاصطناعي؛ لكن منظمات حقوق الإنسان تُحذر من غياب التوافق بين الحكومات.

وقال ألكسندر كمينت، رئيس مراقبة الأسلحة بوزارة الخارجية النمساوية، إن هذا الأمر يجب أن يتغير بسرعة.

وقال لرويترز "الوقت ينفد حقا ولا بد من وضع بعض الحواجز الوقائية حتى لا تتحقق السيناريوهات الكابوسية التي يحذر منها بعض أبرز الخبراء".

ستكون اجتماعات الجمعية العامة للأمم المتحدة في نيويورك يوم الاثنين أول اجتماع للمنظمة مخصص لبحث الأسلحة المستقلة.

ورغم أن هذه المشاورات ليست ملزمة قانونا، فإن المسؤولين الدبلوماسيين يريدون أن تزيد الضغوط على القوى العسكرية التي تقاوم التنظيم بسبب المخاوف من أن القواعد قد تقلل من مزايا التكنولوجيا في ساحة المعركة.

وتأمل جماعات الحملة أن يدفع الاجتماع، الذي سيتناول أيضًا قضايا حاسمة لا تغطيها اتفاقية الأسلحة التقليدية، بما في ذلك المخاوف الأخلاقية وحقوق الإنسان واستخدام الأسلحة المستقلة من قبل جهات غير حكومية، الدول إلى الاتفاق على أداة قانونية.

إنهم ينظرون إليها باعتبارها اختبارا حاسما لمدى قدرة البلدان على تجاوز الانقسامات قبل الجولة المقبلة من محادثات اتفاقية الأسلحة التقليدية في سبتمبر.

قال باتريك ويلكن، الباحث في الشؤون العسكرية والأمنية والشرطية بمنظمة العفو الدولية: "هذه القضية بحاجة إلى توضيح من خلال معاهدة ملزمة قانونًا. فالتكنولوجيا تتطور بسرعة هائلة".

"إن فكرة عدم رغبتك في استبعاد تفويض قرارات الحياة أو الموت... إلى آلة تبدو غير عادية."

سباق التسلح

وتأتي محادثات نيويورك بعد أن أيدت 164 دولة قرار الجمعية العامة للأمم المتحدة عام 2023 الذي يدعو المجتمع الدولي إلى معالجة المخاطر التي تشكلها الأسلحة المستقلة بشكل عاجل.

وبينما تدعم العديد من البلدان إطارًا عالميًا ملزمًا، فإن الولايات المتحدة وروسيا والصين والهند تفضل المبادئ التوجيهية الوطنية أو القوانين الدولية القائمة، وفقًا لمنظمة العفو الدولية.

وقال متحدث باسم البنتاغون الأميركي لرويترز "لم نقتنع بأن القانون الحالي غير كاف"، مضيفا أن الأسلحة المستقلة قد تشكل في الواقع خطرا أقل على المدنيين من الأسلحة التقليدية.

ولم تستجب حكومات الهند وروسيا والصين لطلبات التعليق، وفي غياب التنظيم، تتزايد الأنظمة المستقلة.

قام خبراء الأسلحة في معهد مستقبل الحياة بتتبع نشر حوالي 200 نظام أسلحة مستقل في جميع أنحاء أوكرانيا والشرق الأوسط وأفريقيا.

على سبيل المثال، نشرت القوات الروسية في أوكرانيا نحو 3000 طائرة بدون طيار من طراز فيتر كاميكازي - قادرة على اكتشاف الأهداف ومهاجمتها بشكل مستقل، وفقًا لبياناتها.

في غضون ذلك، استخدمت أوكرانيا طائراتٍ مُسيّرة شبه مُستقلة في النزاع. ورفضت الحكومة الأوكرانية التعليق.

استخدام أنظمة الذكاء الاصطناعي لتحديد الأهداف

استخدمت إسرائيل أنظمة الذكاء الاصطناعي لتحديد الأهداف في غزة، وأكدت بعثتها في جنيف دعمها للمناقشات متعددة الأطراف، واستخدامها لتقنيات البيانات بما يتوافق تمامًا مع القانون الدولي.

لكن منظمة هيومن رايتس ووتش قالت إن الأسئلة الحاسمة المتعلقة بالمساءلة بموجب القانون الدولي لا تزال دون حل، وحذرت في تقرير الشهر الماضي من أن الأسلحة المستقلة غير المنظمة تشكل مجموعة من التهديدات لحقوق الإنسان وقد تؤدي إلى سباق تسلح إذا لم يتم التحكم فيها.

ويشعر النشطاء مثل لورا نولان من منظمة Stop Killer Robots بالقلق من عدم وجود ما يضمن في الوقت الحالي قيام شركات الدفاع بتطوير أسلحة تعتمد على الذكاء الاصطناعي بشكل مسؤول.

وقالت: "نحن لا نثق بشكل عام في قدرة الصناعات على تنظيم نفسها... وليس هناك من سبب يجعل شركات الدفاع أو التكنولوجيا أكثر جدارة بالثقة.

495.jpg

اشترك فى النشرة البريدية لتحصل على اهم الاخبار بمجرد نشرها

تابعنا على مواقع التواصل الاجتماعى

السابق معهد الفلك يكشف عن مفاجأة بشأن زلزال اليوم
التالى جمال شعبان يحذر من عادة خاطئة خلال فصل الصيف.. فيديو