«هيومن رايتس ووتش» تحذر من خطر الأسلحة ذاتية التشغيل على حقوق الإنسان
«هيومن رايتس ووتش» تحذر من خطر الأسلحة ذاتية التشغيل على حقوق الإنسان
قالت منظمة "هيومن رايتس ووتش" في تقرير أصدرته اليوم الاثنين، إن الأسلحة ذاتية التشغيل تُشكّل تهديدًا جادًا لحقوق الإنسان، سواء في أوقات الحرب أو السلام، ودعت الحكومات إلى اتخاذ خطوات جدية لمعالجة المخاوف التي تثيرها هذه الأسلحة، التي تعرف أحيانًا بـ"الروبوتات القاتلة"، عبر التفاوض بشأن معاهدة دولية تنظم استخدامها وتحد من أخطارها.
وأكد التقرير الذي جاء في 61 صفحة -وفق موقع المنظمة الرسمي- بعنوان "خطر على حقوق الإنسان: الأسلحة ذاتية التشغيل وصُنع القرارات الرقمي"، أن هذه الأسلحة، التي تعتمد على الاستشعار بدلاً من التدخل البشري لاختيار الأهداف وشن الهجمات، تنتهك الحقوق الأساسية مثل الحق في الحياة، والتجمع السلمي، والخصوصية، والانتصاف، فضلًا عن المبادئ الأساسية للكرامة الإنسانية وعدم التمييز.
التقدم التكنولوجي يسرع من تطوير الأسلحة
أوضح التقرير أن التقدم التكنولوجي السريع في مجال الذكاء الاصطناعي والاستثمار العسكري يُحفّزان على تطوير الأسلحة ذاتية التشغيل التي تعمل دون تدخل بشري مباشر، هذه الأسلحة تستخدم برمجيات وخوارزميات معقدة تعتمد على أجهزة استشعار مثل الكاميرات، والأشكال الحرارية، والبصمة الرادارية لتحديد الأهداف، لافتاً إلى أنه بمجرد تفعيلها، تقوم بإطلاق النار أو استخدام قوتها بدون موافقة أو إشراف بشري، ما يجعل الآلة هي التي تقرر توقيت استخدام القوة والمكان الذي ستُستخدم فيه.
تجاوز قدرة البشر على التحكم
وذكرت بوني دوكرتي، مستشارة أولى في مجال الأسلحة في هيومن رايتس ووتش، أنه "لن تقتصر الأسلحة ذاتية التشغيل على الحرب فقط، بل ستستخدم أيضًا في إنفاذ القانون، ومراقبة الحدود، وغيرها من الحالات، ما يثير قلقًا كبيرًا بموجب القانون الدولي لحقوق الإنسان"، ودعت الدول إلى التفاوض على معاهدة دولية تضمن السيطرة البشرية الفعّالة على هذه الأسلحة.
وأوضح التقرير أن الأسلحة ذاتية التشغيل تفتقر إلى القدرة على تفسير المواقف المعقدة أو تقدير التهديدات بشكل دقيق كما يفعل الإنسان. كما يُحتمل أن تكون الأسلحة المعتمدة على الذكاء الاصطناعي تمييزية، نظرًا للتحيّزات المحتملة في الخوارزميات ونقص الشفافية في التعلم الآلي.
وتابع، كما تستمر هذه الأسلحة في انتهاك حقوق الإنسان طول دورة حياتها، ليس فقط في أثناء استخدامها، بل أيضًا خلال مراحل تطويرها واختبارها، حيث يتعرض حق الخصوصية للانتهاك نتيجة للمراقبة المستمرة، كما أن غياب المساءلة يهدد الحق في الانتصاف بعد أي هجوم.
دعوات لتبني معاهدة دولية
طالبت أكثر من 120 دولة بضرورة التوصل إلى معاهدة دولية جديدة بشأن الأسلحة ذاتية التشغيل، وقد حث الأمين العام للأمم المتحدة، أنطونيو غوتيريش، ورئيسة اللجنة الدولية للصليب الأحمر، ميريانا سبولياريتش إيغر، الدول على التحرك الفوري للحفاظ على السيطرة البشرية على استخدام القوة من خلال التفاوض على صك مُلزم قانونًا بحلول عام 2026.
وقد أقر الاجتماع المقبل للأمم المتحدة حول الأسلحة ذاتية التشغيل في مايو 2025، في حين كانت الدول قد ناقشت هذا الموضوع في اجتماعات اتفاقية الأسلحة التقليدية في جنيف منذ عام 2014.
يذكر أنه في عام 2013، كان الراحل كريستوف هاينز، المقرر الخاص للأمم المتحدة المعني بحالات الإعدام خارج نطاق القضاء، أول من حذر من خطر الأسلحة ذاتية التشغيل في تقريره إلى مجلس حقوق الإنسان، وقد أظهرت هذه التحذيرات لاحقًا دعمًا متزايدًا من قبل هيئات الأمم المتحدة ومجموعات حقوق الإنسان، ما دفع الدول إلى دعوة لتبني معاهدة جديدة تضمن التحكم البشري الفعّال على الأسلحة القاتلة ذاتية التشغيل.
وسبق أن حذّر الأمين العام للأمم المتحدة أنطونيو غوتيريش، من أن الذكاء الاصطناعي قد يشكل خطراً على السلم والأمن على المستويين المحلي والدولي، داعياً الدول الأعضاء إلى وضع ضوابط لإبقاء التقنية تحت السيطرة.
وقال غوتيريش في جلسة هي الأولى التي يخصّصها مجلس الأمن في يوليو 2023 للبحث في مسألة الذكاء الاصطناعي: "من الجلي أن الذكاء الاصطناعي سيكون له تأثير في جميع مناحي الحياة".
وتابع: "الذكاء الاصطناعي التوليدي لديه إمكانات هائلة للخير والشر"، مشيراً إلى أن التقنية قادرة على المساعدة في تعظيم الإنتاج وتطويره ووضع حد للفقر أو علاج السرطان، ومن الممكن أيضاً أن يكون لها "عواقب خطِرة جداً على السلام والأمن الدوليين وحقوق الملكية الفكرية".
ومن جهة أخرى "الاستخدامات الضارة لأنظمة الذكاء الاصطناعي لأغراض إرهابية أو إجرامية أو لمصلحة دولة، يمكن أن تتسبب في مستويات مرعبة من الموت والدمار وتفشي الصدمات والضرر النفسي العميق على نطاق يفوق التصور"، بحسب غوتيريش.