«واشنطن بوست»: الذكاء الاصطناعي يهدد حقوق الإنسان في مناطق النزاع

«واشنطن بوست»: الذكاء الاصطناعي يهدد حقوق الإنسان في مناطق النزاع
أدوات الذكاء الاصطناعي

كشفت صحيفة "واشنطن بوست"، في تقرير لها، عن استخدام الجيش الإسرائيلي تقنيات متطورة تعتمد على الذكاء الاصطناعي في عمليات الاستهداف العسكرية ضد الفلسطينيين، مشيرة إلى أن هذه التقنيات التي تساعد في استهداف المدنيين والمسلحين على حد سواء، تسهم في اتخاذ قرارات عسكرية سريعة بناءً على تحليل البيانات الاستخباراتية والمعلومات الواردة.

وأوضح التقرير المنشور أمس الأحد، أنه في السنوات الأخيرة، عمد الجيش الإسرائيلي إلى استخدام تقنيات التعلم الآلي والذكاء الاصطناعي في استهداف الأهداف العسكرية في غزة، حيث كانت الأنظمة التي طوّرها تعتمد على برامج خوارزمية متقدمة تُستخدم لتحليل البيانات واستنتاج احتمالية انتماء الأفراد إلى عناصر مسلحة.

من أبرز هذه الأنظمة برنامج "لافندر"، الذي يعتمد على درجة مئوية لتحديد احتمالية انتماء فلسطينيين إلى مجموعات مسلحة مثل حماس، ما يتيح للجيش الإسرائيلي تحديد الأهداف البشرية المحتملة بسرعة وكفاءة.

وإلى جانب "لافندر"، هناك برامج أخرى مثل "الخيميائي" و"عمق الحكمة" و"الصياد"، و"التدفق" الأخير الذي يتيح للجنود إجراء استفسارات حول مجموعات بيانات متعددة.

أخطاء تكنولوجية

وعلى الرغم من التقدم التكنولوجي، كان هناك قلق متزايد بين ضباط الجيش الإسرائيلي حول فاعلية هذه التقنيات، خاصة مع ما أظهرته بعض التقارير من أن بعض الأنظمة، مثل تلك التي تعتمد على معالجة اللغة العربية، كانت تعاني من أخطاء تكنولوجية تؤثر على دقة المعلومات الاستخباراتية.

ومن أبرز المشكلات التي تم اكتشافها فشل بعض الأنظمة في التعامل مع الكلمات والعبارات العامية في اللغة العربية، ما أثر سلباً على دقة تقديرات الأهداف. 

وأظهرت مراجعة داخلية أن بعض هذه الأنظمة كانت تنتج معلومات غير دقيقة، ما جعل من الصعب على المسؤولين العسكريين تقييم نتائج هذه الأنظمة بشكل صحيح.

وأكدت منظمات حقوق الإنسان أن هناك قلقًا متزايدًا بشأن استخدام هذه التقنيات في الحروب، إذ حذّرت من أنها قد تزيد من استهداف المدنيين، خصوصًا في المناطق المكتظة بالسكان مثل غزة، وتساءلت عن قدرة الأنظمة التكنولوجية على التمييز بين الأهداف العسكرية والمدنيين، واعتبرت أن الاعتماد على الذكاء الاصطناعي قد يشكل تهديدًا لحقوق الإنسان في مناطق النزاع.

تقنيات التعرف على الصور

وساعدت هذه الأنظمة في تحسين تقديرات عدد المدنيين الذين قد يتأثرون بالغارات الجوية الإسرائيلية، وذلك باستخدام تقنيات التعرف على الصور لتحليل لقطات الطائرات بدون طيار وبيانات الهواتف المحمولة المرسلة إلى أبراج الخلايا. 

وكانت هناك محاولات لضمان الامتثال لمبادئ القانون الدولي المتعلقة بحماية المدنيين، حيث أظهرت التقارير أن الجيش الإسرائيلي كان يقدر أن نحو 15 مدنياً سيتأثرون مقابل كل عضو في حماس منخفض المستوى، وهذا الرقم يزداد مع الأعضاء الأعلى رتبة.

وقد أثارت هذه الإحصائيات انتقادات من بعض المنظمات الحقوقية التي أشارت إلى أن هذا العدد مرتفع بشكل غير متناسب.

التفوق التكنولوجي ضرورة

وقد دافع بعض مؤيدي استخدام الذكاء الاصطناعي في هذا السياق، مثل بليز ميشتال من المعهد اليهودي للأمن القومي الأمريكي، عن هذه التقنيات، معتبرين أن التفوق التكنولوجي كان ضرورياً لنجاح إسرائيل في مواجهة تهديدات من جماعات مسلحة قوية مثل حماس وحزب الله.

وتُظهر التصريحات أن استخدام التكنولوجيا المتقدمة ساعد في تسريع تحديد الأهداف، ما كان له دور في تقليل مدة الحرب وتقليص عدد الضحايا.

ومع مرور الوقت، بدأت هذه التقنيات تُحدث تحولات غير مرئية داخل الجيش الإسرائيلي، فقد كانت الوحدة 8200 الاستخباراتية، التي كانت تُعتبر القلب النابض للاستخبارات العسكرية، تقوم بتحليل المعلومات البشرية بتركيز على التفكير الفردي، ومع تعيين الجنرال يوسي ساريل على رأس الوحدة، تغيرت أولويات الوحدة بشكل جذري، حيث أصبح التركيز الأكبر على التفوق التكنولوجي.

تقليص دور المحللين

وأدى هذا التحول في الفكر العسكري إلى تقليص دور المحللين البشريين ذوي الخبرة، وركز على استخدام الخوارزميات والذكاء الاصطناعي، وبحلول عام 2023 كان ما يقرب من 60% من موظفي الوحدة يعملون في مجالات هندسية وتقنية، بينما كان العدد نصف ذلك قبل عقد من الزمان.

وقلص التحول التكنولوجي قدرة المحللين البشريين على تقديم تحذيرات دقيقة بشأن تطورات قد تهدد الأمن، وهو ما أسهم في فشل الاستخبارات العسكرية في اكتشاف الهجوم المفاجئ الذي وقع في 7 أكتوبر 2023، ووفقًا لبعض القادة العسكريين السابقين، كانت هذه الأنظمة التقنية تعتمد بشكل مفرط على الخوارزميات، مما جعل من الصعب على المحللين أن يؤثروا في عملية اتخاذ القرارات العسكرية.

وأدت هذه الانتقادات إلى طرح أسئلة قانونية وأخلاقية حول دور الذكاء الاصطناعي في الحروب الحديثة، وخاصة في ما يتعلق بمسؤولية اتخاذ القرارات العسكرية، في وقت لاحق تعرضت ممارسات الاستخبارات الإسرائيلية للتدقيق بسبب الفشل في التصدي للهجوم الذي وقع في 7 أكتوبر، وهو ما دفع بعض القادة العسكريين إلى استقالاتهم في ضوء هذه الإخفاقات.

دور الذكاء الاصطناعي في الحروب

وأثار هذا النقاش العالمي الجدل حول دور الذكاء الاصطناعي في الحروب، حيث كانت القضايا التي طُرحت أمام محكمة لاهاي بشأن جرائم الإبادة الجماعية من قبل إسرائيل تستند إلى الاعتقاد بأن بعض القرارات الهامة في الهجمات قد اتُخذت باستخدام البرمجيات.

في النهاية، يتضح أن استخدام الذكاء الاصطناعي في السياق العسكري، على الرغم من مزاياه في تسريع العمليات الاستخباراتية واتخاذ القرارات، أثار العديد من المخاوف المتعلقة بالدقة والشفافية، وفي الوقت الذي سعى فيه الجيش الإسرائيلي إلى تحسين كفاءة عملياته باستخدام هذه التقنيات، واجه تحديات كبيرة تتعلق بموازنة هذه الفوائد مع الحاجة إلى الحفاظ على الحكم البشري والقدرة على اتخاذ قرارات مسؤولة ومتوازنة في سياق النزاعات المسلحة.

وحذّرت واشنطن بوست من أن استخدام الذكاء الاصطناعي في الحروب قد يؤدي إلى تضخيم تداعيات النزاع العسكري، ما يجعل الحاجة إلى مراجعة دور هذه التقنيات أكثر إلحاحًا لضمان عدم انتهاك حقوق الإنسان.



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية