عسكرة التكنولوجيا.. كيف اشتركت مايكروسوفت وغوغل في النزاعات المسلحة؟
عسكرة التكنولوجيا.. كيف اشتركت مايكروسوفت وغوغل في النزاعات المسلحة؟
في أعقاب التصعيد العسكري الذي شهدته المنطقة بعد 7 أكتوبر 2023، برز دور شركات التكنولوجيا الكبرى، مثل مايكروسوفت وغوغل، في تقديم دعم مباشر وغير مباشر للمجهود العسكري الإسرائيلي، من خلال توفير تقنيات الحوسبة السحابية والذكاء الاصطناعي، هذا التعاون أثار جدلاً واسعاً حول تداعياته على حقوق الإنسان في غزة، وألقى بظلال من الشكوك حول التزامات هذه الشركات الأخلاقية والقانونية في سياق النزاعات المسلحة.
تعتبر تقنيات الحوسبة السحابية أحد المحاور الرئيسية التي قدمت من خلالها الشركات الكبرى الدعم للجيش الإسرائيلي، وفقًا لتقارير متعددة، حيث بلغت قيمة العقود الموقعة بين وزارة الدفاع الإسرائيلية ومايكروسوفت وغوغل في إطار مشروع "نيمبوس" السحابي نحو مليار دولار أمريكي، وتتيح هذه العقود للجيش الإسرائيلي الوصول إلى خدمات حوسبة متقدمة تمكنه من تحليل البيانات بكفاءة عالية واتخاذ قرارات استراتيجية بشكل أسرع.
وأشار تقرير من منظمة "هيومن رايتس ووتش" إلى أن هذه القدرات قد تسهم في تعميق الانتهاكات ضد المدنيين في غزة، حيث تُستخدم تقنيات تحليل البيانات لتوجيه الضربات الجوية واستهداف الأفراد بناءً على معلومات استخباراتية يُعتقد أنها غير دقيقة في كثير من الأحيان.
أما الذكاء الاصطناعي، فقد أثبت أنه أداة فعالة تعزز من قدرات الجيش الإسرائيلي في تنفيذ عملياته، وتتضمن تطبيقات الذكاء الاصطناعي أدوات للتعرف على الصور وتحليل الفيديوهات، ما يساعد في مراقبة المناطق المدنية واستهداف ما يُزعم أنها “أهداف مشروعة”.
وفي هذا السياق، أظهرت دراسة أجرتها جامعة هارفارد عام 2023 أن نسبة الخطأ في الأنظمة التي تعتمد على الذكاء الاصطناعي في سياق النزاعات المسلحة قد تصل إلى 15%، وهي نسبة تعني أن هناك احتمالية كبيرة لاستهداف مدنيين أبرياء، ومع ذلك، تستمر هذه الشركات في تسويق تقنياتها على أنها حلول دقيقة وفعالة دون إيلاء الاعتبار الكافي للعواقب الإنسانية.
الاعتماد المتزايد على هذه التقنيات يثير تساؤلات أخلاقية حادة حول دور الشركات التكنولوجية في النزاعات المسلحة. يُذكر أن كلاً من مايكروسوفت وغوغل تواجهان انتقادات واسعة من منظمات حقوقية ونشطاء بسبب تورطهما في توفير هذه الأدوات، ونشرت منظمة العفو الدولية، تقريرًا في ديسمبر 2023 يشير إلى أن هذا التعاون يُعتبر شكلاً من أشكال التواطؤ في الانتهاكات الجسيمة للقانون الدولي الإنساني، بما في ذلك استهداف البنية التحتية المدنية في غزة، والتي تشمل المستشفيات والمدارس.
توفير الدعم التكنولوجي
وتشير إحصائيات البنك الدولي إلى أن الأضرار التي لحقت بالبنية التحتية في غزة نتيجة التصعيد الأخير تقدر بأكثر من 1.5 مليار دولار، وهو ما يعمق من معاناة السكان المحاصرين والذين يزيد عددهم على مليوني نسمة، وفي ظل استمرار هذه الشركات في توفير الدعم التكنولوجي، يُطرح السؤال حول مدى مسؤوليتها القانونية عن تعميق الأزمات الإنسانية.
وتبرر شركات التكنولوجيا الكبرى دورها في هذا السياق بالإشارة إلى عقودها التجارية والالتزامات القانونية مع الحكومات. وتؤكد مايكروسوفت وغوغل أن خدماتهما تُستخدم لأغراض متعددة، تشمل الأمن السيبراني وتطوير البنية التحتية الرقمية، وليس فقط للأغراض العسكرية، ومع ذلك، يرى الخبراء أن هذا التبرير لا يعفي هذه الشركات من مسؤوليتها الأخلاقية، حيث تشير المادة 16 من مشروع مواد لجنة القانون الدولي بشأن مسؤولية الدول عن الأعمال غير المشروعة دوليًا إلى أنه "لا يجوز لأي طرف تقديم مساعدة تسهل ارتكاب انتهاكات جسيمة لحقوق الإنسان".
وتمتد التداعيات أيضًا إلى المجال السياسي، حيث يُنظر إلى هذا التعاون كدليل على التواطؤ بين القطاع الخاص والحكومات في سياق النزاعات المسلحة. وأظهرت بيانات نشرتها منظمة "مراسلون بلا حدود" أن هناك ارتفاعًا ملحوظًا في استخدام تقنيات الرقابة الإلكترونية في الأراضي الفلسطينية المحتلة، حيث بلغت نسبة الزيادة 30% مقارنة بعام 2022، ويُعتقد أن هذه التقنيات تُستخدم لقمع حرية التعبير ومراقبة النشطاء والصحفيين، ما يعزز من بيئة الخوف والترهيب.
ويتجلى هذا التأثير بشكل خاص في غزة، حيث تواجه الصحافة المستقلة صعوبة متزايدة في توثيق الانتهاكات بسبب القيود التكنولوجية المتزايدة، ووثقت منظمة "الحق" الفلسطينية أكثر من 50 حادثة استهدفت الصحفيين منذ بدء التصعيد الأخير، ما يعكس الاستخدام المفرط للتكنولوجيا في السيطرة على المعلومات وتقييد تدفقها.
وفي ظل هذه التطورات، تُطرح دعوات متزايدة لمساءلة هذه الشركات أمام الهيئات الدولية، على سبيل المثال، طالبت مجموعة من 200 منظمة حقوقية حول العالم، في رسالة مفتوحة إلى الأمم المتحدة، بفتح تحقيق شامل حول دور شركات التكنولوجيا الكبرى في دعم العمليات العسكرية التي تنتهك القانون الدولي الإنساني، ودعت الرسالة أيضًا إلى وضع إطار قانوني ملزم يضمن شفافية عمل هذه الشركات ومحاسبتها عند تورطها في النزاعات المسلحة.
ومن الواضح أن الدور الذي تلعبه مايكروسوفت وغوغل في هذا السياق يتجاوز كونه مجرد شراكة تجارية، فالمسؤولية الأخلاقية لهذه الشركات تتطلب منها أن تعيد النظر في سياساتها وتقييم تأثير منتجاتها على حياة المدنيين، ورغم أن هذه الشركات تستثمر بشكل متزايد في مبادرات المسؤولية الاجتماعية، فإن هذه الجهود تبقى سطحية وغير كافية إذا ما قورنت بحجم الأضرار التي تسهم في تعميقها.
ضرورة سد الثغرات القانونية
وعلى المستوى القانوني، يتوجب على الحكومات والمنظمات الدولية أن تعمل على سد الثغرات القانونية التي تسمح للشركات الخاصة بالإفلات من المحاسبة، ويشير خبراء القانون الدولي إلى أن هناك حاجة ملحة لتحديث الإطار القانوني الذي يحكم دور القطاع الخاص في النزاعات المسلحة، بحيث يفرض عقوبات رادعة على الشركات التي تتورط في تقديم دعم مباشر أو غير مباشر للانتهاكات.
ويرى حقوقيون أن الدور الذي تلعبه شركات التكنولوجيا الكبرى في دعم المجهود العسكري الإسرائيلي يشكل تحديًا أخلاقيًا وقانونيًا كبيرًا يتطلب استجابة عاجلة من المجتمع الدولي. فمع استمرار التصعيد في غزة، تبقى حياة الملايين على المحك، وتستمر هذه الشركات في جني أرباح هائلة دون أن تتحمل عواقب أفعالها. وبينما يزداد الضغط على هذه الشركات لتغيير سياساتها، يبقى السؤال الأهم: إلى متى سيستمر هذا التواطؤ في ظل غياب المساءلة؟
تداعيات حقوقية خطيرة
وقالت الحقوقية الكويتية، مها برجس، إنَّ الدعم التكنولوجي الذي تقدمه شركات مثل مايكروسوفت وغوغل للجيش الإسرائيلي يثير تساؤلات جوهرية حول الالتزامات الحقوقية لهذه الشركات في سياق النزاعات المسلحة، حيث وكما يعلم الجميع تعتمد هذه الشركات على تبريرات تجارية لتقديم خدماتها، متجاهلة التداعيات الإنسانية الكارثية على المجتمعات المدنية، لا سيما في غزة، ومن منظور حقوق الإنسان، يُعدّ توفير تقنيات الحوسبة السحابية والذكاء الاصطناعي التي تُستخدم في تحسين العمليات العسكرية انتهاكاً ضمنياً لمبادئ القانون الدولي الإنساني، الذي ينص بوضوح على ضرورة حماية المدنيين من آثار الأعمال العدائية، وتتمثل إحدى القضايا الجوهرية في هذا السياق في مبدأ الحياد التكنولوجي، وتُعتبر شركات التكنولوجيا الكبرى جهات فاعلة غير حكومية، ومع ذلك فإنَّ دورها في تزويد أطراف النزاع بقدرات تقنية متقدمة يضعها في موقف يُناقض مبدأ الحياد.
وتابعت في تصريحات لـ"جسور بوست": تقديم أدوات مثل الذكاء الاصطناعي لتحليل البيانات الاستخباراتية أو تحسين استهداف الضربات الجوية يجعل هذه الشركات شريكة، وإن بشكل غير مباشر، في تنفيذ عمليات قد ترقى إلى جرائم حرب. على سبيل المثال، تُظهر المبادئ الأساسية لحقوق الإنسان، مثل الحق في الحياة والحق في الحماية من الاستهداف العشوائي، تعارضاً واضحاً مع استخدام هذه التقنيات في سياق عمليات عسكرية تُعرف بارتفاع احتمالية استهدافها للمدنيين في غزة، التي تُعد من أكثر المناطق اكتظاظاً بالسكان في العالم.
وقالت إن استخدام هذه التقنيات يؤدي إلى تفاقم الوضع الإنساني المتدهور أصلاً، وتُظهر الإحصائيات أنَّ الهجمات التي تعتمد على تقنيات الذكاء الاصطناعي غالباً ما تُخطئ في التمييز بين الأهداف المدنية والعسكرية، ما يؤدي إلى مقتل وتشريد آلاف المدنيين. وفقاً لمبادئ القانون الدولي الإنساني، مثل مبدأ التناسب، يتوجب على جميع أطراف النزاع تجنب استخدام القوة بشكل مفرط يسبب أضراراً غير مبررة للمدنيين. ومع ذلك، فإن توفير أدوات تحليل متقدمة تُسرع من اتخاذ القرارات العسكرية يُفاقم من عدم الامتثال لهذه المبادئ.
واسترسلت: هذه الشراكات تثير مخاوف أوسع حول تأثير التكنولوجيا على النزاعات المسلحة في المستقبل، وتعكس هذه القضية التحدي الأكبر المتمثل في عسكرة التكنولوجيا، حيث يتم تحويل الابتكارات التقنية التي تهدف إلى تحسين حياة البشر إلى أدوات تُستخدم لتدميرها، والتخوف الأكبر يكمن في إمكانية تصدير هذه النماذج إلى نزاعات أخرى حول العالم، ما يجعل الشركات الكبرى شريكاً فعلياً في تعميم أنماط جديدة من العنف المُمنهج.
وأشارت إلى أن هذا الاتجاه لا يقتصر على غزة، بل يمكن أن يمتد إلى مناطق نزاع أخرى، ما يُرسخ لسابقة خطيرة تُهدد المبادئ العالمية لحقوق الإنسان، ويتعدى التأثير المباشر على المدنيين ليشمل حرية التعبير وحقوق الخصوصية، وفي السياقات التي تُستخدم فيها تقنيات الرقابة والتحليل، تُصبح المجتمعات المُحاصرة عرضة لمراقبة مكثفة تحدّ من قدرتها على التعبير عن نفسها. في الحالة الفلسطينية، تشير تقارير حقوقية إلى تصاعد استخدام تقنيات المراقبة التي تُسهم في خلق بيئة من الترهيب والخوف، ما يؤثر على قدرة الأفراد على المطالبة بحقوقهم الأساسية، ويتعارض هذا الاستخدام مع المادة 19 من الإعلان العالمي لحقوق الإنسان، التي تكفل حرية الرأي والتعبير دون تدخل غير مبرر.
وشددت على أن المسؤولية الأخلاقية والقانونية للشركات التكنولوجية في هذا السياق لا يمكن التغاضي عنها، ووفقاً للمبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان، تقع على عاتق الشركات مسؤولية احترام حقوق الإنسان وتجنب التسبب أو المساهمة في انتهاكاتها، وبالنظر إلى الدور المحوري الذي تلعبه هذه الشركات في تزويد الأطراف العسكرية بالتقنيات التي تُستخدم بشكل واضح في النزاعات المسلحة، فإن استمرارها في تقديم هذه الخدمات يُعدّ إخفاقاً في الالتزام بهذه المبادئ.
وأتمت: يتوجب على المجتمع الدولي التحرك لمواجهة هذا التحدي المتنامي، ويجب أن تتضافر الجهود لوضع إطار قانوني واضح يفرض التزامات صارمة على الشركات التكنولوجية ويحاسبها عند تورطها في النزاعات المسلحة. غياب هذا الإطار يُمكن أن يؤدي إلى تفاقم الأزمات الإنسانية في أماكن مثل غزة ويُرسخ لسابقة خطيرة تُهدد مستقبل حقوق الإنسان على المستوى العالمي.
عسكرة التكنولوجيا
ومن الناحية التقنية، قال خبير الذكاء الاصطناعي والتقني المهندس محمود الخولي، إن هذه الشركات تُقدم خدمات تتجاوز البنية التحتية التكنولوجية التقليدية لتشمل أدوات متقدمة مثل التعلم العميق وتحليل البيانات الضخمة، هذه الأدوات تعمل على تحويل العمليات العسكرية إلى عمليات مدفوعة بالبيانات، ما يزيد من الكفاءة ولكنه يثير تحديات أخلاقية وتقنية خطيرة، فتقنيات الحوسبة السحابية والذكاء الاصطناعي تتيح للجهات العسكرية جمع ومعالجة كميات هائلة من البيانات في الزمن الحقيقي.
وقال الخولي، في تصريحات لـ"جسور بوست"، إن هذا يشمل بيانات الاستخبارات الميدانية، وصور الأقمار الصناعية، ومقاطع الفيديو التي يتم جمعها بواسطة طائرات بدون طيار، على سبيل المثال، خوارزميات التحليل القائمة على الذكاء الاصطناعي تُستخدم لتحديد الأهداف بدقة أكبر، ولكن الاعتماد الكبير على هذه الأنظمة قد يؤدي إلى أخطاء كارثية بسبب طبيعتها المُعتمدة على البيانات المدخلة إذا كانت البيانات غير مكتملة أو متحيزة، فإن النتائج قد تكون مدمرة وتؤدي إلى استهداف المدنيين أو البنية التحتية المدنية.
وأشار إلى أن واحدة من القضايا التقنية البارزة هي مسألة "الصندوق الأسود" في أنظمة الذكاء الاصطناعي، فهذه الأنظمة غالبًا ما تكون معقدة للغاية بحيث يصعب تفسير قراراتها، وهو ما يجعل مساءلتها تحديًا كبيرًا، عندما يتم استخدام خوارزميات الذكاء الاصطناعي في اتخاذ قرارات عسكرية، مثل توجيه ضربات جوية، فإن غياب الشفافية يثير مخاوف حول إمكانية محاسبة الأطراف المتورطة عند حدوث أخطاء. هذه المشكلة تتعارض مع المبادئ الأساسية للشفافية والمساءلة التي يجب أن تحكم جميع العمليات العسكرية.
وتابع أن تقديم تقنيات الحوسبة السحابية للجهات العسكرية يثير تساؤلات حول أمن البيانات، في البيئات العسكرية، حيث تُعتبر البيانات أحد أهم الأصول الاستراتيجية، ويمكن أن تؤدي الهجمات السيبرانية إلى عواقب وخيمة، في حال اختراق منصات الحوسبة السحابية التي تقدمها شركات مثل مايكروسوفت وغوغل، ويمكن أن تُستخدم هذه البيانات الحساسة ضد الأطراف ذاتها التي تسعى لاستخدامها، وهذا السيناريو يسلط الضوء على الحاجة الملحة لضمان وجود معايير أمان عالية المستوى.
وأكد أن تقنيات الذكاء الاصطناعي والحوسبة السحابية لا تقتصر فقط على تعزيز العمليات الهجومية، بل تُستخدم أيضًا لتعزيز قدرات المراقبة والسيطرة، فالأدوات التي تعتمد على تحليل الفيديوهات والتعرف على الوجه تُستخدم لتعقب الأفراد في مناطق النزاع، ما يثير مخاوف حول انتهاكات الخصوصية. هذه التقنيات، وإن كانت تُبرر بأنها ضرورية للأمن القومي، إلا أنها تُستخدم أيضًا لتقييد الحريات الأساسية مثل حرية التنقل والتعبير، خاصة في المناطق الخاضعة للاحتلال أو السيطرة العسكرية.
وعن تداعيات هذه الشراكات التقنية التي تمتد إلى أبعد من النزاعات الحالية، قال إن التعاون بين شركات التكنولوجيا الكبرى والجهات العسكرية يُرسخ سابقة لعسكرة التكنولوجيا، ما يفتح الباب أمام استخدام مماثل في نزاعات مستقبلية حول العالم. هذه الديناميكية قد تؤدي إلى تسريع وتيرة التسلح التكنولوجي، ما يجعل الحروب أكثر تعقيدًا وأقل خضوعًا للقوانين الدولية.
وأتم: المسؤولية التقنية والأخلاقية تقع على عاتق شركات التكنولوجيا الكبرى، فالمبادئ الأخلاقية لتطوير الذكاء الاصطناعي، مثل الإنصاف والشفافية وعدم التسبب في الضرر، يجب أن تكون جزءًا أساسيًا من أي شراكة تقنية مع الجهات العسكرية، ومع ذلك، فإن غياب أطر تنظيمية واضحة يترك المجال مفتوحًا أمام إساءة استخدام هذه التقنيات، ويجب أن يتحمل المجتمع التقني العالمي مسؤولية تطوير معايير وقوانين دولية تنظم استخدام الذكاء الاصطناعي والحوسبة السحابية في النزاعات المسلحة.