مستقبلنا الرقمي.. هل يقودنا الذكاء الاصطناعي إلى عصر انتهاك الحقوق؟

مستقبلنا الرقمي.. هل يقودنا الذكاء الاصطناعي إلى عصر انتهاك الحقوق؟
الذكاء الاصطناعي وحقوق الإنسان- تعبيرية

في غمرة الثورة التكنولوجية التي يشهدها العالم، يبرز الذكاء الاصطناعي (AI) كقوة دافعة تحول حياتنا من جذورها.. فبينما يعد بتحسينات هائلة في مجالات الطب، والتعليم، والنقل، يثير في الوقت ذاته مخاوف جدية حول تأثيره على حقوق الإنسان الأساسية، إنها قضية عالمية وملحة، تطرح تساؤلات حاسمة حول حدود استخدام هذه التقنية المتسارعة في الأمن، والقضاء، وسوق العمل، والرقابة المجتمعية.

بدأ الذكاء الاصطناعي كحلم علمي في خمسينيات القرن الماضي، لكن تسارعت تطوراته خلال العقدين الأخيرين مع تضاعف قدرات المعالجة وتراكم البيانات الرقمية الهائلة. منذ عام 2012، وبعد نجاح “الشبكات العصبية العميقة”، تحولت الآلات إلى منافس حقيقي للذكاء البشري في مجالات مثل اللغة والصورة.

في البداية، رحبت المجتمعات بالتطبيقات التي سهّلت الحياة اليومية، من الترجمة الفورية إلى المساعدات الصوتية، لكن مع ظهور تقنيات مثل التعرف على الوجه والتنبؤ الجرمي والروبوتات المستقلة، تحوّل النقاش إلى سؤال جوهري: من يتحكم بهذه التقنيات؟ ولخدمة من؟

تقارير أممية تدعو للتحرك

في تقرير صدر عام 2021، حذّرت مفوضة الأمم المتحدة السامية لحقوق الإنسان، ميشيل باشيليت، من أن “الاستخدام غير المنضبط للذكاء الاصطناعي قد يهدد الحق في الخصوصية، ويعمّق التمييز، ويقوّض الحقوق الاقتصادية والاجتماعية”، ودعت باشيليت إلى فرض حظر على أنظمة الذكاء الاصطناعي التي تشكل “خطراً لا يمكن التخفيف منه على حقوق الإنسان”.

وأكدت اليونسكو في تقرير نشرته عام 2023 ضرورة وضع قواعد حوكمة صارمة، مشيرة إلى استخدام خوارزميات التنبؤ الإجرامي والمراقبة الجماعية دون ضمانات قضائية في عشرات الدول، ما يهدد سيادة القانون.

وشهدت السنوات الماضية اعتمادًا متزايدًا على خوارزميات الذكاء الاصطناعي لتوقّع الجرائم، وتحديد المخاطر، وحتى في إصدار الأحكام القضائية التجريبية، ففي الصين، توسّعت السلطات في استخدام تقنيات التعرف على الوجه لرصد ملايين المواطنين، فيما تستخدم الشرطة في الولايات المتحدة “خوارزميات التنبؤ الجرمي” لتحديد المناطق والأشخاص الأكثر احتمالًا لارتكاب جرائم.

لكن تقارير منظمات حقوقية، منها هيومن رايتس ووتش ومنظمة العفو الدولية، أظهرت أن هذه الأنظمة غالبًا ما تكون متحيزة عرقيًا وجندريًا، ما يؤدي لتكريس التمييز بدلاً من تقليصه، وعلى سبيل المثال، أشار تقرير صادر في 2022 إلى أن معدل الخطأ في أنظمة التعرف على الوجه تجاه الأمريكيين من أصول إفريقية يزيد بثلاثة أضعاف عن المعدل تجاه ذوي البشرة البيضاء.

العمل والبطالة الرقمية

لا يقتصر تأثير الذكاء الاصطناعي على الحقوق المدنية والسياسية، بل يمتد ليشمل الحقوق الاقتصادية والاجتماعية، ففي سوق العمل يثير الانتشار المتزايد للأتمتة والذكاء الاصطناعي مخاوف جدية بشأن فقدان الوظائف وتزايد الفجوة الاقتصادية.

وتشير تقديرات المنتدى الاقتصادي العالمي لعام 2023 إلى أن الذكاء الاصطناعي قد يؤدي إلى إزاحة ملايين الوظائف في قطاعات معينة، بينما يخلق وظائف جديدة تتطلب مهارات مختلفة.. السؤال هنا هو: كيف سيتم التعامل مع هذه التحولات لضمان حماية الحق في العمل والعيش الكريم؟

ويطرح استخدام الذكاء الاصطناعي في إدارة الموظفين ومراقبتهم تساؤلات حول الحق في الكرامة الإنسانية والخصوصية في مكان العمل، ويمكن لأنظمة المراقبة المدعومة بالذكاء الاصطناعي تتبع كل حركة للموظف، ما يخلق بيئة عمل خانقة ويقلل من الاستقلالية والابتكار.

ويؤكد تقرير أصدرته منظمة العمل الدولية في 2023 أن الذكاء الاصطناعي قد يؤدي إلى “استبدال ملايين الوظائف البشرية، خصوصًا في قطاعات الخدمات والمحاسبة والترجمة والإعلام”، مع تقديرات تشير إلى تهديد نحو 300 مليون وظيفة حول العالم.

ويرى البعض أن الذكاء الاصطناعي سيخلق وظائف جديدة في مجالات تطوير وصيانة الأنظمة، لكنه في الغالب سيزيد الفجوة بين العمالة منخفضة المهارات وأصحاب الكفاءات التكنولوجية العالية، ما يهدد مبدأ تكافؤ الفرص.

الحق في الخصوصية

أصبح جمع البيانات وتحليلها في صلب عمل الذكاء الاصطناعي، حيث تُستخدم البيانات الشخصية لتدريب الخوارزميات وتحسين خدمات الشركات.. لكن في غياب تشريعات فعّالة، تتحول هذه البيانات أحيانًا إلى أداة للرقابة والتضييق على حرية التعبير.

في دراسة نشرها “مجلس أوروبا” في 2023، أبدى 68% من المشاركين قلقًا بالغًا من سوء استخدام بياناتهم، خصوصًا في سياق الانتخابات أو الحملات السياسية، بينما أعرب 72% عن خشيتهم من الرقابة غير القانونية.

وحتى في الحالات التي يُفترض أن يكون فيها الذكاء الاصطناعي موضوعيًا، تُظهر الدراسات أن الخوارزميات تتأثر بتحيزات البيانات التي دُرّبت عليها. فعلى سبيل المثال، أشار تقرير صادر عن مركز AI Now Instituteفي نيويورك إلى أن نظم تقييم السيرة الذاتية تميّز ضد النساء والمرشحين من أقليات عرقية بسبب اعتمادها على بيانات تاريخية غير متوازنة.

مؤشرات حديثة وأرقام

بحسب تقرير المنتدى الاقتصادي العالمي 2024، 85% من مسؤولي الشركات الكبرى يخططون لاستخدام الذكاء الاصطناعي في تقييم الموظفين خلال السنوات الخمس المقبلة.

الاتحاد الأوروبي اعتمد في 2024 أول قانون شامل لتنظيم الذكاء الاصطناعي، يمنع استخدام بعض التطبيقات عالية الخطورة مثل “نظام الائتمان الاجتماعي” ويضع قواعد صارمة للشفافية.

تقرير “العفو الدولية” في 2023 وثّق استخدام الذكاء الاصطناعي في استهداف نشطاء وصحفيين في 7 دول حول العالم.

مركز PEW للأبحاث كشف أن 42% من الأمريكيين يؤيدون الحد من تطوير تقنيات الذكاء الاصطناعي لأسباب أخلاقية.

دعوات لحوكمة عادلة

تطالب منظمات حقوقية بضرورة اعتماد قوانين تحمي المستخدمين وتفرض الشفافية على الشركات المطوّرة. وأكدت مفوضية الأمم المتحدة لحقوق الإنسان على وجوب “دمج مبادئ حقوق الإنسان في مراحل تصميم وتطوير واستخدام الأنظمة الذكية”.

في السياق ذاته، اقترحت المفوضية الأوروبية إنشاء لجنة رقابية دولية للذكاء الاصطناعي، على غرار الوكالة الدولية للطاقة الذرية، لتقويم المخاطر العالمية.

وبينما يَعِد الذكاء الاصطناعي بتحسين الرعاية الصحية والتعليم والخدمات، يبقى الخطر قائمًا إذا تُرك بلا تنظيم: خطر أن يتحول إلى أداة لتوسيع الفوارق الاجتماعية، أو لتقويض الحقوق الأساسية للبشرية.

وسبق أن حذّر الأمين العام للأمم المتحدة أنطونيو غوتيريش، من أن الذكاء الاصطناعي قد يشكل خطرا على السلم والأمن على المستويين المحلي والدولي، داعيا الدول الأعضاء إلى وضع ضوابط لإبقاء التقنية تحت السيطرة.

وقال غوتيريش في جلسة هي الأولى التي يخصّصها مجلس الأمن في يوليو 2023 للبحث في مسألة الذكاء الاصطناعي: "من الجلي أن الذكاء الاصطناعي سيكون له تأثير على جميع مناحي الحياة".

وتابع: "الذكاء الاصطناعي التوليدي لديه إمكانيات هائلة للخير والشر"، مشيرا إلى أن التقنية قادرة على المساعدة في تحقيق أهداف التنمية المستدامة عبر تعظيم الإنتاج وتطويره ووضع حد للفقر أو علاج السرطان، ومن الممكن أيضا أن يكون لها "عواقب خطيرة جدا على السلام والأمن الدوليين وحقوق الملكية الفكرية".

 



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية