الذكاء الاصطناعي يُهدد العدالة الوظيفية.. خطة ترامب لـ"أتمتة الحكومة" تُفاقم التمييز

الذكاء الاصطناعي يُهدد العدالة الوظيفية.. خطة ترامب لـ"أتمتة الحكومة" تُفاقم التمييز
الرئيس الأمريكي دونالد ترامب - أرشيف

"الاكتئاب الآن أعمق من طلاقي، أشد من وفاة والدتي بالسرطان" هكذا عبّر أحد الموظفين السابقين في وزارة شؤون المحاربين القدامى عن معاناته إثر فصله المفاجئ ضمن حملة فصل جماعية نظّمتها إدارة ترامب.

لم يكن حديثه لصحيفة "واشنطن بوست" حالة فردية، بل انعكاسًا لصورة أوسع لطريقة جديدة في إدارة الدولة: استبدال البشر بأنظمة رقمية تعتمد على الذكاء الاصطناعي، دون مراعاة التأثيرات النفسية أو الحقوقية على المعتدى عليهم أو على المجتمع ككل.

في منتصف يوليو، أُعلن عن خطة شاملة ترفع لأتمتة مؤسسات الدولة الفيدرالية، بلا استثناء. الهدف، كما تروّج له الإدارة، هو تعزيز الكفاءة وخفض النفقات، لكن في الواقع، يضيع شيء أساسي: الإنسان، حيث تتقلص الوظائف، النساء يتحدين الطرد، والأقليات تحرم من أصوات تتحدث عن احتياجاتهن الخاصة أو توفر فرصهن الأساسية.

وبدأ التنفيذ بالفعل مع نهاية مايو الماضي، حين أكدت "واشنطن بوست" أن الإدارة مارست ضغوطًا داخلية لإحداث "صدمة نفسية" بين الموظفين، تمهيدًا لفصل جماعي واسع النطاق، أحد مسؤولي البيت الأبيض أقرّ بأن الهدف هو "دفع الموظفين الفيدراليين إلى حالة من الصدمة والإرباك"، قبل أن تصبح الخطة الانتقال إلى الذكاء الاصطناعي أنسب.

انطلق المشروع من وزارة شؤون المحاربين القدامى كأول تجربة حقيقية، يثول ريتشارد ميدجيت، موظف شاب مُنح الوظيفة للتو ثم طُرد فجأة، بات يراوغ الصدمة، ويتحدث بصراحة عن معاناته مع الاكتئاب، بناءً عليه، ظهر اتجاه واضح: "بأي آلية سنساعد الموظفة التي تُسرّح من عملها؟"، سأل أحد الصحفيين، الجواب:"لا شيء.. لم تُقدّم أي خطط لمساعدتها في الانتقال النفسي أو المهني".

ومع تزايد حالات الفصل تحت حجج "تحسين الأداء" أو "التقليص"، بات الموظفون يعيشون على حافة تفاقم أزمة نفسية، أحيانًا تتجه إلى الانتحار.

توثيق أولى التطبيقات الحكومية

وفي تقرير نُشر في 14 يوليو من "واشنطن بوست"، تم توثيق أولى التطبيقات الحكومية: في البنتاغون، استخدموا نظام NGA Maven الذي طُوّر أساسًا عام 2017، لكنه توسّع سريعًا خلال الأشهر الماضية، النظام -بدعم مالي قدره 795 مليون دولار في مايو- يقوم بتحليل بيانات الأقمار الصناعية لتحديد أهداف محتملة، مستبدلًا عنصر بشرى في بعض حالات المعاينة الأولية.

وتبدو النتائج أشبه بـ"خريطة مباشرة" للعمليات، ولكن أي خطأ خوارزمي يحتمل أن يؤدي إلى كارثة بحق مدنيين أو جنود.

أما في إدارة الطيران الفيدرالية، فعُقدت اجتماعات عدّة حول تقليل عدد المراقبين البشر، والاعتماد على أجهزة ذكية تنبه الطيارين في حال ظهور خلل أو جسم غريب.

ويبقى القرار المتوقع: بقاء موظف بشري للإجابة فقط، بينما يتولى الذكاء الاصطناعي مراقبة كل التفاصيل الدقيقة، والدفع وراء ذلك هو أزمة نقص الطواقم والتكاليف المتزايدة.

وجاء بعدها الدور على مصلحة الضرائب (IRS)، التي بدأ مشروع لتفويض الذكاء الاصطناعي بمهام التدقيق والإبلاغ.

ووصل الأمر إلى إدارة أمن المطارات (TSA)، حيث تُطبَّق كاميرات التعرف على الوجه في أكثر من 200 مطار، تحذر التقارير الفيدرالية من أن النظام ليس دقيقًا لدى أصحاب البشرة الداكنة، ما يفتح الباب أمام أخطاء مروّعة أو حتى احتجاز خاطئ، رغم هذه التحذيرات، الإعلان عن إزالة العنصر البشري بالكامل ما زال ضمن الرؤية المستقبلية للخطة.

أخيرًا، برنامج Reach Vet في وزارة شؤون المحاربين القدامى أثار جدلًا أوسع، هذا النظام مخصص لـ"تحديد المحاربين الأكثر عرضة للانتحار"، لكن تحقيقا لمنصة "مشروع فولر"، أظهر أنه تجاهل النساء في مراحله الأولى، البرنامج قرأ البيانات المرفوعة على أنها تشير إلى أولويات الذكور، خاصة المطلقين منهم، فترك نساء واجهن واقعًا مشابهًا من الصدمة والانتحار، لكن دون تدخل فوري.

النساء والأقليات "أول الضحايا"

يجعل منطق الأتمتة المرأة وصاحب البشرة الداكنة يتعرضان لقرار ذكي قاسٍ يصيبهن أكثر من الآخر، فالنساء اللاتي واجهن صدمات نفسية داخل الوزارة لا يتم تفحّص بياناتهن بالأولوية نفسها، لأن الخوارزميات لم تُبرمج لتضيء حساسية مؤهلاتهن الخاصة.

وفي المطارات، تستهدف التقنية التعرف على الفرد، ولكنها بدت قاصرة تجاه الركاب ذوي البشرة الداكنة، ولا دليل على وجود إطار رقابي يُنقذهم من رجال آليين.

ولعل أكثر ما يؤلم هو أن النساء والفقراء أصبحوا "بيانات غير مدروسة" أمام أجهزة الحكومة، وحقوقهم يتم استبعادها بصمت.

خلال الربع الأخير من 2023، أصدر الرئيس بايدن قرارًا إلزاميًا بتصنيف كل برامج الذكاء الاصطناعي التي تُستخدم في الدولة، وتخبر المواطنين بها، خصوصًا تلك التي تمس الحق في الصحة أو الحقوق الأساسية، لكن هذا التصنيف ألغته إدارة ترامب فور توليها السلطة، في خطوة رسمت خطوطًا جديدة حول "السرية التلقائية".

ولا يوجد حتى اليوم ما يُفصح عن عدد البرامج عالية التأثير أو البيئات التي تُستخدم فيها. 

العدالة الحكومية

على الرغم من قوة الذكاء الاصطناعي، فهو لا يفهم حقوق الإنسان، ولا يفهم الاختلاف، ولا يقرأ أوراق الانتحار أو التفكك النفسي، هو يعطي أرقامًا، وتلك الأرقام تُنطق بقرارات مبررة بصيغة "أمر التشغيل إلكترونيًا".

يظهر الذكاء الاصطناعي أمام "الموظف المُسرّح" بلا دعم نفسي يُعيد إنتاج نبض أمل، أو خطة بديلة، بل بلا رحمة، فهو يأخذ قرارات حول حياته: هل يستحق المعونة؟ هل يُسمح له بالبقاء موظفًا؟ بمعنى أن المسؤوليات باتت تُنفّذ ببرامج لا تعرف معنى الرحمة أو الإنصاف.

وعندما تتحدث عن الذكاء الاصطناعي كبديل، تخاطر بأن تصبح تفاصيل الإدارة مجرد إشارات لخوارزمية بلا ضمير أو حفظ حقوق، المرأة الفقيرة لم تعد واحدة من أرقام الأجور، بل واحدة من عناصر على "لوحة بيانات" ملغاة، 

 



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية