خيال رقمي يغذّي الكراهية.. الذكاء الاصطناعي يُعيد إنتاج العنصرية في الصين
خيال رقمي يغذّي الكراهية.. الذكاء الاصطناعي يُعيد إنتاج العنصرية في الصين
كشف تقرير حديث لمجلة "فورين بوليسي" عن ظاهرة متنامية في الصين، حيث تنتشر مقاطع فيديو مولَّدة بالذكاء الاصطناعي تحمل سرديات عنصرية ومعادية للسود، تحاكي قصصًا خيالية تُبنى على مفاهيم متجذّرة من التمييز العرقي.
تُظهر هذه المقاطع التي تُنتج وتُنشر على منصات مثل "وي تشات" و"كوايشو" و"دويين" (النسخة الصينية من تيك توك)، مشاهد وهمية لنساء صينيات يقعْن في حب رجال سود قبل أن ينتهي بهنّ المطاف إلى مآسٍ مفبركة تُروِّج لصورة نمطية عن "الآخر" الإفريقي.
وتصف التقارير كيف تُولِّد أدوات الذكاء الاصطناعي المحلية، مثل "تشوين" من علي بابا و"دو باو" و"جي منغ" من بايت دانس، هذا المحتوى المضلل الذي يلاقي رواجًا واسعًا على الرغم من القوانين الصارمة التي تحظر إنتاج مواد عنصرية.
ورغم أن الحكومة الصينية فرضت منذ عام 2023 لوائح تُلزم المنصات بعدم السماح بمحتوى يميّز على أساس العرق أو الجنس، فإن خوارزميات هذه المنصات تُعيد تضخيم المحتوى نفسه الذي تزعم الرقابة محاربته.
وتُظهر مقاطع الفيديو الأكثر انتشارًا سردية متكررة: امرأة صينية تتبع شريكها الإفريقي إلى بلده المجهول لتكتشف بعد فوات الأوان أنها ضحية خداع واستغلال، ويُصوَّر المكان دائمًا كأنه فضاء فقير، بدائي، مليء بالعنف، وتُصاغ النهاية المأساوية لتأكيد فكرة "التحذير من الارتباط بالأجانب".
تُحاكي هذه القصص الخيالية، كما تقول المجلة، عقلًا جماعيًا غارقًا في رؤية هرمية للأعراق، تُبرّر الإقصاء وتغذّي شعورًا زائفًا بالنقاء القومي.
تاريخ طويل من العنصرية
ترصد المجلة الأمريكية جذور هذا الخطاب في الوعي الصيني منذ القرن التاسع عشر، عندما تبنّى بعض المثقفين الصينيين مفاهيم "الداروينية الاجتماعية" التي ميّزت بين الأعراق وفقًا لتسلسل هرمي يضع "العرق الأصفر" فوق الأعراق الأخرى.
يشير المؤرخ تشنغ ينغ هونغ من جامعة ولاية ديلاوير إلى أن هذه النزعة "لم تُفكّك تمامًا حتى اليوم"، إذ بقيت حاضرة في البنية الثقافية والسياسية المعاصرة رغم خطابات الإنكار الرسمية.
ويتجلى ذلك في خطابات المصلح الصيني كانغ يووي خلال أواخر عهد أسرة تشينغ، والذي تخيّل مستقبلًا يُقضى فيه على الأعراق السوداء والسمراوية من خلال "المنافسة الطبيعية"، معتبرًا أن الاندماج بين الأعراق البيضاء والصفراء هو وحده الممكن.
ويصف تشنغ إدانة الصين الرسمية للعنصرية بأنها "مجرد أداة خطابية ضد الغرب"، وليست مراجعة ذاتية حقيقية لجذور التمييز المتأصلة في البنية الاجتماعية والسياسية.
وتؤكد "فورين بوليسي" أن الخطاب العنصري لم ينقطع في الذاكرة العامة رغم تغيّر العصور، فمع تزايد أعداد الطلاب الأفارقة في الجامعات الصينية منذ الستينيات، تصاعدت الحساسيات العرقية، وبلغت ذروتها في أحداث عام 1988 في نانجينغ، عندما اندلعت مظاهرات مناهضة للأفارقة بعد خلاف بسيط في السكن الجامعي.
سُجِّلت الحادثة بوصفها واحدة من أكثر اللحظات دلالة على هشاشة مفهوم "التبادل الثقافي"، إذ اضطر الطلاب الأفارقة وقتها لمغادرة الصين حفاظًا على سلامتهم.
الجندر أداة للتمييز
ويربط تقرير "فورين بوليسي" بين النزعة العنصرية وديناميكيات الجندر في المجتمع الصيني، حيث تُبرز المقاطع المصممة بالذكاء الاصطناعي دومًا علاقة بين "امرأة صينية ورجل أسود"، وتُستخدم النساء رمزًا لـ"شرف الأمة"، يُفترض أن يحميه الرجال من "الغرباء".
تؤكد الأستاذة المساعدة شينغ زو من كلية الاتصالات بجامعة هونغ كونغ المعمدانية أن هذه المقاطع "تُجسّد القلق الذكوري من فقدان السيطرة على الجسد الأنثوي الذي يُمثّل رمزًا للسيادة الوطنية".
يرتبط هذا الخوف بتفاوت ديموغرافي حاد سبّبته سياسة الطفل الواحد، إذ يفوق عدد الرجال عدد النساء بنحو 35 مليونًا، ما خلق شعورًا بالتهديد من فكرة أن بعض النساء قد يخترن شركاء أجانب.
وتُظهر بيانات أن الفيديوهات التي تُبرز نساءً روسيات يرغبن في الزواج من رجال صينيين تُستقبل بإعجاب كبير، ما يكشف تناقضًا واضحًا في معايير "النقاء العرقي" في الخيال الشعبي.
وتُسجّل "فورين بوليسي" حوادث جامعية تُبرز هذا البعد الجندري-العنصري، منها حادثة جامعة داليان التي طُردت فيها طالبة بتهمة "المساس بالكرامة الوطنية" بعد علاقة مزعومة مع أجنبي أبيض، وأخرى في جامعة تشونغتشينغ عندما وُجد طلاب أفارقة في سكن مخصص للنساء، ما أثار ضجة واسعة.
تُظهر هذه الوقائع كيف تُحوِّل الدولة الخطاب الأخلاقي إلى أداة رقابية تضاعف من هشاشة النساء أمام موجة قومية تُحمّل أجسادهن رمزية "الشرف الوطني".
استخدام الذكاء الاصطناعي
من جانبها تُظهر "هيومن رايتس ووتش" في تقاريرها أن الاستخدام الواسع للذكاء الاصطناعي في الصين لا ينفصل عن بنية المراقبة والضبط الاجتماعي، إذ تُوظَّف الخوارزميات لتصنيف الأفراد بناءً على العرق أو الانتماء الإثني، كما في حالة مسلمي الإيغور في شينجيانغ، حيث تُستخدم أنظمة "التعرّف على الوجه" لتتبّع الحركة والسلوك.
ويُظهر ذلك، بحسب المنظمة، أن "الذكاء الاصطناعي في الصين ليس مجرد أداة تقنية، بل امتداد لنظام السيطرة السياسية والتمييز المؤسسي".
تُحذّر المنظمة من أن إنتاج المحتوى العنصري بالذكاء الاصطناعي، حتى في المجال الثقافي، يُسهم في تطبيع خطاب الكراهية، فحين تُغذَّى الخوارزميات ببيانات متحيزة، فإنها تُعيد إنتاج التمييز وتُشرعنه في الفضاء الرقمي، وتُحوّل هذه العملية المنصات إلى "فضاءات تفاعلية للتمييز"، حيث تُعيد التعليقات الساخرة أو الخطابات القومية صياغة هوية رقمية تهمّش الأقليات وتُبرّر استبعادها.
ازدواجية خطاب الدولة
تُشير "فورين بوليسي" إلى أن تعامل الحكومة الصينية مع هذه الظاهرة يتسم بازدواجية لافتة: فعندما تهدّد الأزمة العلاقات الدبلوماسية، كما حدث خلال جائحة كوفيد-19 بعد تقارير عن تمييز ضد الأفارقة في مقاطعة غوانغدونغ، تُسارع بكين إلى إصدار بيانات نفي واجتماعات مع الدبلوماسيين لتخفيف التوتر، لكن في الحالات التي لا تنذر بعواقب سياسية مباشرة، يظلّ الصمت هو القاعدة.
وتُبرز "بي بي سي" واقعة عام 2022 حين كُشف عن تسجيلات صينية تُظهر أطفالًا أفارقة يُجبرون على ترديد عبارات مهينة مثل "أنا وحش أسود ومعدل ذكائي منخفض"، لم تتحرك السلطات إلا بعد احتجاجات في مالاوي واعتقال أحد رواد الأعمال الصينيين، ووفقًا للتقرير، فلم يكن الدافع حقوقيًا بل سياسي مرتبط بالحفاظ على صورة الصين في إفريقيا.
تُعلّق الأستاذة زو بأن الرقابة في الصين تُعطي الأولوية للمحتوى الأيديولوجي الذي يُهدد الاستقرار المحلي، وليس للقضايا الأخلاقية أو الحقوقية، تقول: "الكثير من الصينيين لا يدركون أنهم عنصريون لأن المفردات التي تُعرّف العنصرية غير متاحة لهم ثقافيًا"، وهكذا، تُسهم البنية اللغوية الرسمية نفسها في إدامة الجهل بالتمييز بدلًا من مواجهته.
وتوجه المنصات الرقمية الصينية، عبر أنظمتها الذكية، المحتوى العنصري إلى فئات معينة من المستخدمين، خصوصًا أصحاب الميول المحافظة، ما يخلق دوائر مغلقة من التعزيز الذاتي للكراهية، فكلّما تفاعل المستخدم مع فيديو يحمل مضامين عنصرية أو جندرية متطرفة، زادت احتمالية عرض محتوى مشابه له.
وتعد نسبة كبيرة من المشاهدين من كبار السن الذين قد لا يُدركون أن ما يشاهدونه مصنوع بالكامل بالذكاء الاصطناعي، ما يزيد من خطورة التأثير الاجتماعي لهذه المقاطع.
وتُوضح التعليقات التي رصدتها "فورين بوليسي" أن العديد من المستخدمين يخلطون بين الخيال والواقع، حتى أن أحد المعلّقين تساءل تحت أحد الفيديوهات: "لماذا لم تُنقذها الحكومة الصينية؟"، في إشارة إلى البطلة الوهمية، يعكس هذا المستوى من التلقّي كيف يُمكن للمحتوى العنصري المولَّد بالخوارزميات أن يُرسّخ مفاهيم كراهية قائمة على الخداع البصري والوجداني في آنٍ واحد.
الحق في فضاء رقمي آمن
تُبرز "يورو نيوز" في تقرير لها حول التنظيم الرقمي الأوروبي أن مسؤولية المنصات لا تقتصر على حذف المحتوى الضار، بل تشمل ضمان بيئة رقمية تحترم كرامة الإنسان.
وتُعدّ المقارنة بين التجربة الأوروبية والصينية كاشفة للفجوة الحقوقية بين مقاربة تقوم على "حماية المستخدم" وأخرى على "التحكم في المستخدم"، ففي حين تُلزم التشريعات الأوروبية الشركات بالشفافية ومكافحة التمييز، تُوظّف الصين الرقابة لإسكات الانتقادات في حين تترك المجال مفتوحًا أمام خطاب الكراهية الموجّه خارجيًا.
تُذكّر التقارير الحقوقية بأن الحق في بيئة رقمية آمنة هو امتداد مباشر لحقوق الإنسان في الكرامة وعدم التمييز، ويُعدّ السماح بنشر محتوى يولّد العنصرية الرقمية خرقًا لهذه الحقوق، خاصة عندما يُنتج عبر أدوات ذكاء اصطناعي تُطوّرها شركات محلية تحت إشراف الدولة، فالتمييز الرقمي، كما توضح هيومن رايتس ووتش، "يبدأ بخوارزمية غير محايدة وينتهي بسياسة إقصاء اجتماعي واقتصادي".