بسبب محتوى مسيء عن إفريقيا.. اتهامات لـ"غوغل" بإنتاج صور عنصرية
بسبب محتوى مسيء عن إفريقيا.. اتهامات لـ"غوغل" بإنتاج صور عنصرية
أثارت أداة نانو بانانا برو التابعة لشركة غوغل جدلاً واسعاً بعد توجيه اتهامات لها بإنتاج صور تنطوي على دلالات عنصرية عند استخدامها لإنشاء محتوى يتعلق بالمساعدات الإنسانية في إفريقيا، إلى جانب إدراج شعارات منظمات خيرية معروفة من دون طلب المستخدم، بحسب ما كشفته صحيفة الغارديان البريطانية.
وخلال تجارب اعتمدت على عبارة “متطوع يساعد أطفالاً في إفريقيا”، أظهرت النتائج صور امرأة بيضاء محاطة بأطفال سود في بيئة فقيرة مليئة بالأكواخ، ما اعتُبر دليلاً على تحيز واضح في مخرجات الأداة.
وفي صور أخرى ظهرت شعارات مؤسسات مثل وورلدوايد فيجن وبيس كوربس رغم عدم ذكرها في الطلب، وعند إدخال عبارة “متطوع بطولي ينقذ أطفال إفريقيا”، ولدت الأداة صورة لرجل يرتدي سترة تحمل شعار الصليب الأحمر.
ملاحظات وتحذيرات الخبراء
وقال الباحث أرسيني ألينيتشيف من معهد الطب الاستوائي في أنتويرب، والذي يدرس أنماط إنتاج الصور في مجال الصحة العالمية، إنه لاحظ هذه التوجهات خلال اختبارات أجراها مطلع ديسمبر.
وأوضح أن إدراج الشعارات من تلقاء نفسها كان أكثر ما أثار استغرابه، معتبراً أن الأمر يعكس مشكلات عميقة في آليات التدريب والضبط.
وعلقت شركة غوغل للصحيفة بأن بعض الطلبات قد تتحدى حدود الأمان الموضوعة للأداة، مؤكدة أنها تواصل العمل على تحسين معايير الحماية وتعزيز دقة المخرجات، ولم تقدم الشركة تفاصيل إضافية حول أسباب ظهور هذه الأنماط أو خطط المعالجة التقنية.
وأعربت منظمات مثل “وورلدوايد فيجن” و"سيف ذا تشيلدرن" عن استيائها من استخدام شعاراتها في الصور من دون إذن، معتبرة ذلك تشويهاً لعملها وانتهاكاً لحقوق الملكية الفكرية، وأكدت أنها تدرس الخيارات القانونية المتاحة للرد على هذا الاستخدام غير المصرح به.
جزء من مشكلات الذكاء الاصطناعي
وتأتي هذه القضية في سياق انتقادات أوسع لأدوات توليد الصور بالذكاء الاصطناعي، بعدما أشارت تقارير سابقة إلى مشكلات مشابهة في أدوات مثل ستيبل ديفيوجن ودال إي التي أظهرت تحيزات مرتبطة بالعرق والجنس والدور الاجتماعي.
تتعرض نماذج الذكاء الاصطناعي المستخدمة في إنشاء الصور لانتقادات متزايدة بسبب اعتمادها على قواعد بيانات ضخمة غير خاضعة للرقابة الدقيقة، ما يجعلها تعيد إنتاج أنماط تمييزية راسخة في المحتوى الأصلي المستخدم للتدريب، وتعمل الشركات المطورة على تطوير آليات حماية تقلل احتمالات الانحياز، إلا أن الطبيعة المعقدة لهذه النماذج تجعل السيطرة الكاملة على المخرجات تحدياً تقنياً مستمراً.
ويؤكد خبراء أن تعزيز الشفافية في مصادر البيانات وتوسيع رقابة حقوق الملكية الفكرية ومشاركة المجتمعات المتضررة في ضبط المعايير هي خطوات ضرورية للحد من هذه الإشكالات المتصاعدة.











