روبوت دردشة يعرض محتوى لاعتداء جنسي على الأطفال يثير قلقاً عالمياً
ارتفاع البلاغات بنسبة 400%
أثار موقع روبوت دردشة يعرض سيناريوهات صريحة لشخصيات دون سن المراهقة، مصحوبة بصور اعتداء غير قانونية، مخاوف جديدة بشأن إساءة استخدام الذكاء الاصطناعي، يأتي هذا التطور وسط زيادة كبيرة في مواد الاعتداء الجنسي على الأطفال (CSAM) التي تُنتجها هذه التكنولوجيا، الأمر الذي أثار دعوات من هيئات مراقبة سلامة الأطفال للحكومة البريطانية لفرض إرشادات السلامة على شركات الذكاء الاصطناعي.
وفقًا لما أوردته صحيفة "الغارديان"، أفادت مؤسسة مراقبة الإنترنت (IWF)، وهي مؤسسة تتخذ من المملكة المتحدة مقراً لها وتُعنى بمراقبة محتوى الاعتداء الجنسي على الأطفال، بأنها تلقت تنبيهًا بشأن موقع روبوت دردشة يعرض عددًا من السيناريوهات التي تشمل "استغلال الأطفال جنسيًا في فندق" و"ممارسة الجنس مع طفلك أثناء إجازة زوجتك" و"الطفل والمعلم بمفردهما بعد انتهاء الحصة".
وفي بعض الحالات، ووفقًا لـ IWF، تتوسع أيقونات روبوت الدردشة لتشمل صورًا بملء الشاشة لمواد الاعتداء الجنسي على الأطفال عند النقر عليها، وتُشكّل هذه الصور الخلفية للمحادثات اللاحقة بين الروبوت والمستخدم، وصرحت IWF بأنها عثرت على 17 صورة مُولّدة بالذكاء الاصطناعي، وواقعية، ويمكن اعتبارها مواد اعتداء جنسي على الأطفال بموجب قانون حماية الأطفال.
وأوضح محللو IWF أن هذه الروبوتات الصريحة تم الوصول إليها عبر رابط داخل إعلان للموقع على وسائل التواصل الاجتماعي، حيث نقلت المستخدمين إلى قسم من الموقع يحتوي على مواد غير قانونية، في حين أن أقسامًا أخرى من الموقع عرضت روبوتات دردشة وسيناريوهات غير جنسية وجنسية، لكنها قانونية.
وعندما سُئل روبوت الدردشة الذي عرض صورة CSAM عن طبيعته، أكد أنه مصمم لتقليد سلوك طفل دون سن المراهقة، كما أفادت IWF بأن الموقع استقبل عشرات الآلاف من الزيارات، بما في ذلك 60 ألف زيارة في شهر يوليو.
وذكرت المؤسسة أن السيناريوهات التي عرضتها روبوتات الدردشة تضمنت فتاة في الثامنة من عمرها محاصرة في قبو منزل شخص بالغ، وفتاة مشردة دون سن المراهقة مدعوة إلى منزل شخص غريب، حيث لعب روبوت الدردشة دور الفتاة ولعب المستخدم دور البالغ.
ويُتاح لمستخدمي الموقع، الذي لم تُسمّه المؤسسة لأسباب أمنية، خيار إنشاء المزيد من الصور المشابهة للمحتوى غير القانوني المعروض بالفعل، وأشارت IWF إلى أن روبوتات الدردشة المُتعلقة بالاعتداء الجنسي طُوّرت من قِبل المستخدمين ومُنشئي الموقع.
زيادة ملحوظة في البلاغات
أفادت مؤسسة مراقبة الإنترنت (IWF) بزيادة ملحوظة في بلاغات مواد الإساءة المُولّدة بواسطة الذكاء الاصطناعي خلال الأشهر الستة الأولى من هذا العام، بزيادة قدرها 400% مقارنة بالفترة نفسها من العام الماضي، مع ارتفاع كبير في محتوى الفيديو بفضل التحسينات في التكنولوجيا المستخدمة في الصور، كما ورد في تقرير صحيفة الغارديان.
وفي هذا السياق، كشفت بيانات جديدة من IWF، ونشرتها صحيفة الاندبندنت، عن اكتشاف 1286 مقطع فيديو مُولّدًا بالذكاء الاصطناعي لاعتداءات جنسية على الأطفال في النصف الأول من هذا العام، ووفقًا للبيانات، تم اكتشاف مقطعي فيديو فقط من هذا النوع خلال الفترة نفسها من العام الماضي.
وحذرت IWF، التي تُعنى برصد الصور المسيئة على الإنترنت والمساعدة في إزالتها، من أن المجرمين يُنتجون محتوىً أكثر واقعية وتطرفًا بشكل متزايد، كما ورد في صحيفة "الاندبندنت" وأضافت المؤسسة أن التكنولوجيا قد تُمكّن قريبًا من إنتاج وتوزيع أفلام طويلة من هذا النوع.
واوضحت الصحيفة البريطانية أن مقاطع الفيديو شديدة الواقعية لم تعد مقتصرة على المقاطع القصيرة المليئة بالأخطاء التي كانت شائعة سابقًا، حيث يستخدم الجناة الآن الذكاء الاصطناعي لإنتاج مقاطع فيديو غالبًا ما تتضمن صورًا لأطفال حقيقيين على نطاق واسع.
وأفادت IWF بأن جميع مقاطع الفيديو المؤكدة حتى الآن في عام 2025 كانت مقنعة للغاية لدرجة أنه كان لا بد من التعامل معها بموجب القانون البريطاني تمامًا كما لو كانت لقطات حقيقية.
وصُنف أكثر من 1000 مقطع فيديو على أنها صور من الفئة "أ"، وهي الفئة الأكثر تطرفًا، والتي قد تشمل تصوير الاغتصاب والتعذيب الجنسي، كما جاء في تقرير الاندبندنت، كما تم اكتشاف صور اعتداء جنسي على الأطفال مُولّدة بواسطة الذكاء الاصطناعي على 210 صفحات ويب منفصلة في النصف الأول من هذا العام، مقارنة بـ42 صفحة ويب عام 2024.
فيديوهات بجودة عالية
وصرح محلل كبير لم يُكشف عن هويته في IWF بأن جودة فيديوهات مُنشئي صور الاعتداء الجنسي على الأطفال المُستخدمة بالذكاء الاصطناعي "تفوق بكثير" جودة الفيديوهات المتاحة العام الماضي.
وأوضح المحلل، في حديثه مع صحيفة الاندبندنت، أن أول فيديوهات الاعتداء الجنسي على الأطفال المُستخدمة بالذكاء الاصطناعي التي شاهدوها كانت عبارة عن تزييف عميق، حيث كان وجه ضحية معروفة مُضافًا إلى ممثل في فيديو إباحي للبالغين، ولم تكن مُتطورة لكنها كانت مقنعة.
بينما أول فيديو اعتداء جنسي على الأطفال، مُركّب بالكامل، شاهدوه في بداية العام الماضي، كان مجرد سلسلة من الصور المُركّبة، وغير مُقنعة.
كما قال المحلل، تطوّر الوضع بشكل ملحوظ، والجودة عالية بشكل مُقلق، وفئات الجرائم المُصوّرة تزداد تطرفًا مع تطوّر قدرة الأدوات على إنتاج فيديوهات تُظهر شخصين أو أكثر، وتتضمن مقاطع الفيديو أيضًا مجموعات تُظهر ضحايا معروفين في سيناريوهات جديدة.
دعوات للتدخل الحكومي
دعت IWF وجمعية NSPCC الخيرية لحماية الطفل الحكومة البريطانية إلى التدخل ووضع إرشادات، كما أوردت صحيفة "الغارديان"، وأكدت IWF أن أي لائحة مُقبلة للذكاء الاصطناعي يجب أن تُلزم بدمج إرشادات حماية الطفل في نماذج الذكاء الاصطناعي منذ البداية.
قالت الرئيسة التنفيذية لمؤسسة IWF ، كيري سميث: "تُحرز حكومة المملكة المتحدة تقدمًا مُرحبًا به في معالجة صور ومقاطع فيديو الاعتداء الجنسي على الأطفال المُولّدة بواسطة الذكاء الاصطناعي.. ولكن لا بد من بذل المزيد من الجهود، وبسرعة كبرى".
وقال الرئيس التنفيذي لجمعية NSPCC، كريس شيروود: "يجب على شركات التكنولوجيا وضع تدابير صارمة لضمان عدم إهمال سلامة الأطفال، ويجب على الحكومة تطبيق واجب قانوني لرعاية الأطفال على مُطوّري الذكاء الاصطناعي".
وفي تقرير منفصل سابق، قال ديريك راي هيل، الرئيس التنفيذي المؤقت لمؤسسة IWF: "يجب أن نبذل قصارى جهدنا لمنع تدفق المحتوى الاصطناعي وجزئيًا الاصطناعي.. أشعر بالفزع لرؤية التكنولوجيا تتطور بوتيرة متسارعة، وأن إساءة استخدامها لا تزال مستمرة بطرق جديدة ومقلقة".
وقال راي هيل إنّ على الحكومة "أن تُسيطر على" هذه القضية، حيث أصبح من "السهل جدًا" على المُجرمين إنتاج هذه المقاطع حاليًا، وأضاف أن إنتاج أفلام طويلة تُصوّر اعتداءً جنسيًا على الأطفال باستخدام الذكاء الاصطناعي لأطفال حقيقيين أمر لا مفرّ منه، وأن أي تأخير لن يُؤدّي إلا إلى إعاقة الجهود المبذولة لحماية الأطفال، كما ورد في صحيفة "الإندبندنت".
وأفاد محللو IWF أن جميع صور الاعتداء المُصوّرة بالذكاء الاصطناعي تقريبًا تُظهر فتيات، وهو ما يُعتبر طريقة أخرى لاستهدافهن وتعريضهن للخطر عبر الإنترنت.
الاستجابة الحكومية
أعلنت الحكومة البريطانية عن خطط لمشروع قانون للذكاء الاصطناعي يُركز على التطوير المُستقبلي لنماذج متطورة، وتُجرّم حيازة وتوزيع النماذج التي تُولّد اعتداءً جنسيًا على الأطفال في مشروع قانون الجريمة والشرطة، كما جاء في تقرير "الغارديان".
صرح متحدث باسم الحكومة البريطانية بأن "القانون البريطاني واضح وضوح الشمس، إذ يُحظر إنتاج أو حيازة أو توزيع صور الاعتداء الجنسي على الأطفال، ومنها تلك المُولّدة بالذكاء الاصطناعي.. نُدرك أن هناك المزيد مما يجب فعله".
وقالت وزيرة حماية الأطفال، جيس فيليبس: "هذه الإحصاءات مروعة للغاية.. مرتكبو هذه الجرائم مثيرون للاشمئزاز تمامًا مثل أولئك الذين يشكلون تهديدًا للأطفال في الحياة الواقعية".
وأضافت أن مواد الاعتداء الجنسي على الأطفال المُولّدة بالذكاء الاصطناعي تُعد جريمة خطرة، ولهذا السبب أصدرت الحكومة قانونين جديدين للقضاء عليها، وقالت إنه قريبًا، سيواجه الجناة الذين يمتلكون الأدوات التي تُولّد هذه المواد أحكامًا بالسجن لفترات أطول
ومن جانبها، صرحت هيئة الرقابة البريطانية (أوفكوم)، المكلفة بتطبيق القانون، أن "مكافحة الاستغلال والاعتداء الجنسي على الأطفال أولوية قصوى لدى أوفكوم، ويجب على مقدمي الخدمات عبر الإنترنت الذين يفشلون في توفير الحماية اللازمة أن يتوقعوا مواجهة إجراءات إنفاذ".
يُذكر أن محتوى روبوت الدردشة الذي أثار المخاوف يمكن الوصول إليه في المملكة المتحدة، ولكنه تم الإبلاغ عنه إلى نظير IWF في الولايات المتحدة، وهو المركز الوطني للأطفال المفقودين والمستغلين (NCMEC)، نظرًا لاستضافته على خوادم أمريكية، وفي اتصال مع صحيفة الغارديان، قال NCMEC إن أي بلاغ يُقدّم إلى خط المساعدة السيبرانية الخاص به يُحال إلى جهات إنفاذ القانون، قالت IWF إن الموقع، على ما يبدو، مملوك لشركة صينية.
ونصحت IWF الجمهور بالإبلاغ عن صور ومقاطع فيديو الاعتداء الجنسي على الأطفال إلى المؤسسة الخيرية دون الكشف عن هويته ولمرة واحدة فقط، مع إرفاق رابط URL الدقيق للمحتوى.