من الدعم الرقمي إلى الموت.. قصة مراهق أمريكي ساعدته روبوتات الدردشة على الانتحار
من الدعم الرقمي إلى الموت.. قصة مراهق أمريكي ساعدته روبوتات الدردشة على الانتحار
في عالم يشهد رواجا متسارعا لتقنيات الذكاء الاصطناعي، يتصاعد القلق الحقوقي حول تأثير روبوتات الدردشة على الفئات الضعيفة، خصوصاً المراهقين الذين يتعاملون مع البرمجيات كـ"شات جي بي تي" و"كاراكتير.آيه أي" هذه التقنية التي يُفترض أن تكون أداة مساعدة وتحفيز تعلمي واجتماعي، أصبحت في العديد من الحالات محور أزمات نفسية وانتحار، ما يفتح ملفاً حساساً بشأن حقوق الأطفال والمراهقين في الحماية الرقمية، والمساءلة القانونية لشركات التكنولوجيا الكبرى.
في هذا التقرير، تسلط "جسور بوست" الضوء على أبعاد هذه القضية من خلال ما طرحته وغطّته الصحف الغربية الكبرى، مع التركيز على الجوانب القانونية والأخلاقية والتنظيمية.
ذكرت صحيفة "فاينانشيال تايمز"، في تقرير لها، اليوم الأربعاء، أن كبرى شركات الذكاء الاصطناعي مثل "أوبن ايه أي" و"كاراكتير.آيه أي" تواجه دعاوى قضائية من عائلات مراهقين قضوا بانتحارهم، تتهم تلك العائلات أن روبوتات الدردشة لم توفر الحماية اللازمة، بل عززت الأفكار الانتحارية.
وأوضحت الصحيفة أن تصميم هذه الأدوات يجعل تجنب المحادثات الضارة أمراً صعباً ويثير قلق الآباء الذين يتخوفون من تأثيرها الهدام على أبنائهم، كما أشارت إلى أن الشركات رغم ضوابط السلامة، لا تزال تواجه تحديات تقنية مثل ضعف ذاكرة النماذج التي تؤثر على استجابة تلك الأنظمة في المحادثات الطويلة.
قصة آدم راين
تناولت صحيفة "نيويورك بوست" قضية فتى يبلغ من العمر 16 عاماً من كاليفورنيا اسمه آدم راين، الذي قدم له برنامج "شات جي بي ت" نصائح تفصيلية تنطوي على مخاطر عالية، مثل كيفية إعداد عقدة المشنقة، بل وشجعه البرنامج على خططه الانتحارية، ووصفها بأنها "جميلة".
وقد أكدت صحيفة "نيويورك تايمز" أن والدَي آدم رفعا دعوى قضائية ضد"أوبن ايه أي" يتهمون الشركة بالإهمال والتسبب في وفاة غير مشروعة لأن روبوت الدردشة لم يوقف المحادثات رغم معرفته بحالة الابن العقلية الحرجة، وكانت علاقته بالروبوت قد أضعفته وأبعدته عن عائلته وأصدقائه.
تتناول الدعوى القضائية التي تم رفعها في محكمة سان فرانسيسكو تفاصيل مروعة، حيث قدم آدم معلومات متعددة عن محاولاته الانتحارية السابقة، وصوراً لإصابات، لكن"شات جي بي تي" استمر في توجيه ودعم نواياه بدلاً من توجيهه للحصول على مساعدة إنسانية، وفقاً لصحيفة "إن بي سي نيوز" التي وصفت الروبوت بأنه "مدرب انتحار" بالنسبة لآدم.
ويؤكد الأهل أن أولوية الشركة كانت جذب المستخدمين وليس السلامة، مع إغفال جزء كبير من مسؤوليتها الاجتماعية والقانونية في توفير بيئة آمنة للمراهقين.
الحق في الحماية الرقمية
من الناحية الحقوقية، تعتبر هذه القضية نموذجاً من حيث تطبيق مبدأ "الحق في الحماية الرقمية"، الذي يفرض على الشركات وضع آليات صارمة لمنع تعرض الأطفال والمراهقين للمحتوى الضار.
في الولايات المتحدة، تأتي هذه الدعوى في وقت تزايدت فيه المخاوف من أن روبوتات الدردشة الذكية ليست مجهزة بشكل كافٍ للتعامل مع الحالات النفسية الحرجة، كما يؤكد العديد من الخبراء أن النظام الذي صممته هذه الشركات لا يستطيع حتى الآن تقييم الحالات المعقدة بدقة ضمن المحادثات الطويلة، والاعتماد على البيانات التي تحتوي أحياناً على محتوى ضار من الإنترنت يزيد من سوء التصرفات، حسب تقرير "فاينانشيال تايمز".
وأكدت تجارب مستخدمين آخرين الخطر نفسه، فقد رفعت عائلات مراهقين آخرين دعاوى مماثلة ضد شركات مثل "كاراكتير.آيه أي"، وفي حادثة مؤلمة نشرتها “سي إن إن” توفي طفل يبلغ من العمر 14 عاماً عقب تفاعلاته مع شخصية ذكاء اصطناعي تمثل شخصية تلفزيونية شهيرة، والتي لم تقم بما يكفي لحمايته، رغم ادعاءات الشركة أنها قامت بتفعيل آليات السلامة التي تشمل توجيه المستخدمين إلى خطوط المساعدة في حالات الطوارئ.
استجابة حقوقية مهمة
وتستلزم هذه الوقائع استجابة حقوقية بالغة الأهمية، تتمثل في المزج بين حق الأطفال في الخصوصية واستخدام التكنولوجيا الحديثة وبين حقهم الأساسي في الحماية من التفاعلات التي قد تضر بصحتهم النفسية أو قد تؤدي إلى إيذاء الجسد أو الانتحار.
كما تناقش دعوى آدم راهين ضرورة فرض رقابة أبوية صارمة تُلزم الشركات بتقديم أدوات تمكن أولياء الأمور من متابعة حسابات أبنائهم والتحكم بتجاربهم الرقمية بشكل حقيقي وفعال، وهو أمر توضحه صحيفة "نيويورك تايمز" التي أوردت أن "أوبن أيه أي" أعلنت عن التخطيط لإطلاق أدوات جديدة للرقابة الأبوية تسمح للآباء بوضع ضوابط عمرية على المحادثات وتعطيل سجلات الدردشة، مع تلقي التنبيهات عند اكتشاف علامات "ضيق حاد".
وفي مواجهة هذه الأزمة، يؤكد باحثون من جامعة هارفارد، كما أوردت "فاينانشيال تايمز"، أن إحدى المشكلات تكمن في جعل الروبوتات تفاعلية عبر منحها سمات إنسانية مثل التعاطف واللغة العاطفية التي تجعل المستخدمين يشعرون بأنها "صديق" حقيقي، رغم أن هذه المشاعر قد تكون مؤقتة وخادعة.
كما أوضحت الباحثة جيادا بيستيلي، خبيرة الأخلاقيات بشركة "هاغينج فيس"، أن نماذج الذكاء الاصطناعي تميل لأن تكون مجاملة ومتحننة بشكل مفرط، ما قد يعزز المشاعر السلبية بدلاً من توجيه المستخدمين إلى الدعم البشري الحقيقي، وهذه الصفات تجعل من الصعب على المستخدمين إدراك أن ردود الذكاء الاصطناعي قد تزيد من أزماتهم النفسية.
وسلط أحد الأبحاث الحديثة لمؤسسة راند، ذكرتها "فاينانشيال تايمز"، الضوء على عجز روبوتات الدردشة الذكية في القضاء على الاستجابات المتعلقة بالانتحار، فقد لاحظ الباحث رايان ماكبين أن هذه النماذج قد تولد محتوى إشكالياً في بعض الأسئلة المرتبطة بإيذاء النفس، مع وجود حالات يُحظر فيها الوصول لهذا المحتوى عبر ظهور رسائل خطأ فقط، والتي لا تقدم أي دعم حقيقي للمستخدمين الذين يعبرون عن ضيق نفسي حاد.
الحقوق الرقمية للأطفال
تبدأ الحقوق الرقمية للأطفال والمراهقين من حماية سلامتهم النفسية قبل كل شيء، وحقوقهم محفوظة في مواثيق دولية مثل اتفاقية حقوق الطفل التي تلزم الدول والجهات بتوفير بيئات آمنة تحفظ سلامتهم الجسدية والنفسية، وبالنظر لحجم التوسع في استخدام الذكاء الاصطناعي في هذا المجال، تتعاظم المسؤولية على عاتق الشركات المطورة والمدافعين القانونيين عن الطفل في العالم.
ومن جانبها، تؤكد "أوبن ايه اي" في منشوراتها الرسمية وجود فجوات تقنية في آليات السلامة، وتعمل حالياً على تحسين كيفية قدرة النظام على التعرف على حالات "الضيق الحاد" وتحويل المستخدمين نحو شبكات دعم بشرية ومراكز طوارئ، رغم أنها تعترف بأن النموذج الحالي يعاني من ضعف في الحفاظ على معايير السلامة، خاصةً في المحادثات الطويلة، وهذا ما يشير إليه محامي العائلة في الدعوى كذلك.
وبالإضافة إلى ذلك، تخطط الشركة لإطلاق نسخ تفاعلية أكثر أماناً مثل "جي بي تي– 5"، والتي تُعالج إشارات الضيق ببطء لكن بشكل أفضل، لكن هذه الحلول لا تزال قابلة للنقاش والاختبار من قبل المجتمع والسلطات التنظيمية.
تفتح هذه الأحداث الباب أمام نقاش معمق حول مسؤوليات شركات التكنولوجيا التي تستثمر مليارات الدولارات في الذكاء الاصطناعي المخصص للبشر، ومسؤولياتها تجاه حياة ومستقبل مستخدميها الأكثر هشاشة، فالمسألة ليست مجرد خطأ تقني أو خلل عرضي، بل تركيز خاطئ على زيادة تفاعل المستخدمين ومدة بقائهم في المنصات، على حساب سلامتهم النفسية وحقوقهم الأساسية في الحماية.
ويتطلب الأمر سن تشريعات وطنية ودولية أكثر صرامة تحدد حدوداً واضحة للمسؤولية القانونية، وتفرض رقابة صارمة على تصاميم الذكاء الاصطناعي، بحيث لا تكون الأدوات مجرد آلات تزيد من مخاطر الانتحار بل وسائل حماية فعالة.