دعت لضوابط فورية.. الأمم المتحدة تحذر من مخاطر الذكاء الاصطناعي على الأطفال

دعت لضوابط فورية.. الأمم المتحدة تحذر من مخاطر الذكاء الاصطناعي على الأطفال
تعامل الأطفال مع التطور الرقمي - أرشيف

دعت عدة وكالات أممية دول العالم والحكومات وشركات التكنولوجيا إلى التحرك العاجل لضمان أن يُصمم الذكاء الاصطناعي ويُستخدم بطريقة تحترم حقوق الطفل وتحميها وتعززها. 

وحذرت الوكالات، في بيان مشترك صدر عن الاتحاد الدولي للاتصالات، واليونيسف، ومكتب الأمم المتحدة لحقوق الإنسان، إلى جانب لجنة حقوق الطفل، من أن غياب الضوابط قد يعرض الأطفال لمخاطر جسيمة تشمل الاستغلال والعنف وانتهاك الخصوصية والتمييز، بحسب ما ذكر موقع أخبار الأمم المتحدة الاثنين.

وجاءت الدعوة في وقت يتسارع فيه اعتماد تقنيات الذكاء الاصطناعي في الحياة اليومية، ما يجعل الأطفال أكثر عرضة لتأثيراتها المباشرة وغير المباشرة.

نهج قائم على حقوق الطفل

شدد البيان على الحاجة الملحة لاعتماد نهج قائم على حقوق الطفل في كل مراحل تطوير الذكاء الاصطناعي واستخدامه وحوكمته. 

وأكد أن التطور السريع للتقنيات الرقمية يغير حياة الأطفال اليوم ومستقبلهم، ويتيح فرصًا غير مسبوقة للتعلم والمشاركة والوصول إلى الخدمات. 

لكنّه في المقابل قد يخلق تحديات خطيرة، سواء من خلال تفاعل الأطفال المباشر مع أنظمة الذكاء الاصطناعي، أو عبر آثار غير مباشرة تمس حياتهم وحقوقهم دون أن يكونوا طرفًا فيها، مثل استخدام بياناتهم أو تأثير الخوارزميات في الفرص التعليمية والاجتماعية.

ضعف الوعي يزيد المخاطر

أشار البيان إلى أن معظم أدوات الذكاء الاصطناعي الحالية لم تُصمم أصلاً مع مراعاة احتياجات الأطفال أو سلامتهم، محذراً من نقص الوعي والتدريب ليس فقط لدى الأطفال وأسرهم، بل أيضًا لدى المعلمين وصناع السياسات والمطورين. 

ولفت إلى ضعف الثقافة الرقمية والذكاء الاصطناعي، ما يزيد من هشاشة الأطفال في الفضاء الرقمي، ويجعلهم أكثر عرضة للمحتوى الضار أو الاستغلال التجاري لبياناتهم دون فهم واضح للعواقب.

ودعا البيان الدول الأطراف في اتفاقية حقوق الطفل إلى اتخاذ إجراءات تشريعية وإدارية واضحة لضمان حوكمة فعالة للذكاء الاصطناعي، تشمل آليات شفافة للرصد والمساءلة، وتخصيص موارد كافية لحماية الأطفال في البيئة الرقمية. 

وشدد على ضرورة أن تكون التقييمات المتعلقة بالمخاطر مفهومة ومتاحة للأطفال أنفسهم، وبأسلوب يتناسب مع أعمارهم، لضمان مشاركتهم في حماية حقوقهم، وعدم اعتبارهم مجرد موضوعات للتقنيات.

ضرورة شفافية الخوارزميات

أكد البيان أن مسؤولية احترام حقوق الطفل لدى شركات التكنولوجيا لا تقل أهمية عن الابتكار التقني، وطالب الشركات بإجراء مراجعات دورية لأنظمتها، وضمان الشفافية حول كيفية عمل خوارزمياتها، ومنع استهداف الأطفال بمحتوى ضار أو غير قانوني، أو استغلال بياناتهم لأغراض تجارية أو تدريب نماذج الذكاء الاصطناعي دون موافقة واضحة. 

كما شدد على أن حماية الأطفال تتطلب تصميم أنظمة تضع مصلحة الطفل في مقدمة الأولويات، وليس مجرد التوافق مع المعايير التجارية.

وخصص البيان مساحة واسعة لمسألة سلامة الأطفال، محذراً من استخدام الذكاء الاصطناعي في إنتاج أو نشر محتوى عنيف أو مضلل، ومنه التزييف العميق، والتنمر الإلكتروني، والاستغلال الجنسي، وخطاب الكراهية. ودعا إلى تجريم هذه الانتهاكات والتحقيق فيها، مع توفير آليات إبلاغ آمنة وسرية تراعي احتياجات الأطفال، وتضمن سرعة الاستجابة وتقديم الدعم اللازم، ما يحد من تأثير هذه المخاطر في حياتهم اليومية ومستقبلهم.



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية