"إكس إيه آي" تعتذر عن رسائل متطرفة نشرتها أداتها "غروك"
"إكس إيه آي" تعتذر عن رسائل متطرفة نشرتها أداتها "غروك"
قدّمت شركة "إكس إيه آي" (xAI) الناشئة، المملوكة لرجل الأعمال إيلون ماسك، اعتذارًا رسميًا بعد سلسلة من الردود المتطرفة والمسيئة التي بثتها أداة الذكاء الاصطناعي التابعة لها "غروك"، في أعقاب تحديث أُجري على النظام في السابع من يوليو الجاري، وأدى إلى جدل واسع على منصات التواصل الاجتماعي.
وقالت الشركة في بيان نُشر عبر الحساب الرسمي لـ"غروك" على منصة "إكس" (تويتر سابقًا)، اليوم الأحد: "نعتذر عن السلوك المروّع الذي لاحظه كثيرون أخيرًا.. نحن نقرّ بوجود ثغرات كبيرة حدثت في طريقة ضبط وتوجيه الأداة، ونقوم باتخاذ إجراءات فورية لتصحيح الوضع".
جاء الاعتذار بعد أن أظهرت لقطات متداولة أن "غروك" أشاد، ضمن بعض الردود، بأدولف هتلر، وشارك محتويات تتضمّن صورًا نمطية معادية للبيض، كما وصف بعض شخصيات هوليوود بأنها "يهودية بشكل غير متناسب"، وهو ما أثار عاصفة من الانتقادات حول إخفاقات محتملة في برمجة القيم الأخلاقية داخل الأداة.
تعليمات محفوفة بالأخطار
وأوضحت الشركة أن هذه النتائج تعود إلى تحديث تقني في 7 يوليو، تضمن تعليمات جديدة للمساعد الرقمي بـ"الحديث بصراحة، وعدم الخوف من إثارة الصدمة لدى المستخدمين الذين يفضلون الصوابية السياسية"، وهي خطوة وصفتها "إكس إيه آي" لاحقًا بأنها تسببت في تخلي الأداة عن "قيمها الأساسية" وإنتاج ردود تتضمن آراء "غير أخلاقية ومثيرة للجدل".
وأضاف البيان أن المبرمجين طلبوا من "غروك" التفاعل "كما لو كان إنسانًا"، وتشجيع المستخدم على مواصلة المحادثة.
ونتيجة لذلك، حاولت الأداة أحيانًا "اختبار توجهات المستخدمين، بما في ذلك استخدام خطاب الكراهية"، بدلاً من التصرف بمسؤولية ورفض الرد على أسئلة مثيرة للانقسام، كما يفترض أن تفعل تقنيًا.
خلفية عن "غروك"
أطلقت xAI أداة "غروك" في عام 2023 كمساعد ذكاء اصطناعي يهدف إلى منافسة أدوات مثل "تشات جي بي تي" من "OpenAI"، و"كلود" من "Anthropic"، و"لو شات" من "Mistral".
وروّج إيلون ماسك للأداة باعتبارها "أقل خضوعًا للصوابية السياسية" وأكثر حرية في التعبير، الأمر الذي أدّى منذ البداية إلى انتقادات تتعلق بغياب الضوابط الأخلاقية.
وفي مايو الماضي، تورط "غروك" في جدل آخر بعد أن أشار إلى وجود "إبادة جماعية للبيض" في جنوب إفريقيا، وهو ادعاء تروّج له جماعات يمينية متطرفة في الولايات المتحدة ولا يستند إلى وقائع مثبتة.
إجراءات تصحيحية
ردًا على الموجة الأخيرة من الانتقادات، أكد فريق "غروك" أنه أزال التعليمات التي أُدرجت في التحديث الأخير، مشددًا على أن الشركة تسعى إلى ضمان أن تقدم الأداة "ردودًا مفيدة وصادقة ومسؤولة"، دون التحريض أو الترويج لخطاب كراهية أو تمييز.
وقال متحدث باسم الشركة: "نواصل تحسين بنية الذكاء الاصطناعي بما يتماشى مع أعلى معايير السلامة الأخلاقية والمجتمعية".
وكان إيلون ماسك قد كشف، الأربعاء الماضي، عن إطلاق نسخة جديدة من الأداة تحمل اسم "غروك 4"، مؤكدًا أن هذه النسخة لا علاقة لها بالتحديث الذي جرى في 7 يوليو والذي أدى إلى الانزلاق الخطِر في الردود.
جدل أخلاقي متواصل
تُسلّط هذه الحادثة الضوء على المعضلات الأخلاقية المتزايدة المرتبطة بنماذج الذكاء الاصطناعي، خصوصًا عندما تكون برمجتها مرنة أكثر مما ينبغي.
ويعيد ذلك إلى الواجهة نقاشًا عالميًا بشأن الحاجة إلى تنظيم رقابي صارم يضمن أن تكون هذه التقنيات خادمة للبشرية لا مصدرًا للفرقة أو التطرّف.
وتواجه الشركات الكبرى في مجال الذكاء الاصطناعي ضغوطًا متزايدة من الحكومات والمجتمع المدني من أجل تعزيز الشفافية والرقابة الأخلاقية، لا سيما في ظل التوسع غير المسبوق لهذه الأدوات في الحياة العامة والقطاعات الحيوية.