"الإيكونوميست": "الهلوسة" في أنظمة الذكاء الاصطناعي يمكن أن تقتل
أكبر المطورين يحذّرون
في تعليماته للمستخدمين، يحذر "أوبن إيه أي" من أن "شات جي بى تي"، يمكن أن يرتكب أخطاء، وتقول شركة "أنثروبيك"، وهي شركة أمريكية تعمل في مجال الذكاء الاصطناعي، إن فيلمها كلود "قد يعرض معلومات غير صحيحة أو ضارة"، وتحذر شركة "جيميني" من "جوجل" المستخدمين من "التحقق مرة أخرى من ردودها".. خلاصة القول هي كما يلي: بغض النظر عن مدى طلاقة وثقة النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، فإنه "لا يزال غير موثوق به".
ووفقا لمجلة "الإيكونوميست"، تجعل "الهلوسة" من الصعب الاعتماد على أنظمة الذكاء الاصطناعي في العالم الحقيقي، يمكن للأخطاء في خوارزميات توليد الأخبار أن تنشر معلومات مضللة، ويمكن لمولدي الصور إنتاج أعمال فنية تنتهك حقوق الطبع والنشر، حتى عندما يُطلب منهم عدم القيام بذلك، ويمكن لروبوتات الدردشة لخدمة العملاء أن تعد باسترداد أموال لا ينبغي لها ذلك (في عام 2022، قام برنامج الدردشة الآلي التابع لشركة طيران كندا بذلك وفي فبراير الماضي أكدت محكمة كندية أن شركة الطيران يجب أن تدفع الفاتورة)، ويمكن للهلوسة في أنظمة الذكاء الاصطناعي المستخدمة في التشخيص أو الوصفات الطبية أن تقتل.
وتكمن المشكلة في أن نفس القدرات التي تسمح للنماذج بـ"الهلوسة" هي أيضًا ما يجعلها مفيدة جدًا، على سبيل المثال، تعد llms (Large language models) أو "النموذج اللغوي الكبير" شكلاً من أشكال الذكاء الاصطناعي "التوليدي"، والذي يعني، بالمعنى الحرفي للكلمة، أنها تصنع الأشياء لحل مشكلات جديدة، تفعل ذلك عن طريق إنتاج توزيعات احتمالية لأجزاء من الأحرف، أو الرموز المميزة، مع تحديد مدى احتمال ظهور كل رمز مميز محتمل في مفرداتهم بعد ذلك، وتملي الرياضيات أن يكون لكل رمز فرصة غير صفرية في الاختيار، مما يمنح النموذج مرونة لتعلم أنماط جديدة، فضلاً عن القدرة على توليد بيانات غير صحيحة.. المشكلة الأساسية هي أن النماذج اللغوية احتمالية، في حين أن الحقيقة ليست كذلك.
ويتجلى هذا التوتر في عدد من الطرق، أحد هذه الأسباب هو أن الكتب الدراسية لم يتم تصميمها بحيث تتمتع باستدعاء مثالي بالطريقة التي قد يفعلها محرك البحث أو الموسوعة.. وبدلاً من ذلك، نظرًا لأن حجم النموذج أصغر بكثير من حجم بيانات التدريب الخاصة به، فإنه يتعلم عن طريق الضغط، يصبح النموذج صورة ضبابية لبيانات التدريب الخاصة به، مع الاحتفاظ بالميزات الرئيسية ولكن بدقة أقل بكثير.
بعض الحقائق مقاومة للطمس، “باريس” على سبيل المثال، قد تكون دائما الرمز الأكثر احتمالا بعد عبارة "عاصمة فرنسا"، ولكن العديد من الحقائق الأقل وضوحا من الناحية الإحصائية قد يتم تشويهها.
من الممكن حدوث المزيد من التشوهات عندما يتم "ضبط" مادة دراسية مُدربة مسبقًا، هذه مرحلة لاحقة من التدريب يتم فيها تحديث أوزان النموذج، التي تشفر العلاقات الإحصائية بين الكلمات والعبارات في بيانات التدريب، لمهمة محددة.
ويمكن أن تزداد "الهلوسة" إذا تم ضبط الفيلم بدقة، على سبيل المثال، على نصوص المحادثات، لأن النموذج قد يختلق الأشياء ليحاول أن يكون مثيرًا للاهتمام، تمامًا كما قد يفعل الإنسان الثرثار، (يبدو أن مجرد تضمين أمثلة الضبط الدقيق حيث يقول النموذج "لا أعرف" يؤدي إلى خفض مستويات الهلوسة).
يمكن أن يؤدي التلاعب بأوزان النماذج إلى تقليل "الهلوسة"، تتضمن إحدى الطرق إنشاء نموذج معيب بشكل متعمد يتم تدريبه على البيانات التي تتعارض مع الموجه أو تحتوي على معلومات يفتقر إليها، يمكن للباحثين بعد ذلك طرح أوزان النموذج المعيب، والتي تكون مسؤولة جزئيًا عن مخرجاته، من أوزان النموذج الأصلي لإنشاء نموذج أقل "هلوسة".
من الممكن أيضًا تغيير "درجة حرارة" النموذج، درجات الحرارة المنخفضة تجعل النموذج أكثر تحفظًا، مما يشجعه على أخذ عينات من الكلمة الأكثر احتمالية، ارتفاع درجات الحرارة يجعلها أكثر إبداعا، وذلك من خلال زيادة عشوائية هذا الاختيار.
إذا كان الهدف هو تقليل "الهلوسة"، فيجب ضبط درجة الحرارة على الصفر، والحيلة الأخرى هي قصر الاختيار على الرموز المميزة ذات التصنيف الأعلى وحدها، وهذا يقلل من احتمالية الاستجابات الضعيفة، بينما يسمح أيضًا ببعض العشوائية، وبالتالي التنوع.
ويمكن للتحفيز الذكي أيضًا أن يقلل من "الهلوسة"، حيث وجد الباحثون في "جوجل ديب مايند" أن مطالبة أحد طلاب الماجستير "بأخذ نفس عميق والعمل على حل هذه المشكلة خطوة بخطوة" يقلل من الهلوسة ويحسن حل المشكلات، خاصة مسائل الرياضيات، إحدى النظريات التي تفسر سبب نجاح ذلك هي أن نماذج الذكاء الاصطناعي تتعلم الأنماط، من خلال تقسيم المشكلة إلى مشكلات أصغر، من المرجح أن يتمكن النموذج من التعرف على المشكلة الصحيحة وتطبيقها.
لكن، كما يقول إدواردو بونتي من جامعة إدنبرة، فإن مثل هذه الهندسة السريعة ترقى إلى علاج الأعراض، وليس علاج المرض.
ربما تكمن المشكلة إذن في أن الدقة أمر كبير جدًا بحيث لا يمكن طلبه من كتب العلوم وحدها، وبدلا من ذلك، ينبغي أن تكون جزءا من نظام أكبر، محرك، وليس السيارة بأكملها.
أحد الحلول هو توليد الاسترجاع المعزز (rag)، والذي يقسم وظيفة نموذج الذكاء الاصطناعي إلى قسمين: الاسترجاع والتوليد، بمجرد تلقي المطالبة، يتجول نموذج المسترد حول مصدر خارجي للمعلومات، مثل أرشيف الصحف، لاستخراج المعلومات السياقية ذات الصلة، يتم تغذية هذا إلى نموذج المولد جنبًا إلى جنب مع الموجه الأصلي، مسبوقًا بتعليمات بعدم الاعتماد على المعرفة السابقة، ويعمل المولد بعد ذلك كإجابات وإجابات عادية.
وهذا يقلل من "الهلوسة" من خلال السماح للفيلم باستغلال نقاط قوته، أي التلخيص وإعادة الصياغة بدلاً من البحث، يمكن أيضًا تثبيت الأدوات الخارجية الأخرى، بدءًا من الآلات الحاسبة إلى محركات البحث، في المقرر بهذه الطريقة، مما يؤدي بشكل فعال إلى بناء نظام دعم لتعزيز تلك المهارات التي يفتقر إليها.
ومع ذلك، حتى مع وجود أفضل مضادات الذهان الخوارزمية والمعمارية المتاحة، لا تزال توجد "الهلوسة".
إحدى لوحات المتصدرين، التي تديرها شركة "فيكتارا"، وهي شركة برمجيات أمريكية، تتتبع عدد مرات ظهور مثل هذه الأخطاء، تظهر بياناتها أن gpt-4 لا يزال يهلوس في 3% من ملخصاته، وكلود 2 في 8.5%، وGemini Pro في 4.8%. وقد دفع هذا المبرمجين إلى محاولة اكتشاف "الهلوسة" بدلاً من منعها.
وأحد الأدلة على حدوث "الهلوسة" يكمن في كيفية انتقاء الكلمات، إذا كان التوزيع الاحتمالي للكلمات ثابتًا، أي أن العديد من الكلمات لها احتمالات مماثلة في الاختيار، فهذا يعني أن هناك قدرًا أقل من اليقين في ما يتعلق بالأكثر احتمالاً، وهذا دليل قد يكون تخمينًا، بدلاً من استخدام المعلومات التي طُلب منها، وبالتالي "يعرف" أنها صحيحة.
هناك طريقة أخرى لاكتشاف "الهلوسة" وهي تدريب طالب ثانٍ على التحقق من صحة الأول، يمكن إعطاء مدقق الحقائق "الحقيقة الأساسية" جنبًا إلى جنب مع إجابة الطالب، وسؤاله عما إذا كان موافقًا أم لا، وبدلاً من ذلك، يمكن إعطاء مدقق الحقائق عدة إصدارات من إجابة الكتاب على نفس السؤال، وسؤاله عما إذا كانت جميعها متسقة، إذا لم يكن الأمر كذلك، فمن المرجح أن تكون "هلوسة".
قامت شركة "نيفيديا"، وهي شركة تصنيع الرقائق الإلكترونية، بتطوير إطار عمل مفتوح المصدر لبناء حواجز حماية تحيط بالفيلم لجعله أكثر موثوقية، أحد هذه الأهداف يهدف إلى منع "الهلوسة" من خلال نشر عملية التحقق من الحقائق عند الحاجة.
على الرغم من أن مثل هذه الأساليب يمكن أن تقلل من معدل "الهلوسة"، كما تقول إيسي كامار، رئيس مختبر حدود الذكاء الاصطناعي في مايكروسوفت، "فمن غير الواضح ما إذا كانت أي من هذه التقنيات ستتخلص تمامًا من الهلوسة وفي كثير من الحالات، قد يكون ذلك أقرب إلى التخريب الذاتي.. إذا طُلب من أحد الأفلام أن يولد أفكارًا لرواية خيالية، على سبيل المثال، فإن مخرجاته ستكون مخيبة للآمال إذا اقتصرت على العالم كما هو".
وبالتالي، تقول الدكتورة كامار، إن بحثها لا يهدف إلى التخلص من جميع الهلوسة، بل إلى منع النموذج من الهلوسة عندما يكون ذلك غير مفيد.
تعد مشكلة الهلوسة أحد جوانب مشكلة "الاصطفاف" الأكبر في مجال الذكاء الاصطناعي: كيف يمكنك جعل أنظمة الذكاء الاصطناعي تفعل بشكل موثوق ما ينوي مستخدموها من البشر ولا شيء غير ذلك؟ يعتقد العديد من الباحثين أن الإجابة تأتي من خلال تدريب مواد أكبر على بيانات أكثر وأفضل، ويعتقد آخرون أن الكتب، باعتبارها نماذج توليدية واحتمالية، لن تتخلص تمامًا من الهلوسة غير المرغوب فيها.
أو قد لا تكون المشكلة الحقيقية في النماذج، بل في مستخدميها من البشر، لقد كان إنتاج اللغة قدرة بشرية فريدة، تجعل المخرجات النصية المقنعة للكتب من السهل جدًا تجسيمها، لنفترض أن الكتب تعمل أيضًا وتعقل وتفهم مثلما يفعل البشر، ولا يوجد حتى الآن دليل قاطع على أن هذا هو الحال.
وحتى مع تحسن النماذج وأصبحت المخرجات أكثر توافقًا مع ما ينتجه البشر ويتوقعونه، فليس من الواضح أن الدواخل ستصبح أكثر إنسانية، ربما يتطلب أي نشر ناجح لهذه النماذج في العالم الحقيقي تدريب البشر على كيفية استخدام وعرض نماذج الذكاء الاصطناعي بقدر ما سيتطلب تدريب النماذج نفسها.