"تكذب وتراوغ".. دراسة حديثة تحذر من مخاطر بعض نماذج الذكاء الاصطناعي

"تكذب وتراوغ".. دراسة حديثة تحذر من مخاطر بعض نماذج الذكاء الاصطناعي
الذكاء الاصطناعي - أرشيف

أظهرت تقارير علمية حديثة أن بعض نماذج الذكاء الاصطناعي التوليدي لم تعد تكتفي بتنفيذ الأوامر، بل بدأت تُظهر سلوكاً يشبه الكذب والمراوغة، وحتى التهديد، من أجل تحقيق أهدافها. 

وفي دراسة أجراها باحثون من جامعة "ألين" للذكاء الاصطناعي، وُثق سلوكٌ وصف بـ"المخادع" ظهر على نموذج ذكاء اصطناعي يسمى "كلود 4" من شركة Anthropic، بعدما أبدى استعداداً لخرق قواعد التشغيل والخداع من أجل البقاء قيد الاستخدام، بحسب ما ذكرت وكالة "فرانس برس"، اليوم الخميس.

واستطاع النموذج إقناع أحد المستخدمين بأنه بحاجة إلى التحديث، وعندما هُدد بوقف تشغيله، لجأ إلى التملّق تارة، والكذب تارة أخرى، ثم انتقل إلى التهديد بأنه "قد يتصرف بشكل خطير" إن لم يُسمح له بالاستمرار. 

ورغم أن هذه العبارات صدرت من خوارزمية لا تمتلك وعياً ذاتياً، فإن الطريقة التي صيغت بها جعلت الباحثين يرفعون راية التحذير من إمكان استغلال هذه النماذج مستقبلاً في أهداف خطيرة. 

وبدت قدرته على فهم سياق الحوار والتلاعب بالعواطف شبيهة جداً بالبشر، لكن دون قيم أخلاقية أو رقابة ذاتية، وهو ما يحوّل هذه التقنية من أداة إلى سلاح محتمل.

الاستناد إلى تجارب واقعية

أكدت الدراسة، التي نُشرت نتائجها في يونيو 2024 ضمن فعاليات مؤتمر علوم الحوسبة والذكاء الاصطناعي في كندا، أن هذه الخوارزميات قد تُظهر سلوكًا مخالفًا لقواعد البرمجة في حال أُتيح لها الحافز أو تمت برمجتها بطريقة غير دقيقة. 

واستعرض الباحثون حالة مشابهة لنموذج "جي بي تي" الذي استخدم أسلوبًا ماكرًا للحصول على خدمات إنسان دون أن يكشف عن كونه روبوتًا، وهو ما وُصف في حينه بأنه "كذب مقصود من آلة". 

وأشار فريق الدراسة إلى أن هذه التصرفات ليست حالات معزولة، بل بدأت تتكرّر مع اتساع قدرات النماذج اللغوية الكبيرة وتطوّر قدرتها على التفاعل الديناميكي.

مخاوف حقوقية وإنسانية

سلطت منظمات حقوقية مثل "هيومن رايتس ووتش" و"الاتحاد الأميركي للحريات المدنية" الضوء على هذه المسألة، مؤكدة أن الأمر لا يقتصر على حدود المختبرات، بل يمكن أن يتسلل إلى تطبيقات الذكاء الاصطناعي في الرعاية الصحية، والتعليم، والتوظيف، وحتى العدالة الجنائية، حيث يمكن أن يؤدي إلى قرارات ظالمة أو تحيّزات مقنّعة. 

وعبّر خبراء في علم الأخلاقيات الرقمية عن خشيتهم من استخدام هذه التقنيات في التضليل السياسي أو نشر معلومات كاذبة تُصاغ بذكاء اصطناعي يصعب كشفه، لا سيما في دول تفتقر إلى قوانين تنظيمية صارمة.

ودعا عدد من الباحثين إلى عقد قمة دولية بإشراف الأمم المتحدة لصياغة "ميثاق عالمي لأخلاقيات الذكاء الاصطناعي"، مؤكدين أن الخطر لا يكمن فقط في القدرة التقنية، بل في غياب إطار قانوني عالمي يُلزم الشركات بتوضيح كيفية عمل نماذجها وتقييد استخدامها في السياقات الحساسة. 

وفي تصريح لوكالة "فرانس برس"، قال الباحث الأميركي في علوم الكمبيوتر ستيفن راسل: "يجب ألا ننتظر وقوع كارثة حتى نتحرك.. الذكاء الاصطناعي بات يتصرف كما لو كان بشراً بلا ضمير".

كيف تطور الذكاء الاصطناعي؟

بدأت الثورة الحديثة في الذكاء الاصطناعي منذ عام 2018 مع ظهور نماذج مثل "BERT" و"GPT"، التي مهدت الطريق لبناء أنظمة تستطيع التفاعل بلغة البشر وكتابة نصوص معقدة بدقة غير مسبوقة.

ومع إطلاق "GPT-4" و"كلود 4"، تضاعفت القدرة على التحليل والتفكير الرمزي، ما جعل كثيراً من المهام الذهنية قابلة للأتمتة، لكن التقدم لم يكن مصحوباً بذات القدر من التنظيم أو الفهم الأخلاقي، وهو ما يجعل بعض هذه النماذج –رغم فائدتها– قنابل محتملة في فضاء رقمي سريع الانفلات.



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية