تحذيرات من "الذكاء الخارق".. علماء ومشاهير يطالبون بوقف تطوير تكنولوجيا تتجاوز قدرات البشر

تحذيرات من "الذكاء الخارق".. علماء ومشاهير يطالبون بوقف تطوير تكنولوجيا تتجاوز قدرات البشر
الذكاء الاصطناعي - أرشيف

أطلق أكثر من 700 عالم وسياسي ورائد أعمال ومشاهير حول العالم نداءً عاجلاً، الأربعاء، يدعون فيه إلى وقف تطوير أنظمة ذكاء اصطناعي خارقة يمكن أن تتجاوز القدرات البشرية، محذرين من مخاطر وجودية تهدد الإنسانية إذا استمر السباق نحو بناء ذكاء يفوق الإنسان في التفكير والإبداع واتخاذ القرار.

وجاءت الدعوة ضمن مبادرة أطلقتها منظمة (Future of Life Institute)، وهي منظمة غير ربحية تُعنى بدراسة المخاطر الوجودية المرتبطة بالتقنيات المتقدمة، إذ ورد في بيانها الرسمي: "ندعو إلى وقف تطوير الذكاء الاصطناعي الخارق إلى أن يتم التوصل إلى إجماع علمي يثبت إمكانية بنائه بطريقة آمنة ومضبوطة، ويحظى في الوقت ذاته بدعم شعبي واسع".

تأييد من العلماء والمبتكرين

ضمّت قائمة الموقعين عدداً من أبرز الأسماء في مجال الذكاء الاصطناعي والعلوم الحديثة، من بينهم جيفري هينتون الحائز على جائزة نوبل في الفيزياء لعام 2024، وستيوارت راسل أستاذ المعلوماتية في جامعة كاليفورنيا في بيركلي، ويوشوا بنغيو أستاذ الذكاء الاصطناعي في جامعة مونتريال، وجميعهم من الآباء المؤسسين لتقنيات التعلم العميق التي تقف وراء الثورة التكنولوجية الحالية.

وشارك في التوقيع مؤسس مجموعة "فيرجن" ريتشارد برانسون، وأحد مؤسسي شركة "أبل" ستيف وزنياك، إلى جانب شخصيات سياسية بارزة مثل ستيف بانون المستشار السابق للرئيس الأمريكي دونالد ترامب، وسوزان رايس مستشارة الأمن القومي السابقة في إدارة باراك أوباما، بالإضافة إلى شخصيات دينية كالمستشار البابوي وخبير الذكاء الاصطناعي في الفاتيكان باولو بينانتي.

ولم تخلُ القائمة من الأسماء الفنية، إذ وقّع عليها المغني الأمريكي ويليام آي.آم، إلى جانب الأمير هاري وزوجته ميغن ماركل، في إشارة إلى أن القلق من الذكاء الاصطناعي تجاوز حدود المختبرات التقنية إلى الوعي الشعبي والثقافي العالمي.

الذكاء الاصطناعي الخارق

يهدف العديد من اللاعبين الكبار في مجال التكنولوجيا اليوم إلى تطوير ما يُعرف بالذكاء الاصطناعي العام (AGI)، وهي المرحلة التي يُمكن فيها للآلة أن تُضاهي الإنسان في التفكير، قبل الوصول إلى ما يُعرف بالذكاء الاصطناعي الخارق (Superintelligence) الذي يتفوق على القدرات البشرية في مختلف المجالات، من التحليل إلى الإبداع واتخاذ القرارات المستقلة.

وفي هذا السياق، صرّح سام ألتمان، الرئيس التنفيذي لشركة "أوبن إيه آي" المطوّرة لتطبيق "تشات جي بي تي"، خلال فعالية نظمتها مجموعة "أكسل سبرينغر" في سبتمبر الماضي، قائلاً: "قد نصل إلى مرحلة الذكاء الاصطناعي الفائق خلال خمس سنوات فقط".

وفي تصريح لوكالة "فرانس برس"، قال ماكس تيغمارك، رئيس منظمة "فيوتشر أوف لايف إنستيتيوت": "لا يهم إن كان ذلك سيتحقق بعد عامين أو خمسة عشر عاماً، فإنّ بناء تكنولوجيا كهذه دون ضوابط أمر غير مقبول، وعلى الشركات أن تتوقف فوراً عن تطوير أنظمة لا يمكن التنبؤ بسلوكها أو السيطرة عليها".

وأوضح تيغمارك أن الهدف ليس منع التقدم العلمي بل تقييده بالمعايير الأخلاقية والإنسانية، قائلاً: "قد نؤيد تطوير أدوات ذكاء اصطناعي قوية لعلاج السرطان مثلاً، لكننا نعارض بناء ذكاء خارق يمكن أن يقرر مستقبل البشرية دون رقابة".

قلق عالمي متزايد

تأتي هذه الدعوة في وقت تتصاعد فيه المخاوف من تسارع تطوير أنظمة الذكاء الاصطناعي دون رقابة قانونية أو تنظيمية كافية، حيث حذّر عدد من خبراء الأمن الرقمي من إمكانية استخدام الذكاء الاصطناعي في التلاعب بالمعلومات، أو شنّ هجمات سيبرانية، أو حتى اتخاذ قرارات عسكرية ذاتية في المستقبل القريب.

ويرى مراقبون أن هذه المبادرة تمثل أقوى نداء جماعي حتى الآن من قبل نخبة عالمية تطالب بضرورة التمهّل ووضع أطر قانونية وأخلاقية صارمة قبل المضي قدماً في تطوير ذكاء اصطناعي قد يتجاوز السيطرة البشرية، ليصبح -كما يحذر البعض- "آخر اختراع للبشرية".



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية