"حوارات كيسنجر".. محادثات "سرية" لحماية العالم من مخاطر الذكاء الاصطناعي
عقدت بين أمريكا والصين
سافر السياسي والدبلوماسي الأمريكي، هنري كيسنجر إلى بكين للمرة الأخيرة قبل وفاته، في يوليو من العام الماضي، ومن بين الرسائل التي نقلها إلى حاكم الصين شي جين بينغ، تحذير بشأن المخاطر الكارثية للذكاء الاصطناعي، ومنذ ذلك الحين، التقى رؤساء شركات التكنولوجيا الأمريكية ومسؤولون حكوميون سابقون بهدوء مع نظرائهم الصينيين في سلسلة من الاجتماعات غير الرسمية التي أطلق عليها اسم "حوارات كيسنجر".
ووفقا لمجلة "الإيكونوميست"، ركزت المحادثات جزئيا على كيفية حماية العالم من مخاطر الذكاء الاصطناعي، ومن المتوقع أن يتناول المسؤولون الأمريكيون والصينيون هذا الموضوع (إلى جانب العديد من الموضوعات الأخرى) في السابع والعشرين من أغسطس، عندما يسافر مستشار الأمن القومي الأمريكي جيك سوليفان إلى بكين.
ويعتقد كثيرون في عالم التكنولوجيا أن الذكاء الاصطناعي سوف يضاهي أو يتفوق على القدرات المعرفية للبشر، ويتوقع بعض المطورين أن تكون نماذج الذكاء الاصطناعي العام قادرة على التعلم ذات يوم، وهو ما قد يجعلها غير قابلة للسيطرة.
يطلق على أولئك الذين يعتقدون أن الذكاء الاصطناعي يشكل خطراً وجودياً على البشرية، إذا ترك دون رادع، "المتشائمون"، وهم يميلون إلى الدعوة إلى فرض لوائح تنظيمية أكثر صرامة، وعلى الجانب الآخر، هناك "المسرعون"، الذين يؤكدون قدرة الذكاء الاصطناعي على إفادة البشرية.
وغالباً ما يزعم المسرعون الغربيون أن المنافسة مع المطورين الصينيين، الذين لا تكبحهم الضمانات القوية، شرسة إلى الحد الذي يجعل الغرب غير قادر على تحمل التباطؤ، وهذا يعني ضمناً أن المناقشة في الصين من جانب واحد، حيث يتمتع المسرعون بأكبر قدر من القول بشأن البيئة التنظيمية، والواقع أن الصين لديها متشائمون من الذكاء الاصطناعي، وهم مؤثرون بشكل متزايد.
حتى وقت قريب، ركزت الهيئات التنظيمية في الصين على خطر روبوتات الدردشة المارقة التي تقول أشياء غير صحيحة سياسياً عن الحزب الشيوعي، بدلاً من خطر خروج النماذج المتطورة عن السيطرة البشرية، وفي عام 2023، طلبت الحكومة من المطورين تسجيل نماذجهم اللغوية الكبيرة.
ويتم وضع علامات على الخوارزميات بانتظام على مدى امتثالها للقيم الاشتراكية وما إذا كانت قد "تقوض سلطة الدولة".
وتهدف القواعد أيضاً إلى منع التمييز وتسريب بيانات العملاء، ولكن بشكل عام، فإن اللوائح التنظيمية المتعلقة بسلامة الذكاء الاصطناعي خفيفة، فقد تم إلغاء بعض القيود الأكثر صرامة التي فرضتها الصين في العام الماضي.
ويريد دعاة التسارع في الصين إبقاء الأمور على هذا النحو، فقد زعم مستشار الحزب ومدير برنامج مدعوم من الدولة لتطوير الذكاء الاصطناعي العام، تشو سونغ تشون، أن تطوير الذكاء الاصطناعي لا يقل أهمية عن مشروع «قنبلتان وقمر صناعي واحد»، وهو مشروع يعود إلى حقبة ماو لإنتاج أسلحة نووية بعيدة المدى.
وفي وقت سابق من هذا العام، استخدم وزير العلوم والتكنولوجيا، يين هيجون، شعارا قديما للحزب للضغط من أجل تحقيق تقدم أسرع، فكتب أن التنمية، بما في ذلك في مجال الذكاء الاصطناعي، كانت أعظم مصدر للأمن في الصين.
ويحذر بعض صناع السياسات الاقتصادية من أن السعي المفرط إلى تحقيق السلامة من شأنه أن يضر بالقدرة التنافسية للصين، ولكن دعاة التسارع يواجهون مقاومة من زمرة من العلماء النخبة الذين يحظون بموافقة الحزب الشيوعي.
ومن أبرز هؤلاء أندرو تشي تشي ياو، الشخص الصيني الوحيد الذي فاز بجائزة تورينج للتقدم في علوم الكمبيوتر، وفي يوليو، قال إن الذكاء الاصطناعي يشكل خطرا وجوديا على البشر أكبر من الأسلحة النووية أو البيولوجية.
ويعتقد الرئيس السابق لشركة بايدو، تشانغ يا تشين، عملاق التكنولوجيا الصيني، وشوي لان، رئيس لجنة الخبراء الحكومية المعنية بحوكمة الذكاء الاصطناعي، أن الذكاء الاصطناعي قد يهدد الجنس البشري.