"الإيكونوميست": المخاطر "الوجودية" للذكاء الاصطناعي بحاجة إلى قواعد جيدة للسلامة

"الإيكونوميست": المخاطر "الوجودية" للذكاء الاصطناعي بحاجة إلى قواعد جيدة للسلامة

دفع التقدم الأخير في مجال الذكاء الاصطناعي، ولا سيما إطلاق برنامج تشات جي بي تي، مسألة "المخاطر الوجودية" إلى أعلى الأجندة الدولية، ففي مارس 2023، دعا عدد من كبار الشخصيات في مجال التكنولوجيا، بمن في ذلك إيلون ماسك، إلى وقفة لمدة 6 أشهر على الأقل في تطوير الذكاء الاصطناعي بسبب مخاوف تتعلق بالسلامة، وفي قمة سلامة الذكاء الاصطناعي في بريطانيا في الخريف الماضي، ناقش الساسة والعلماء أفضل السبل لتنظيم هذه التكنولوجيا الخطيرة المحتملة، وفقا لمجلة "الإيكونوميست".

والآن يبدو أن المخاوف من أن التكنولوجيا تتحرك بسرعة كبيرة قد حل محلها مخاوف من أن الذكاء الاصطناعي قد يكون أقل فائدة على نطاق واسع، في شكله الحالي، مما كان متوقعا، وأن شركات التكنولوجيا ربما بالغت في الترويج له، وفي الوقت نفسه، أدت عملية وضع القواعد إلى دفع صناع السياسات إلى إدراك الحاجة إلى التعامل مع المشاكل القائمة المرتبطة بالذكاء الاصطناعي، مثل التحيز والتمييز وانتهاك حقوق الملكية الفكرية.

وكما يوضح الفصل الأخير من ملخصات "الإيكونوميست" حول الذكاء الاصطناعي، فقد تحول تركيز التنظيم من المخاطر الغامضة الافتراضية إلى مخاطر محددة وفورية.

وقد تبين أن الأنظمة القائمة على الذكاء الاصطناعي التي تقيم الأشخاص للحصول على قروض أو رهن عقاري وتوزع الفوائد تظهر تحيزا عنصريا، على سبيل المثال.

ويبدو أن أنظمة التوظيف القائمة على الذكاء الاصطناعي التي تغربل السير الذاتية تفضل الرجال، ومن المرجح أن تخطئ أنظمة التعرف على الوجه التي تستخدمها وكالات إنفاذ القانون في تحديد هوية الأشخاص الملونين.

ويمكن استخدام أدوات الذكاء الاصطناعي لإنشاء مقاطع فيديو "مزيفة"، بما في ذلك مقاطع إباحية، لمضايقة الناس أو تحريف آراء الساسة، ويقول الفنانون والموسيقيون والمؤسسات الإخبارية إن أعمالهم استُخدمت، دون إذن، لتدريب نماذج الذكاء الاصطناعي.. هناك حالة من عدم اليقين بشأن قانونية استخدام البيانات الشخصية لأغراض التدريب دون موافقة صريحة.

وكانت النتيجة موجة من القوانين الجديدة، وسيتم حظر استخدام أنظمة التعرف على الوجه الحية من قبل وكالات إنفاذ القانون بموجب قانون الذكاء الاصطناعي للاتحاد الأوروبي، على سبيل المثال، إلى جانب استخدام الذكاء الاصطناعي في عمليات الشرطة التنبئية والتعرف على المشاعر والإعلانات الفرعية.

وقد أدخلت العديد من البلدان قواعد تتطلب وضع علامات على مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، وحظرت كوريا الجنوبية مقاطع الفيديو المزيفة للسياسيين في غضون 90 يومًا قبل الانتخابات، وقد تحذو سنغافورة حذوها.

وفي بعض الحالات، ستحتاج القواعد الحالية إلى توضيح، وقالت كل من شركة أبل وميتا إنهما لن تطلقا بعض منتجات الذكاء الاصطناعي الخاصة بهما في الاتحاد الأوروبي بسبب الغموض في القواعد المتعلقة باستخدام البيانات الشخصية.

وفي مقالة نشرت على الإنترنت في مجلة الإيكونوميست، يزعم مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، ودانييل إيك، رئيس شركة سبوتيفاي، أن هذا الغموض يعني حرمان المستهلكين الأوروبيين من الوصول إلى أحدث التقنيات.

وقد يتم البت في بعض الأمور -مثل ما إذا كان استخدام المواد المحمية بحقوق الطبع والنشر لأغراض التدريب مسموحا به بموجب قواعد "الاستخدام العادل"- في المحاكم.

وستكون بعض هذه الجهود الرامية إلى التعامل مع المشاكل القائمة مع الذكاء الاصطناعي أفضل من غيرها، لكنها تعكس الطريقة التي اختار بها المشرعون التركيز على المخاطر الحقيقية المرتبطة بأنظمة الذكاء الاصطناعي الحالية، وهذا لا يعني أن المخاطر المتعلقة بالسلامة ينبغي تجاهلها، فمع مرور الوقت، قد تكون هناك حاجة إلى لوائح سلامة محددة، ولكن من الصعب تحديد طبيعة ومدى المخاطر الوجودية المستقبلية، ما يعني أنه من الصعب التشريع ضدها الآن.

بالنظر إلى مشروع قانون مجلس الشيوخ رقم 1047، وهو قانون مثير للجدل يشق طريقه عبر الهيئة التشريعية لولاية كاليفورنيا، يقول المدافعون إن مشروع القانون من شأنه أن يقلل من فرصة تسبب الذكاء الاصطناعي المارق في كارثة -والتي تُعرف بأنها "خسائر بشرية جماعية"، أو أضرار تزيد قيمتها على 500 مليون دولار- من خلال استخدام الأسلحة الكيميائية أو البيولوجية أو الإشعاعية أو النووية، أو الهجمات الإلكترونية على البنية التحتية الحيوية، وسوف يتطلب من منشئي نماذج الذكاء الاصطناعي الكبيرة الامتثال لبروتوكولات السلامة وبناء "مفتاح القتل".

ويقول المنتقدون إن إطاره يرجع إلى الخيال العلمي أكثر من الواقع، وإن صياغته الغامضة من شأنها أن تعرقل الشركات وتخنق الحرية الأكاديمية، وحذر أندرو نج، الباحث في مجال الذكاء الاصطناعي، من أن هذا من شأنه أن "يشل" الباحثين، لأنهم لن يكونوا متأكدين من كيفية تجنب مخالفة القانون.

بعد ضغوط شرسة من المعارضين، تم تخفيف بعض جوانب مشروع القانون في وقت سابق من هذا الشهر، بعض أجزائه منطقية، مثل الحماية للمبلغين عن المخالفات في شركات الذكاء الاصطناعي، لكنه في الغالب يقوم على اعتقاد شبه ديني بأن الذكاء الاصطناعي يشكل خطر الضرر الكارثي واسع النطاق، على الرغم من أن صنع الأسلحة النووية أو البيولوجية يتطلب الوصول إلى الأدوات والمواد الخاضعة لرقابة مشددة.

في الوضع الحالي، من الصعب أن نرى كيف يمكن لنموذج الذكاء الاصطناعي الكبير أن يسبب الموت أو الدمار المادي، ولكن هناك العديد من الطرق التي يمكن أن تتسبب بها أنظمة الذكاء الاصطناعي بالفعل في أشكال غير مادية من الضرر، لذلك فإن المشرعين، في الوقت الحالي، على حق في التركيز على تلك الطرق.


قد يعجبك ايضا

ابق على اتصال

احصل على النشرة الإخبارية