تهديد يتسارع وحماية تتأخر.. كيف غيّر الذكاء الاصطناعي معادلة الهجمات السيبرانية؟

تهديد يتسارع وحماية تتأخر.. كيف غيّر الذكاء الاصطناعي معادلة الهجمات السيبرانية؟
الذكاء الاصطناعي والهجمات السيبرانية

بدأت موجة الجريمة الإلكترونية الحديثة برسائل تصيّد بدائية وفيروسات ملفية في التسعينيات، ثم تصاعدت مع اقتصاد الفدية والتشفير في العقد الماضي، قبل أن تنقل أدوات التوليد الآلي التهديد إلى طور محاكاة البشر والعمليات المؤسسية، وقد صنّف المنتدى الاقتصادي العالمي التضليل والمعلومات المضللة المعززة رقمياً ضمن أخطر المخاطر قصيرة الأجل على مستوى العالم، في إشارة إلى الترابط بين أمن المعلومات، والاستقرار السياسي، والاقتصاد

وتسبّب الانتشار السريع لتقنيات الذكاء الاصطناعي التوليدي في انعطافة حادّة على خريطة التهديدات السيبرانية عالمياً، فبعد أن كانت عمليات الاختراق المعقّدة حكراً على مجموعات منظّمة ذات تمويل وخبرة، بات بإمكان جهات أقل احترافاً تقليد المحترفين، وتوليد برمجيات خبيثة ورسائل تصيّد متقنة وإنتاج “شخصيات رقمية” قادرة على خداع الموظفين والأنظمة في آن واحد. 

وتجمع تقارير متطابقة لشركات أمن سيبراني وهيئات حكومية ومنظمات حقوقية على أن الذكاء الاصطناعي خفّض كلفة الهجوم، ورفع سرعته، ووسّع أثره، وأربك الأدوات التقليدية للاكتشاف والاستجابة، وتوثّق شركة "كراودسترايك" في تقريرها لعام 2025 أن البرمجيات الخبيثة المصممة بمعونة الذكاء الاصطناعي انتقلت من خانة “الاحتمال النظري” إلى التطبيق العملي، مع رصد استخدام منسوب لجهات في كوريا الشمالية لإنشاء هويات مهنية مزيفة واجتياز مقابلات عمل بغرض التسلل إلى شركات غربية، وكذلك توظيف مجموعات مرتبطة بإيران للأدوات اللغوية لتطوير حملات تصيّد وهندسة اجتماعية أكثر إقناعاً. 

عوامل مفسرة

ثلاثة عوامل تفسّر القفزة الحالية، أولها، وفرة النماذج والأدوات مفتوحة المصدر وسهولة الوصول إلى واجهات استخدام تولّد نصوصاً وشفرات بكبسة زر، وثانيها، اقتصاد الجريمة السيبرانية القائم على خدمات جاهزة للاستئجار من “سوق مظلمة” حيث يزوّد المهاجمين بقوالب هجمات متكررة يمكن تحسينها آلياً، وثالثاً، عجز كثير من المؤسسات عن تحديث ضوابطها الأمنية بوتيرة تماثل سرعة الابتكار، مع ثغرات بشرية ثابتة تؤكدها بيانات “دي بي آي آر” بأن العامل البشري يظل سبباً مركزياً في معظم الخروقات، حتى مع إدخال أدوات جديدة. 

أبرز التحولات تتمثل في الجمع بين الأتمتة والإقناع البشري المصطنع، إذ يتكفّل الذكاء الاصطناعي بصياغة رسائل موثوقة لغوياً وثقافياً في عشرات اللغات، وبناء ملفات تعريف لموظفين وهميين، وتوليد أصوات ووجوه عميقة التزييف للاجتماعات المرئية.

وقد وثّقت شرطة هونغ كونغ عملية احتيال استثنائية العام الماضي استُخدم فيها اجتماع مرئي مزيّف بخوارزميات توليد الوجوه والأصوات لدفع موظف لتحويل 25 مليون دولار إلى حسابات المحتالين، وهذه الواقعة جسّدت كيف تتحوّل “الهندسة الاجتماعية” من رسائل بدائية إلى محاكاة بشرية كاملة تصعّب على الأفراد والنظم اكتشافها.

شواهد وأرقام حديثة

يعكس منحنى الكُلفة والمخاطر اتساع الفجوة بين المهاجمين والمدافعين، حيث يقدّر تقرير “تكلفة خرق البيانات” لآي بي إم لعام 2025 متوسط كلفة الخرق بنحو 4.88 مليون دولار للحادثة الواحدة، فيما تشير تحليلات “تشين أناليسس” إلى أن مدفوعات الفدية سجّلت أرقاماً قياسية تاريخية خلال 2023 واستمرت مرتفعة، ما يؤكد ربحية نموذج الابتزاز المدفوع بذكاء اصطناعي في صياغة الرسائل والتشفير والانتشار، وتُظهر تقارير أوروبية وأمريكية رسمية أن برمجيات التصيّد المولّدة آلياً تتجاوز مرشحات البريد بسهولة أعلى، وأن المحتوى العميق التزييف بات يهدد مؤسسات ديمقراطية واقتصادية على حد سواء. 

لا تقف خسائر الهجمات السيبرانية عند حدود الأرقام، فتعطل خدمات المستشفيات والبنى التحتية الحيوية يترك أثراً مباشراً على الحق في الصحة والسلامة، وتنبّه أجهزة الأمن السيبراني في الولايات المتحدة وبريطانيا إلى المخاطر الخاصة بالقطاعات الأساسية، داعيةً إلى اعتماد مبدأ “آمن بالتصميم” و”آمن افتراضاً” وتضمين ضوابط استخدام الذكاء الاصطناعي في دورة حياة تطوير الأنظمة. 

كما يحذر تقرير الإنتربول من أن أدوات التوليد اللغوي والمرئي خفّضت العتبة التقنية لارتكاب جرائم معقّدة، ما يزيد تعرض الأفراد لابتزاز واسع النطاق واستغلال جنسي رقمي، ويعمّق التمييز عبر خوارزميات تولّد محتوى مضللاً يستهدف فئات بعينها، هذه التداعيات تعني أن المسألة لم تعد تقنية صرفاً، بل قضية حقوق إنسان تتعلق بالكرامة والخصوصية وعدم التمييز. 

إطارات القانون والتنظيم

تسعى أطر متعددة لسد الفجوة، فاللائحة الأوروبية للذكاء الاصطناعي التي أُقرت عام 2024 تُلزم بوسوم شفافية للمحتوى العميق التزييف، وتفرض ضوابط على الأنظمة عالية المخاطر، مع جداول زمنية للتنفيذ خلال 2025 وما يليها، وفي المنظومة الرقمية الأوسع، يفعّل قانون الخدمات الرقمية في الاتحاد الأوروبي أدوات لإدارة المخاطر النظامية على المنصات الكبرى، بما فيها مخاطر المعلومات المضللة والمحتوى الاصطناعي خلال الدورات الانتخابية، وعلى صعيد إنفاذ القانون عبر الحدود، تواصل “اتفاقية بودابست” بشأن الجريمة السيبرانية لعب دور الإطار المرجعي مع بروتوكول إضافي لتسهيل الحصول على الأدلة الإلكترونية عبر الحدود، فيما تتواصل المشاورات الأممية حول معاهدة سيبرانية عالمية وسط نقاش حقوقي واسع حول الضمانات. 

تؤكد هيئات حقوق الإنسان في الأمم المتحدة أن تقنيات الذكاء الاصطناعي تؤثر مباشرة على الحق في الخصوصية وحرية التعبير والوصول إلى المعلومات، وتشدّد المفوضية السامية في تقاريرها وبياناتها على ضرورة مواءمة الابتكار مع مبادئ الشرعية والضرورة والتناسب، والشفافية والخضوع للمساءلة، خاصة حين تستخدم الأدوات الخوارزمية في المراقبة أو مكافحة الجريمة، كما تدعو “هيومن رايتس ووتش” و”أكسس ناو” و”إلكترونيك فرونتير فاونديشن” إلى حظر الاستخدامات عالية الخطورة التي تفتقر إلى ضمانات، وإخضاع قدرات التزييف العميق لالتزامات وسم ومراجعة مستقلة، مع حماية المبلّغين والباحثين الذين يختبرون أمن الأنظمة. 

وتلتقي هذه المقاربات مع تحذيرات اليونسكو والاتحاد الأوروبي من أثر المحتوى الاصطناعي على نزاهة النقاش العام وحقوق الأقليات، والحاجة إلى تنظيمات تحمي البيئة الإعلامية من الاستغلال دون تقويض الحريات، وفق المفوضية السامية لحقوق الإنسان.

كيف تتكيّف الجريمة المنظمة 

تُظهر متابعة الوكالات الأمنية أن جهات مموّلة من دول تستفيد من الذكاء الاصطناعي في ثلاث دوائر هي الاستطلاع الآلي واسع النطاق، وتصنيع روايات دعائية مؤتمتة بلغات محلية، وتوليد أدوات هجومية تُكيّف نفسها مع بيئات الضحية. 

ويُسجّل التقرير السنوي للإنتربول تصاعداً في استغلال الذكاء الاصطناعي لتجاوز الضوابط التقليدية، فيما ترصد كراودسترايك حملات إيرانية تعتمد النمذجة اللغوية لإغراء موظفين وشنّ هجمات تصيّد مخصّصة، إلى جانب استخدام منسوب لجهات كورية شمالية لهويات مزيفة للتغلغل في سلاسل توريد البرمجيات.

الصحة والخدمات المالية والتعليم والطاقة تأتي في مقدمة القطاعات الأكثر تعرضاً للأزمة، ففي المستشفيات، تسهّل أدوات الذكاء الاصطناعي توليد رسائل بريد متقنة تحاكي شركاء خدمة أو مورّدين، بينما يعتمد المهاجمون في المصارف على تقليد أصوات المديرين أو وثائق امتثال لتجاوز ضوابط التحويل، ويبيّن تقرير آي بي إم أن متوسط الكلفة يقفز لدى القطاعات المنظمة بشدة بسبب التزامات الإخطار والغرامات ووقت التعطل، أما الجامعات فتواجه موجات احتيال تستهدف بوابات الدخول وحسابات الطلبة عبر روبوتات محادثة تتفاعل في الزمن الحقيقي، وهذه الأنماط تعزّزها ملاحظات “إنيسا” و”يوروبول” التي تضع الهندسة الاجتماعية المعززة بالذكاء الاصطناعي ضمن أهم اتجاهات التهديد، مع توصية بتعزيز المصادقة متعددة العوامل وإدارة الامتيازات واكتشاف الشذوذ السلوكي. 

تتجه الوكالات السيبرانية إلى مقاربة “الدفاع بالذكاء الاصطناعي” لمجاراة الهجوم، ويقترح الخبراء تحويل اختبار الاصطناع العميق من “ميزة إضافية” إلى وظيفة امتثال أساسية في المؤسسات التي تتعامل مع أموال الجمهور والبيانات الحساسة، ومع أن الأطر التنظيمية الأوروبية تشدد على وسم المحتوى الاصطناعي وإدارة المخاطر على المنصات، فإن تطبيقها العملي يتطلب موارد، ووصولاً إلى بيانات المنصات للباحثين وفق قواعد مستحدثة بموجب قانون الخدمات الرقمية، كما يوصي الاتحاد الأوروبي بتفعيل أكواد الممارسة لمكافحة المعلومات المضللة. 



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية