التزييف العميق في قبضة القانون.. هل تكفي التشريعات لمواجهة الخطر الرقمي؟
التزييف العميق في قبضة القانون.. هل تكفي التشريعات لمواجهة الخطر الرقمي؟
بدأت تقنية "التزييف العميق" كإبداع تقني يُظهر إمكانيات الذكاء الاصطناعي في إنشاء محتوى رقمي متقدم، لكنها سرعان ما تحولت إلى أداة مثيرة للجدل تهدد نزاهة المعلومات وتنتقص من الخصوصية، بل وتشكل خطرًا على الأمن السيبراني والعدالة الاجتماعية، وبفضل خوارزميات التعلم العميق والشبكات العصبية التوليدية (GANs) أصبح من الممكن تزوير مقاطع فيديو وصور وتسجيلات صوتية تجعل من الصعب –إن لم يكن مستحيلًا– التمييز بين الحقيقي والمفبرك.
ولا تقتصر هذه التقنية على إنتاج محتوى ترفيهي أو تحسين المؤثرات البصرية، بل تمتد إلى استخدامها في حملات التضليل الإعلامي، والتشهير، والابتزاز، والتلاعب بالرأي العام، والاحتيال المالي، ما يضع العالم أمام تحدٍّ متزايد يحتاج إلى استجابة حاسمة من الحكومات، والمؤسسات التقنية، والمجتمع المدني.
وفي خطوة للحد من هذا التهديد، أعلنت الحكومة الإسبانية، يوم الثلاثاء، عن مشروع قانون يستهدف تجريم المقاطع الجنسية المزيفة المنتجة بتقنيات الذكاء الاصطناعي، عندما تُستخدم صور أو أجساد أشخاص دون موافقتهم.
ووفقًا لوكالة "فرانس برس"، قال وزير العدل الإسباني، فيليكس بولانيوس، خلال مؤتمر صحفي عقب اجتماع مجلس الوزراء، إن الحكومة تسعى إلى تصنيف "التزييف العميق ذي الطابع الجنسي أو المهين بشكل خطر" ضمن الجرائم التي تمسّ "النزاهة الأخلاقية".
وتندرج هذه الخطوة ضمن مشروع قانون أوسع يهدف إلى حماية الأطفال والمراهقين من أخطار "التكنولوجيا الرقمية"، وضمان حقهم في الخصوصية والكرامة الشخصية والصورة، وجاءت هذه الخطوة بعد انتشار عدة حالات في إسبانيا تضمنت نشر صور عارية مزيفة لفتيات مراهقات، مما دفع المتضررين إلى تقديم شكاوى قانونية ضد الجهات المسؤولة عن هذه الانتهاكات.
ارتفاع عمليات الاحتيال المالي
لا يقتصر التزييف العميق على إنتاج صور ومقاطع فيديو مزيفة فقط، بل يتطور ليشمل تسجيلات صوتية دقيقة، حيث يمكن إنشاء مقاطع صوتية تُنسب لشخصيات عامة دون أن يكون لها أي أساس من الصحة، ووفقًا لدراسة أجرتها "Bitget للأبحاث" في يوليو 2024 شهدت عمليات الاحتيال باستخدام التزييف العميق ارتفاعًا بنسبة 245% خلال عام واحد فقط، ما أدى إلى خسائر تقدر بـ79.1 مليار دولار منذ بداية عام 2022، كما تشير التوقعات إلى أن هذه التقنية ستشكل 70% من عمليات الاحتيال المتعلقة بالعملات الرقمية بحلول عام 2026، مع تقديرات بخسائر فصلية تصل إلى 10 مليارات دولار.
وتتجاوز التحديات الأمنية الناتجة عن التزييف العميق المجال المالي، لتصل إلى عالم السياسة والتلاعب بالرأي العام.. ففي الانتخابات، يمكن أن تُستخدم هذه التقنية لإنشاء مقاطع فيديو مزيفة تُظهر مرشحين سياسيين وهم يدلون بتصريحات ملفقة، ما قد يؤثر بشكل كبير على الناخبين، كما شهدت عدة دول حملات تضليل إعلامي اعتمدت على التزييف العميق لإثارة الانقسامات الاجتماعية أو لتشويه صورة شخصيات بارزة.
وحذر تقرير صدر عن وكالة الشرطة الأوروبية "يوروبول" من أن التزييف العميق قد يكون أحد أخطر الأدوات التي يتم توظيفها لزعزعة الثقة في المؤسسات الديمقراطية.
مخاطر التزييف العميق
أصبح التزييف العميق كذلك أداة خطيرة في قضايا الابتزاز والتشهير، حيث تُستخدم هذه التقنية لإنتاج مقاطع فيديو إباحية مزيفة لأشخاص حقيقيين بغرض الإضرار بسمعتهم أو دفعهم للرضوخ لمطالب معينة، وكشفت دراسة أجرتها شركة "Sensity" عام 2019 أن 96% من مقاطع الفيديو المزيفة المنشورة عبر الإنترنت كانت ذات طابع إباحي، واستُخدمت ضد نساء دون موافقتهن، ومع تطور أدوات التزييف العميق، لم يعد الأمر مقتصرًا على الشخصيات العامة، بل بات أي شخص معرضًا لخطر الوقوع ضحية لهذه التقنية، مما يخلق تحديات قانونية وأخلاقية معقدة.
لمواجهة هذه المخاطر، طُورت عدة أدوات للكشف عن المحتوى المزيف، مثل أداة "فايك كاتشر" من "إنتل"، والتي تعتمد على تصوير التحجم الضوئي لرصد تغيرات اللون في الأوعية الدموية للوجه، مما يساعد في كشف التزييف العميق في مقاطع الفيديو، كما طورت شركة "بيندروب" تقنية تُقسم الصوت إلى 8,000 مقتطف في الثانية لمقارنته بالخصائص البشرية، مما يسهم في كشف التسجيلات الصوتية المزيفة، علاوة على ذلك، تعمل شركات التكنولوجيا الكبرى، مثل "مايكروسوفت" و"غوغل"، على تطوير حلول تعتمد على الذكاء الاصطناعي المضاد لتحديد التزييف العميق ومنعه من الانتشار.
ورغم هذه الجهود التقنية، لا تزال هناك تحديات كبيرة في الكشف عن المحتوى المزيف بدقة عالية، فالأساليب المستخدمة في إنتاج التزييف العميق تتطور باستمرار، ما يتطلب تحديثًا مستمرًا لأدوات الكشف. إضافة إلى ذلك، لا تزال القوانين في معظم الدول غير محدثة بشكل كافٍ للتعامل مع هذا التهديد، مما يسمح للجهات الفاعلة السيئة باستغلال الفجوات القانونية لتنفيذ عملياتها دون عواقب قانونية واضحة.
ومن الناحية الحقوقية، يثير التزييف العميق قضايا جوهرية تتعلق بالخصوصية، والكرامة الإنسانية، والحق في حماية البيانات الشخصية. عندما يتم استخدام صور أو أصوات أشخاص دون إذنهم لإنشاء محتوى مزيف، فإن ذلك يُعتبر انتهاكًا صارخًا لحقوقهم، وفي بعض الدول، مثل المملكة المتحدة والولايات المتحدة، بدأت السلطات اتخاذ إجراءات قانونية ضد استخدام التزييف العميق لأغراض خبيثة، لكن تظل هذه القوانين غير كافية لحماية الأفراد بشكل كامل.
التوعية لمكافحة التزييف العميق
تلعب التوعية والتثقيف دورًا محوريًا في مكافحة هذه التقنية، ويتعين على الأفراد والمؤسسات الإعلامية تطوير مهارات التحقق من المعلومات وتعزيز التفكير النقدي، للتمييز بين المحتوى الحقيقي والمزيف، كما يجب على المؤسسات الإعلامية الالتزام بالتحقق من صحة المحتوى قبل نشره، خاصة في ظل الانتشار الواسع للمعلومات المضللة على منصات التواصل الاجتماعي.
ولا يقل الجانب الأخلاقي أهمية، إذ يطرح التزييف العميق أسئلة حول الحدود الأخلاقية لاستخدام الذكاء الاصطناعي في الإعلام والتواصل، إلى أي مدى يمكننا السماح لهذه التقنية بأن تتغلغل في حياتنا اليومية؟ وهل هناك طرق آمنة لاستخدامها دون الإضرار بالأفراد والمجتمعات؟ هذه التساؤلات تحتاج إلى نقاش عالمي موسع يشمل خبراء التقنية، وصناع القرار، ومنظمات المجتمع المدني، للوصول إلى إطار تنظيمي متوازن بين الابتكار والحماية.
ويظل التزييف العميق سلاحًا ذا حدين؛ فبينما يمكن استخدامه في تحسين تقنيات الترفيه وتطوير المحتوى الرقمي، فإن مخاطره تتطلب استجابة حازمة ومتعددة الأبعاد تشمل التطورات التقنية، والتشريعات القانونية، والتوعية المجتمعية.
ويقف العالم اليوم أمام مفترق طرق حاسم، إما أن نتمكن من السيطرة على هذه التقنية وتوجيهها نحو الاستخدامات الإيجابية، أو أن نسمح لها بأن تتحول إلى أداة للفوضى والمعلومات المضللة، وفي كل الأحوال يبقى الحل في مزيج من التطوير التكنولوجي المسؤول، والتشريعات القوية، والوعي المجتمعي، لضمان أن يظل العالم الرقمي فضاءً آمنًا للجميع.
خطر يستدعي تشريعات صارمة
أكد المهندس والخبير التقني محمد شكري الخولي، أن التزييف العميق ليس ظاهرة جديدة، بل كان موجودًا قبل تطور تقنيات الذكاء الاصطناعي، إلا أن التعامل معه في السابق كان محصورًا في نطاق تقني بحت، ولم يكن منتشرًا على نطاق واسع بسبب تعقيد أدواته وندرة المحتوى المزيف الذي يتم إنتاجه باحترافية. أما اليوم فقد تغيرت المعادلة تمامًا مع التطور السريع لنماذج الذكاء الاصطناعي، التي أصبحت متاحة كمصادر مفتوحة، ما أتاح لأي شخص يمتلك الحد الأدنى من المعرفة التقنية القدرة على إنتاج محتوى مزيف بجودة عالية.
وأوضح الخولي، في تصريحات لـ"جسور بوست"، أن التزييف العميق قد تطور إلى مراحل متقدمة، بحيث بات من الصعب على العين البشرية التمييز بين المحتوى الحقيقي والمزيف، لا سيما عند دمج تقنيات تزييف البصمة الصوتية، ما يضاعف من خطورة الأمر.
ورغم ذلك، هناك أدوات متخصصة وخبراء قادرون على كشف هذا التلاعب عبر دراسة عناصر محددة داخل المحتوى الرقمي، إلا أن التحدي الأكبر لا يكمن فقط في القدرة على كشف التزييف العميق اليوم، بل في ما يحمله المستقبل، إذ إن هذه التقنيات تتطور بوتيرة متسارعة قد تفوق وسائل الكشف التقليدية، ما يثير مخاوف كبيرة بشأن التداعيات المحتملة على الأمن الرقمي والمجتمعي.
وأشار الخولي إلى أن الخبراء يعتمدون على ثلاث نقاط رئيسية في كشف التزييف العميق، وهي: تحليل الظل والظلال، حيث يمكن أن تكشف التناقضات في توزيع الإضاءة عن وجود تلاعب رقمي، بالإضافة إلى متابعة حركة العنق والفم، إذ إن عدم مواكبتها للحركة الطبيعية قد يكون مؤشرًا على التزييف، أما النقطة الثانية، فتتعلق بتزامن حركة العين مع تعابير الوجه، حيث يمكن أن تظهر اختلالات طفيفة عند التزييف، فيما تتركز النقطة الثالثة على تزامن حركة الشفاه مع الصوت، حيث قد تكشف الفجوات الدقيقة عن وجود تلاعب.. ورغم هذه التقنيات، يظل الإنسان العادي أكثر عرضة للخداع، خاصة عندما يكون المحتوى المصور بجودة منخفضة، مما يسهل إخفاء علامات التزييف ويجعل اكتشافه أكثر صعوبة، وهذا ما يجعله أداة خطيرة يمكن استغلالها في عمليات الابتزاز، خصوصًا ضد الفتيات، ما يستوجب التعامل معها بحذر بالغ.
وشدد الخولي على أهمية وضع تشريعات وقوانين صارمة تقنن استخدام تقنيات التزييف العميق وفق معايير واضحة، مؤكدًا ضرورة إنشاء لجان استشارية متخصصة للتعامل مع المحتوى التقني المتقدم.
ولفت إلى أنه لا يمكن تقنين هذه التقنية دون امتلاك القدرة الكاملة على كشف التلاعب بها، مشددًا على ضرورة توجيه استخدامها نحو الأغراض الإيجابية، مثل صناعة السينما وإعادة تجسيد شخصيات تاريخية من فترات زمنية مختلفة، أو في عمليات التوثيق.
لكنه حذّر في الوقت ذاته من الاستخدامات السلبية، التي قد تؤدي إلى تداعيات خطيرة، سواء على المستوى الفردي أو المجتمعي، داعيًا إلى تكاتف الجهود بين الجهات التقنية والقانونية للحد من مخاطرها وضمان استخدامها في إطار مسؤول.