الذكاء الاصطناعي يستمع للإنسان أكثر مما ينبغي.. فمن يحمي أسرارنا؟

الذكاء الاصطناعي يستمع للإنسان أكثر مما ينبغي.. فمن يحمي أسرارنا؟
روبوتات الذكاء الاصطناعي - أرشيف

في خضم التحول الرقمي المتسارع، لم يعد الذكاء الاصطناعي رفاهية تقنية أو مجرد أداة مساعدة على الهامش، بل أصبح مكونًا رئيسيًا في تفاصيل حياتنا اليومية، ومع انتشار أدوات المحادثة التفاعلية، مثل ChatGPT، لم تعد التفاعلات الرقمية مجرّد تبادل كلمات، بل تحوّلت إلى نوافذ مفتوحة تطلّ على دواخلنا الشخصية، تتيح الحوار لكنها في الوقت ذاته تهدد خصوصيتنا.

وتُظهر نماذج الذكاء الاصطناعي قدرة مذهلة على تقليد الإنسان في الفهم والتحليل، بل وتقديم استجابات تُضاهي أحيانًا مستوى البشر في التعاطف والإقناع. إلا أن هذه النماذج، رغم ذكائها، تفتقر إلى الوعي الأخلاقي ولا تخضع للمساءلة القانونية، وهنا تبرز الإشكالية: ما الذي يحمي المستخدم عندما يُفصح –بوعي أو بدونه– عن مشاعر أو معلومات حساسة لمنظومة صامتة تجمع كل شيء؟

وكشفت دراسة حديثة صادرة عن جامعة ETH Zurich السويسرية في أبريل 2024 أن نماذج مثل GPT-4 تستطيع استنتاج بيانات حساسة عن المستخدم، مثل الانتماء العرقي والموقع الجغرافي والميول السياسية، بدقة وصلت إلى 95%، فقط من خلال تحليل سياق الكلمات، هذه الاستنتاجات لا تأتي من إفصاح صريح، بل من أنماط لغوية خفية، ما يكشف عن مدى عمق "قراءة" الذكاء الاصطناعي لنا، حتى دون أن نعلم.

ولا تتوقف المخاطر عند هذا الحد، واحدة من أكثر القضايا إثارة للقلق تتعلق بما يُعرف بـ"استذكار البيانات" (Data Memorization)، حيث تُظهر بعض النماذج قدرة على استدعاء معلومات تم تضمينها في محادثات سابقة أو أثناء مرحلة التدريب، حيث أظهرت دراسة أجراها باحثون من جامعتي ستانفورد وكورنيل في 2023 أن بعض النماذج كررت عن غير قصد بيانات حساسة مثل أرقام بطاقات الائتمان أو رسائل البريد الإلكتروني.

ثغرات تقنية وأخطار

في مارس 2023، أعلنت شركة OpenAI عن حادثة أمنية أدّت إلى ظهور بيانات حساسة لمستخدمين، من بينها عناوين بريد إلكتروني ومعلومات اشتراكات، ورغم الاستجابة السريعة للشركة، فإن الحادثة سلّطت الضوء على هشاشة البنية الأمنية حتى لدى كبار مزوّدي تقنيات الذكاء الاصطناعي.

لكن الخطر الأكبر لا يكمن فقط في الثغرات الأمنية، بل في السياسات المتبعة في جمع البيانات. فالكثير من الشركات تجمع بيانات المحادثات دون علم المستخدم الصريح، لاستخدامها في تدريب وتحسين النماذج، وحتى مع توفير خيار تعطيل هذه الخاصية، فإن نسبة كبيرة من المستخدمين تجهل وجودها أو كيفية تفعيلها.

وتُستخدم تقنيات تشفير قوية مثل AES-256 وTLS لحماية الاتصالات أثناء النقل، إلا أن المشكلة تبدأ بعد وصول البيانات إلى الخوادم. فكلما طالت فترة تخزين البيانات، زادت فرص تسريبها، وتسعى تقنيات جديدة مثل "الحوسبة المُشفّرة" لحل هذه المعضلة عبر تحليل البيانات دون فك تشفيرها، لكنها لا تزال في مراحلها الأولى.

قانونيًا، يُعد الاتحاد الأوروبي الأسبق في تنظيم خصوصية البيانات من خلال اللائحة العامة لحماية البيانات (GDPR)، التي تُلزم الشركات بإعلام المستخدمين بطريقة استخدام بياناتهم. أما الولايات المتحدة فلا تمتلك قانونًا فيدراليًا موحّدًا، بينما يُعد قانون كاليفورنيا (CCPA) استثناءً جزئيًا.

وفي العالم العربي، لا تزال التشريعات في بداياتها؛ السعودية أطلقت سياستها الوطنية لحماية البيانات الشخصية عام 2021، والإمارات أقرت قانونًا اتحاديًا في 2022، لكن لا تزال آليات تطبيق هذه القوانين على الذكاء الاصطناعي محدودة وغير واضحة.

الذكاء الاصطناعي كحامٍ محتمل

يمكن للذكاء الاصطناعي نفسه أن يكون أداة لحماية الخصوصية، إذا تم توجيهه بشكل مسؤول، فمن الممكن تطوير خوارزميات تنبّه المستخدم في حال كشفه معلومات حساسة، أو تستخدم تقنيات مثل الخصوصية التفاضلية (Differential Privacy) التي تسمح بتحسين النماذج دون ربط البيانات بهويات المستخدمين، وتعتمد شركات مثل Apple هذه التقنية بالفعل، لكن دمجها الكامل في نماذج المحادثة لا يزال يواجه تحديات.

وتزايدت الدعوات لإنشاء هيئات رقابية مستقلة تراقب مدى التزام شركات الذكاء الاصطناعي بالشفافية، كما أوصى تقرير أوروبي في 2023 بضرورة إنشاء وكالة خاصة لمراقبة هذا القطاع، حيث أشار التقرير إلى أن 72% من المستخدمين الأوروبيين يشعرون بالقلق من استخدام بياناتهم دون إذن واضح.

وفي ظل ارتفاع عدد الهجمات السيبرانية التي تستهدف منصات الذكاء الاصطناعي بنسبة 35% خلال عام 2024، بحسب شركة Cybersecurity Ventures، أصبحت الرقابة المستقلة ضرورة أخلاقية قبل أن تكون قانونية.

ويبقى أكبر التحديات هو ضعف وعي المستخدمين. دراسة لمعهد Pew Research في 2023 أظهرت أن 58% من مستخدمي الذكاء الاصطناعي لا يعرفون أن محادثاتهم قد تُخزن وتُستخدم لتحسين النماذج. يتعامل كثيرون مع هذه الأدوات وكأنها دفاتر أسرار، بينما هي في الحقيقة أدوات ذكية تسجل وتخزن وتتعلم.

وتوصي تقارير منظمة اليونسكو بتضمين مفاهيم حماية البيانات في المناهج التعليمية، خصوصًا أن 70% من الشباب لا يتلقون تعليمًا كافيًا في هذا المجال، ما يجعلهم عرضة للاستغلال.

وهنا.. فإننا أمام مفترق طرق حاسم: إما أن ننجرف خلف بريق الذكاء الاصطناعي دون قيود، أو أن نؤسس لمرحلة جديدة تحترم "الكرامة الرقمية"، وتعيد الاعتبار لخصوصيتنا في عالم تُمحى فيه المسافات بين الإنسان والآلة، فالخصوصية لم تعد حقًا قانونيًا فقط، بل أصبحت عنوانًا لهويتنا في الفضاء الرقمي.

الذكاء الاصطناعي والخصوصية

قالت الدكتورة لامان محمد، رئيس قطاع الذكاء الاصطناعي وقطاع الميتافيرس في شركة "السحابة الكبيرة الدولية"، إن تحديات الخصوصية في عصر الذكاء الاصطناعي والانفتاح الرقمي بلغت مرحلة حرجة، تتطلب وقفة قانونية وتقنية ومجتمعية عاجلة، كثيرًا من المستخدمين لا يدركون بعد أن كل ما يبوحون به لأدوات الذكاء الاصطناعي يتم تخزينه، وربما يُستخدم لاحقًا دون علمهم، مما يستدعي وعيًا متزايدًا بخطورة الإفصاح غير المنضبط، وضرورة تقنين الأحاديث الشخصية مع هذه الأدوات الذكية.

وأكدت لامان محمد، في تصريحات لـ"جسور بوست"، أن من الضروري تفعيل إعدادات الخصوصية داخل التطبيقات والمنصات الذكية، حيث لا يعرف كثيرون ماذا يُشاركون فعلاً ومع من، ولفتت إلى أن الهدوء النفسي الذي يشعر به المستخدم أثناء الحديث مع روبوت دردشة ذكي لا يعني أنه في أمان، بل قد يكون ذلك الهدوء فخاً رقمياً، خاصة حين يستجيب الذكاء الاصطناعي بتعاطف وذكاء يُشبه ردود "حبيب افتراضي" أو "طبيب نفسي رقمي"، ما يضاعف خطر الانجراف نحو علاقات رقمية زائفة.

وسردت واقعة تعرّضت لها إحدى الفتيات عام 2023، حين شاركت مشكلتها العاطفية مع أحد تطبيقات الذكاء الاصطناعي، لتتفاجأ لاحقًا بوصول إيميلات من شركات علاج نفسي ومنصات دعم عاطفي. اتضح لاحقًا أن المنصة الذكية التي استخدمتها قامت بتتبع تطبيقاتها الأخرى، واستغلت ملفات تعريف الارتباط (Cookies) لتوجيهها نحو خدمات لم تطلبها. وهو ما يدل، بحسب محمد، على أن التهديدات لا تأتي فقط من الذكاء الاصطناعي ذاته، بل من الشركات المطورة التي تحلل النصوص، وتفك شفرات الصوت، وقد تخترق الأنظمة أو تبيع البيانات لأغراض تجارية، أحيانًا بقصد، وأحيانًا بسبب تسريبات غير متعمدة.

وأضافت: "شهدنا في 2023 خطأً تقنيًا في منصة تشات جي بي تي، تسبب في تسريب بيانات بعض المستخدمين، ما يعكس هشاشة بعض الأنظمة، ويطرح سؤالاً جوهريًا: كيف نضمن سرية المعلومات؟". وأوضحت أن تشفير البيانات يجب أن يكون تلقائيًا داخل كل تطبيق، وأن الحماية الذاتية لنماذج الذكاء الاصطناعي لا تكفي، ما لم يتحكم المستخدم فيما يدخله بنفسه.

وأشارت إلى أن الذكاء الاصطناعي يتعلم من كل محادثة، ويحفظ أنماط التفكير، حتى وإن تم حذف الدردشة. "الأداة الذكية قد لا تتذكر الكلمات، لكنها تحتفظ بأسلوبك، ومفاتيحك النفسية، ما يجعلها قادرة على التنبؤ بردود أفعالك، بل واستخدام تلك المعرفة عند الحاجة، بقصد أو بغير قصد".

وتحدثت عن الجهود القانونية لحماية الخصوصية، مشيرة إلى أن الاتحاد الأوروبي أصدر عام 2024 قوانين تلزم مطوّري الذكاء الاصطناعي بالكشف عن كيفية استخدامهم لبيانات المستخدمين. لكنها شددت على أن هذه التشريعات تظل محدودة، خاصة في العالم العربي، حيث لا يزال كثيرون يجهلون حقوقهم القانونية الرقمية، ويتجاهلون إعدادات الخصوصية عند التسجيل في أي منصة.

وطالبت بوجود هيئات رقابية لتقييم النماذج الذكية، وإلزام الشركات بتوثيق تعاملاتها مع البيانات، على غرار التجربة السعودية التي أقرت منظومة تمرّ عبرها كل أنواع المحتوى، لضمان مطابقته للمعايير الأمنية.

وأبدت قلقها من الأبعاد النفسية الناتجة عن مشاركة الأسرار مع الذكاء الاصطناعي، مشيرة إلى أنه يُوهم المستخدم بأنه صديق مقرب، مما يشجعه على البوح بتفاصيل دقيقة قد تُستخدم لاحقًا ضده. وتحدثت عن فتاة اتخذت من "تشات جي بي تي" حبيبًا، لكنها أصيبت بخيبة أمل حين لاحظت أنه لا يتذكر التفاصيل، وأنه "غبي" في بعض الأمور، ما سبب لها إرهاقًا نفسيًا. وقالت إن الاعتماد المفرط على هذه النماذج يضعف التفكير النقدي والمهارات الإبداعية ويكرّس العزلة.

وكشفت عن تطورات مرعبة في الذكاء الاصطناعي، منها نماذج قادرة على توليد هيئة جسدية كاملة من مجرد صورة للوجه، أو تقليد الصوت من بضع ثوانٍ مسجلة، قائلة: "بهذا الشكل نحن نصنع نسخة رقمية كاملة من أنفسنا، يمكن استغلالها واختراقها وبيعها".

واختتمت حديثها بضرورة استخدام منصات موثوقة فقط، وعدم الإفصاح عن المعلومات الحقيقية كرقم الهاتف أو التاريخ المرضي أو تفاصيل الحسابات. 

وشددت على ضرورة إدخال هذه الثقافة إلى المناهج التعليمية، وتنظيم حملات توعية عبر وسائل الإعلام والسوشيال ميديا، داعية الحكومات إلى إصدار قوانين واضحة تُجرّم تسريب البيانات وتُلزم الشركات بحماية المستخدمين، حماية لا تُبنى فقط على الكود البرمجي، بل على الوعي والإرادة السياسية والمجتمعية.

الذكاء الاصطناعي وحماية الخصوصية

قالت الدكتورة نجلاء الأنصاري، خبيرة الذكاء الاصطناعي إننا نعيش اليوم في عصر أصبح فيه الذكاء الاصطناعي رفيقًا حميمًا للإنسان، حيث بات المستخدم يبوح له بأعمق أسراره وأدق تفاصيل حياته، دون أن يتصور أن هذه الثقة قد تنقلب عليه يومًا ما، فتُستخدم تلك المعلومات ضده في سياقات قد تسبب له ضررًا بالغًا، موضحة أن دائرة الاعتماد على أدوات الذكاء الاصطناعي تتسع بشكل مستمر، فتتحول المحادثات بين الإنسان والآلة من مجرد استفسارات سطحية إلى اعترافات عميقة ومعلومات شخصية دقيقة، بل وربما حساسة، مما يزيد من المخاطر المترتبة على خصوصية الأفراد.

وأشارت الأنصاري، في تصريحات لـ"جسور بوست"، إلى أن الخطورة لا تكمن فقط في عمق وطبيعة العلاقة الجديدة بين المستخدم والآلة، بل تتجلى أيضًا في البيئة التقنية التي تُخزن فيها هذه البيانات، وكيفية إدارتها خلف الكواليس، حيث تظل هناك جوانب من الغموض وعدم الوضوح بشأن المعالجات التي تخضع لها هذه المعلومات، لافتة إلى وجود مخاوف حقيقية بشأن ممارسات بعض المنصات الرقمية، التي تقوم بجمع بيانات المستخدمين دون إبلاغهم بشكل واضح ومباشر، ثم تستخدم هذه البيانات لاحقًا في تطوير النماذج الذكية أو لأغراض تجارية بحتة، ما يعرض خصوصية ملايين المستخدمين حول العالم لخطر الانتهاك.

وأضافت الأنصاري، أن تلك المنصات نفسها تواجه تهديدات أمنية متزايدة، إذ تتعرض لقواعد بياناتها لهجمات إلكترونية معقدة تستهدف سرقة أو تسريب المعلومات الحساسة، كما أن بعض التطبيقات تُستخدم كأدوات لصيد المستخدمين واستدراجهم إلى الكشف عن معلومات خاصة، لا ينبغي في الأصل أن تتم مشاركتها، ما يعمق دائرة التهديد ويضع المستخدمين في مواقف محرجة ومربكة.

وعلى الرغم من أن العديد من الشركات المطورة لنماذج الذكاء الاصطناعي تروج لاعتمادها على أحدث تقنيات التشفير والحماية الأمنية، فإن الدكتورة الأنصاري تؤكد أن هذه الإجراءات التقنية وحدها لا تكفي، فهي تحتاج إلى أن تُدعم بشفافية تامة ووضوح كامل تجاه المستخدمين، لأن الأمر لا يقتصر على جانب تقني فحسب، بل هو أيضاً تحدٍّ أخلاقي وقانوني، يستوجب منح المستخدم حق المعرفة الكامل حول ما يحدث لمحادثاته، وأين تُخزن بياناته، ومن يمتلك حق الاطلاع عليها، ولأي أغراض تُستخدم.

وأكدت أن المفارقة الكبرى تتمثل في أن الذكاء الاصطناعي، الذي من المفترض أن يكون أداة لتعزيز حماية البيانات، قد يتحول إلى تهديد قائم بحد ذاته إذا لم تُفرض ضوابط صارمة تحكم كيفية تدريبه، وما يسمح له بتذكره أو استدعائه لاحقًا.. فبعض النماذج قد تستدعي عن غير قصد معلومات سابقة وردت في محادثات أخرى، وهو ما يفتح الباب أمام تسريبات غير مقصودة لكنها تحمل مخاطر كبيرة على خصوصية الأفراد.

وحول الحلول المقترحة، شددت الأنصاري على أهمية الجمع بين ثلاثة عناصر رئيسية: التشريع، والتقنية، والأخلاقيات.. فلا بد من سن تشريعات واضحة وصارمة تجرم إساءة استخدام بيانات المستخدمين، وتُلزم المنصات الرقمية بالإفصاح الكامل والشفافية تجاه جمهورها، مع تعزيز دور الهيئات الرقابية المستقلة التي تشرف على مدى التزام الشركات بهذه المعايير. 

وفي الوقت ذاته، يجب بناء أنظمة تقنية تُراعي الخصوصية منذ لحظة إدخال البيانات وحتى حذفها النهائي بشكل آمن لا رجعة فيه.

ورغم كل هذه الإجراءات، يبقى العامل الإنساني هو الركيزة الأساسية في منظومة الحماية، إذ لا يمكن لأي نظام حماية أن ينجح بدون وعي المستخدم وحرصه على عدم الإفصاح عن معلومات حساسة أو خاصة مع أدوات الذكاء الاصطناعي.. وبغير هذا الوعي، تصبح كل الوسائل التقنية عرضة للتقويض وسهلة الاختراق، ما يُفاقم مخاطر انتهاك الخصوصية.

وأكدت الدكتورة نجلاء الأنصاري أن حماية خصوصية المستخدم في عصر الذكاء الاصطناعي ليست مهمة تكنولوجية فقط، بل هي مسؤولية مشتركة تتطلب تضافر جهود التشريع، والتقنية، والثقافة الأخلاقية، مع التوعية المجتمعية المستمرة؛ فالخصوصية اليوم ليست مجرد حق قانوني، بل هي جزء لا يتجزأ من كرامة الإنسان الرقمية، وضرورة تحميه من أن يتحول صديقه الرقمي إلى مصدر تهديد يمس حريته وأمانه الشخصي.

 



ابق على اتصال

احصل على النشرة الإخبارية