العين الحادة (3).. «جسور بوست» تحاور الدكتور محمد زهران حول تأثير الذكاء الاصطناعي على حقوق الإنسان
العين الحادة (3).. «جسور بوست» تحاور الدكتور محمد زهران حول تأثير الذكاء الاصطناعي على حقوق الإنسان
عندما تتحول المنصة إلى أداة للرقابة.. فيسبوك ودور الذكاء الاصطناعي في تقييد الحريات
زهران يكشف الحقائق.. هل يمكننا الاعتماد على حيادية فيسبوك في تغطية الصراعات الدولية؟
فيسبوك بين حماية الخصوصية ورقابة الذكاء الاصطناعي.. كيف تتحول المنصة إلى أداة للتحكم؟
د. زهران يناقش التوازن بين الخصوصية والاستفادة من تعليم الآلة في فيسبوك
استخدام تعليم الآلة في فيسبوك بين الخصوصية والاستهداف.. كيف نتجنب المساس ببياناتنا الشخصية؟
زهران: لا يُمكننا ضمان حيادية فيسبوك في تغطيته الصراعات الدولية
كيف نُحافظ على سيطرتنا على معلوماتنا الشخصية في خضم عاصفة وسائل التواصل الاجتماعي؟
بين ثنايا عالمنا الرقمي، تبرز منصة فيسبوك كقوة متحيزة، تفرض سيطرتها على تواصلنا، وتُحكم قبضتها على معلوماتنا، فمنذ فجر نشأتها، واجهت المنصة اتهاماتٍ متكررةً بانتهاكها خصوصية المستخدمين، بدءًا من فضيحة كامبريدج أناليتيكو المدوية، مرورًا بحظرها الحسابات الداعمة للقضية الفلسطينية، وصولًا إلى تحيزها الواضح لصالح إسرائيل.
الأمر كأننا نسمع قصة تاريخية في الوقت المعاصر، حيث يعكس فيسبوك بوصفه المجتمع الرقمي الحديث، والمستخدمون الأشبه بالدمى في مسرحيّة تحكمها قواعد لا يفهمها الجميع.
يمكن أن نرى في هذا السياق مقارنة بين منصة فيسبوك ومركبة فضائية تسافر عبر الكون، تستكشف عوالم مجهولة، ولكن بدلاً من النجوم والكواكب، فإنها تخترق أعماق الحياة الشخصية للمستخدمين، جمعاً لأكثر من مجرد بيانات، بل لأحلامهم وتطلعاتهم وخصوصياتهم.
وبينما ينشغل العالم بسحر هذه المنصة الرقمية، تظهر بوضوح العواقب، حيث تنكشف أنّ فضاءات التواصل الاجتماعي قد تتحول إلى متاهة مظلمة، يضيع فيها خصوصية المستخدمين كما لو كانت كنوز الأساطير المفقودة.
ومع كل هذه التحديات، يبقى سؤال الحفاظ على الخصوصية واحترام حقوق المستخدمين يراودنا كمسألة أساسية، فليست هناك حاجة أكبر لفصل العلوم والأخلاق كما هي الحال هنا، حيث يتحول النقاش إلى محور فلسفي يتساءل عن حقيقة الوعي والحرية في عالم متداخل بين الرقمي والواقعي.
في ظل ما سبق، وتعقيبًا على ما جاء في الحلقتين السابقتين من تحقيق "العين الحادة" يُعد هذا الحوار فرصة فريدة للتعرف على وجهة نظر خبير أكاديمي مُتخصص في مجال هندسة وعلوم الحاسبات، حول أحد أهم التحديات التي تواجهنا في عصرنا الرقمي.
في هذا الحوار، يُشارك عضو هيئة التدريس بجامعة نيويورك الدكتور محمد زهران، “جسور بوست” أفكاره حول سلوك فيسبوك المثير للجدل.
ويُسلّط الدكتور زهران الضوء على مخاطر تقنية الذكاء الاصطناعي، التي تعتمد عليها المنصة في مراقبة المحتوى، مُحذرًا من تحولها إلى أداة لانتهاك الحريات.
يُقدم الدكتور زهران نصائح قيّمة للمستخدمين لحماية أنفسهم من المعلومات المضللة على فيسبوك، ويُطالب المنصة باتخاذ خطواتٍ جادة لضمان احترام حقوق الإنسان على منصتها.
والدكتور محمد زهران عضو هيئة التدريس بجامعة نيويورك في تخصص هندسة وعلوم الحاسبات، حاصل على الدكتوراه في التخصص نفسه من جامعة ميريلاند الأمريكية، له العديد من الأبحاث العلمية المنشورة في الدوريات والمؤتمرات الدولية، بالإضافة إلى الأبحاث والتدريس، له اهتمامات عديدة بتاريخ وفلسفة العلوم ويرى أنها من دعائم البحث العلمي.
فإلى نص الحوار:
الدكتور محمد زهران
بداية، ما تعليقك على تحقيق" العين الحادة"؟
فكرة إنشاء أكثر من صفحة من أكثر من دولة مختلفة وننشر بها تدوينات مع وضد يُرصد من خلالها رد فعل فيسبوك وتحيزه، هي تجربة عملية مهمة تثبت أمراً جميعنا نعلمه، وهو أن هناك عنصرية في وسائل التواصل الاجتماعي، ومن المهم رؤية الناس لذلك.
نودّ التعرف على وجهة نظركم حول انتهاكات فيسبوك لخصوصية المستخدمين.. ما أبرز هذه الانتهاكات؟
الحقيقة ليس فيسبوك فقط، بل أي خدمة نستخدمها على الإنترنت ونجدها مجانية فهذا معناه أننا ندفع ثمن الخدمة من معلوماتنا، فيسبوك ليس استثناء، والفضيحة الكبرى التي وقعت منذ عدة سنوات مع شركة كامبريدج أناليتيكو ما زالت ماثلة في أذهان الناس، حيث تم جمع وبيع معلومات الناس للاستخدام في الحملات السياسية.
لاحظنا مؤخرًا تحيزًا واضحًا من فيسبوك لصالح إسرائيل، حيث تمّ حظر وحذف العديد من الحسابات والصفحات الداعمة للقضية الفلسطينية، ما دوافع هذا التحيز؟
المال هو الدافع، رجال الأعمال وأعضاء مجالس الإدارة في كبرى الشركات العالمية موالون لإسرائيل، بالإضافة إلى سيطرتهم على الاقتصاد فإنهم يسيطرون أيضاً على الإعلام.
في ظل ثورة الذكاء الاصطناعي، من يتحمل مسؤولية وضع ضوابط تضمن استخدامه بشكلٍ أخلاقيٍ؟ وكيف نُحاسب الشركات على التزامها بالمبادئ الأخلاقية في هذا المجال؟
ليس هناك جهة معينة تستطيع الضغط وإجبار الشركات على الشفافية وعدم استخدام الذكاء الاصطناعي في التحيز، أكثر ما يمكن حدوثه أن تقوم هيئة ما مثل الأمم المتحدة أن تقول رأيها، ونلاحظ عند إنشاء حساب على التوصل الاجتماعي وجود شروط كثيرة نمررها سريعًا ونضغط الصفحة التي تليها، في الغالب لا نقرأ ولو قرأنا لن نستكمل إنشاء الحساب، هم يفعلون ذلك ليس لأسباب أخلاقية وإنما لأسباب قانونية، كي لا يقيم عليهم المستخدم دعوى قضائية في ما بعد.
فما يهم هذه الشركات الرأسمالية هو أن يكون الأمر قانونياً ولا يفرق معها الجانب الأخلاقي.
بين أخلاقيات الذكاء الاصطناعي وتشريعاته، كيف نضمن تطبيقًا مسؤولًا لهذه التكنولوجيا؟
نفرق بين أمرين، أخلاقيات الذكاء الاصطناعي، وتشريعات الذكاء الاصطناعي، وبالفعل شكلت الأمم المتحدة فريقًا كبيرًا، كانت مهمته استخراج مجموعة من القواعد والتي تعتبر أخلاقيات الذكاء الاصطناعي، وتمت ترجمته إلى ست لغات ووزع على المناطق الجغرافية المختلفة لمناقشته والخروج منه بتقرير آخر.
التشريعات هي ما ينقصنا، فلو تخيلنا انتشار السيارات ذاتية القيادة، ولقد اقتربنا من ذلك ولكن ما سيؤخرها بعض النقاط، مثال إذا ما طلب أحد سيارة ذاتية القيادة لتقله لمكان ما، وفي الطريق ارتكبت حادثة راح ضحيتها أحد الأشخاص، من هنا الذي سيحاسب؟ هنا مشكلة كبيرة، مثال آخر، ماذا إذا استخدم الذكاء الاصطناعي في الطب وبناء على الأشعة والتحاليل حدد الدواء ولكن لم تتم معالجة المريض، فمن الذي سيحاسب؟ ولذا لا بد من النظر في تلك الأمور من قبل الجهات التشريعية، وربما كان الحل في استخدام الذكاء الاصطناعي كوسيلة مساعدة، بحيث يحدد الذكاء الاصطناعي المرض ويصرف له الدواء، ثم يمرر على طبيب بشري لإجازة ذلك، فإذا حدثت مشكلة يحاسب الطبيب البشري.
وهنا تواجهنا مشكلة في التشريع، لها علاقة بالجيل الحالي للذكاء الاصطناعي حيث يعطينا النتيجة النهائية للمشكلة دون إعلامنا بكيفية توصله إلى ذلك، وهذه مشكلة تسمى عدم امتلاكه مهارة الشرح، لكن لدينا أخلاقيات عامة تضعها الأمم المتحدة، منتشرة في كل دولة تطبقها بما يتناسب مع خصوصيتها.
في ظل سيطرة الشركات الرأسمالية، كيف نضمن شفافية استخدام بياناتنا الشخصية في تدريب وبرامج الذكاء الاصطناعي؟
ما يجب أن يكون وما هو كائن، ما يجب أن يكون أن تخبرنا الشركات وتتعامل معنا بشفافية أن معلوماتنا الشخصية ستؤخذ لتدريب برمجيات الذكاء الاصطناعي، أو ستخزن لغرض ما أو سنربطها بك كمستخدم… إلخ، وتعطينا الاختيار؛ تخزن تلك المعلومات أم لا؟
لكننا في عصر الرأسمالية المتوحشة والبرجماتية واقتصادات السوق، وهناك شركات عالمية عابرة للقارات تعرف أنها إذا وقفت هذا ستستخدم شركات أخرى تلك المعلومات ولذا ليس هناك شفافية، ولذا في 2015 اتضح أن هناك شركة استخدمت وحللت معلومات عن المستخدمين لفيسبوك دون أخذ رأي المستخدمين.
بين التحيز في المعلومات وتقييد حرية التعبير.. كيف نضمن استخدامًا عادلًا للذكاء الاصطناعي في وسائل التواصل الاجتماعي؟
عندما ننظر لبرمجيات الذكاء الاصطناعي المستخدمة في وسائل التواصل الاجتماعي مثل فيسبوك، هناك عنصرية ولكن العنصرية تأتي من أمرين، إما أننا قمنا بتمرين الذكاء الاصطناعي على معلومات معينة، ففي هذه الحالة سينحاز، وإما استخدام برمجيات معينة للعمل كسياج يستهدف التحيز، حيث يبرمج صراحة على المنع وبشكل مباشر من الحديث في أمور بعينها.
هل نستطيع القول إنه تم استخدام ذلك مؤخرًا مع القضية الفلسطينية؟
نعم، هناك كثيرون لاحظوا ذلك، إذا قمت بتدوين شيء متضامن مع القضية يُقيد انتشارها، وأغلب وسائل التواصل متحيزة، ولكن تحيز فيسبوك برز لكثرة المستخدمين، وأشكال التحيز بالتقييد أو إيقاف الحساب أو حظره.
في عصرٍ باتت فيه الخصوصية حلمًا بعيد المنال، كيف نُروض وحوش البيانات ونُحافظ على سيطرتنا على معلوماتنا الشخصية في خِضم عاصفة وسائل التواصل الاجتماعي؟
نحن في عصر انتفت فيه الخصوصية نهائيًا، طالما استخدم الإنسان وسائل التواصل الاجتماعي فهو عرضة لانتهاك الخصوصية، ولكي نحمي أنفسنا من ذلك لا بد من تقليل الاستخدام والتفاعل، وهنا نلغي استخدامه، وهذا غير متاح، نحن على وسائل التواصل الاجتماعي توجد شبكة اجتماعية معينة يحددها الشخص نفسه، لكن وسائل منصات التواصل الاجتماعي وليكن مثلا موقع فيسبوك والذي يشكل شبكة خاصة بالمستخدم من خلال تواجد الشخص مع أناس في نفس الوقت والمكان، أو قيامه بتسجيل أرقام الهاتف للمستخدم، وغيرها، وبناء على ذلك يحدد لنا المنتجات والإعلانات ويستخدم ذلك فيما يريد وهذا يعد انتهاكاً للخصوصية، فلا سبيل للحماية إلا إذا منعنا استخدامها أو أنشأنا لأنفسنا وسيلة تواصل اجتماعي بشروطنا.
بين مطرقة الخصوصية وسندان الاستهداف.. كيف نُوازن بين الاستفادة من تعليم الآلة دون المساس بِحُرمة بياناتنا الشخصية؟
تطويع الآلة يعني تعليمها قبل استخدامها، وتتم تغذية الآلة بمعلومات كثيرة شخصية كحديث شخص عن نفسه وماذا يحب وماذا يأكل… إلخ، وكذلك التفاعل مع أشياء يحبها الفرد، هذه خصوصيات يأخذها الذكاء الاصطناعي ويبدأ بالتعرف على أنماط حياتك، ثم يجمع أنماط حياة مجموعة من الأفراد يعيشون في منطقة ما ثم يبدأ في بث إعلانات تناسبهم، وهذا الاستخدام الجيد للذكاء الاصطناعي.
لكنّ هناك استخداما سيئاً له، وهو التأثير على الأفراد بالشائعات والطريقة التي تجعلهم يصدقونها، وهو الاستخدام الأكثر شيوعًا وليس لأننا في العصر الحالي، هناك كتاب لأستاذة تاريخ في جامعة "هارفارد"، جيل ريبور، في حملة "كيندي" الانتخابية كانوا يحللون أنماط الأفراد ثم يرسلون لهم جوابات للفوز في الانتخابات، الفكرة نفسها تستخدم الآن ولكن باستخدام تطبيقات الذكاء الاصطناعي.
استخدام تقنيات الذكاء الاصطناعي لترويج فكرة ما تستخدم في الحملات الانتخابية في أمريكا مثل حملة أوباما، لم يكن الذكاء الاصطناعي قد وصل لما هو عليه الآن، ولكنهم استخدموه في تحديد الأنماط، والآن ترامب والعديد من السياسين يستخدمونه في أمريكا؛ تقسم الولايات إلى حمراء مع الحزب الجمهوري، وزرقاء مع الحزب الديمقراطي، ثم ترسل لهم أخبار موجهة تناسب كل قسم، والتزييف العميق يتدخل في ذلك فاستخدام جزء من الحقيقة مع كثير من الأكاذيب مع الذكاء الاصطناعي يجعلهم يسيطرون على الأفراد.
في ظلّ هذه الانتهاكات، ما الإجراءات التي يجب على المستخدمين اتخاذها لحماية خصوصيتهم على فيسبوك؟
ما دام الناس يستخدمون تلك المنصات فأكيد بعض المعلومات ستذهب للشركات صاحبة المنصات لاستخدامها، لن نستطيع منع ذلك، كل ما يمكن فعله هو تقليل كم المعلومات الشخصية التي نضعها على تلك المنصات قدر الإمكان.
أظهر استطلاع رأي إلكتروني وميداني شارك فيه 300 شخص أنّ الغالبية العظمى غير راضية عن خدمات فيسبوك وأدائه، واتهموه بالتحيز والعنصرية ضدّ التدوينات والصفحات الداعمة للقضية الفلسطينية… ما هي تعليقاتكم على ذلك؟
هذا بديهي عندما نرى التحيز، لكن عندما تنتهي الأزمات يعود الناس لاستخدام تلك المنصات وبالتالي لا تتضرر الشركات المالكة للمنصات.
تُستخدم تقنية الذكاء الاصطناعي لمراقبة محتوى فيسبوك.. ما مخاطر هذه التقنية؟
إنها تعتمد على البيانات التي تم استخدامها "لتعليم" الآلة، هذه البيانات جمعتها وصنفتها الشركات المالكة لتلك المنصات ولا نعرف عن تلك البيانات شيئاً، وبالتالي يمكن أن تكون البيانات ناقصة ومتحيزة… إلخ.
ما دور الفريق البشري في مراقبة المحتوى على فيسبوك؟
لا أعمل في فيسبوك، وبالتالي ما أقوله هو مجرد استنتاج، أعتقد أن الفريق البشري له دوران: جمع البيانات وتصنيفها (البيانات التي تستخدم في تعليم الآلة)، والتدخل المباشر حين تكون هناك مشكلة من وجهة نظرهم.
في ظلّ اعتماد فيسبوك على الذكاء الاصطناعي، هل يمكن أن يتحول إلى أداة لانتهاك الحريات؟
هذا يعتمد على ما يتم تدريب الآلة (machine learning) عليه، أي على المعلومات وأيضاً على التدخل البشري في حالة سمحت البرمجيات بنشر ما لا ترغب فيه إدارة الشركة المالكة للمنصات.
ما المخاطر الأخلاقية لاستخدام الذكاء الاصطناعي في مراقبة المحتوى على فيسبوك؟
المخاطر ليست في استخدام الذكاء الاصطناعي ولكن في كيفية تدريب وتصميم تلك البرمجيات من أجل حجب أو نشر بعض المعلومات.
كيف يُمكننا ضمان حيادية فيسبوك في تغطيته الصراعات الدولية؟
لا يمكن ضمان ذلك.
ما الأدوات التي يمكن للمستخدمين استخدامها للتحقق من صحة المعلومات على فيسبوك؟
عبر محاولة إيجاد المعلومة من عدة مصادر مختلفة ومقارنتها.
ما النصائح التي تقدمها للمستخدمين لحماية أنفسهم من المعلومات المضللة على فيسبوك؟
معرفة مصدر المعلومة ما أمكن، والحصول على المعلومة من عدة مصادر وليس مصدراً واحداً، وأخيراً وليس آخراً إعمال العقل.
ما الخطوات التي يجب على فيسبوك اتخاذها لضمان احترام حقوق الإنسان على منصته؟
بناء برمجيات تحاول التحقق من صحة المعلومة ووضع تحذير بجانب المعلومة التي لم يتم التأكد من صحتها، وهناك عدد من المنصات منها فيسبوك تحاول ذلك.