خبير في أخلاقيات التكنولوجيا: وسائل التواصل الاجتماعي استفادت من "غرائز اللاواعي" لفرض سيطرتها

خبير في أخلاقيات التكنولوجيا: وسائل التواصل الاجتماعي استفادت من "غرائز اللاواعي" لفرض سيطرتها

مع اكتساب منصات وسائل الإعلام الاجتماعية الهيمنة على مدى العقد الماضي، وصفت شركات وسائل التواصل الاجتماعي، بما في ذلك فيسبوك، وإنستغرام، وتويتر، هذا التحول بأنه سلعة غير مسبوقة، استطاعت أن تربط العالم كما لم يحدث من قبل.

كان شعار تويتر في عام 2014 هو "ماذا يحدث؟"، وهو عبارة موجزة ومشرقة، وكان شعار تطبيق إنستغرام هو "التقاط ومشاركة لحظات العالم"، كما أعلنت صفحة تسجيل الدخول إلى فيسبوك أن "الفيسبوك يساعدك على التواصل والمشاركة مع الأشخاص في حياتك".

ولكن كما قال تشارلي مونجر، الشريك التجاري الراحل لوارن بافيت، ذات يوم: "أرني الحافز وسوف أعرض لك النتيجة"، ولكن حجبت هذه الشعارات بنية الحوافز المشوهة داخل منصات وسائل التواصل الاجتماعي، وهي محرك غير مرئي من شأنه أن يقود التجربة النفسية لمليارات من الناس، والتي أظهرت حقائق أكثر قتامة. 

ومع إحكام وسائل التواصل الاجتماعي قبضتها على حياتنا اليومية، شهدنا التقلص المستمر في فترات الاهتمام، وغضب الخطاب السياسي، وزيادة كبيرة في الشعور بالوحدة والقلق.

وعززت منصات وسائل التواصل الاجتماعي الاستقطاب، ودفعت الأضرار عبر الإنترنت إلى الفضاءات غير المتصلة بالإنترنت، وكانت النتائج مأساوية وقاتلة في بعض الأحيان.

يقول "مونجر": "بدأت أشعر بالقلق بشأن التأثيرات الضارة لوسائل التواصل الاجتماعي منذ أكثر من عقد من الزمان عندما كنت متخصصًا في أخلاقيات التصميم في جوجل.. أصبح من الواضح بالنسبة لي أنه تم تصميمه لجذب انتباهنا  والاستفادة من غرائزنا اللاواعية، كل ذلك دون النظر إلى التداعيات طويلة المدى".

وكانت الحوافز الضارة في نموذج أعمال وسائل التواصل الاجتماعي -لتعظيم قواعد المستخدمين ومشاركتهم- تجعل المجتمع أكثر إدمانا، وتشتتا، وسعيا إلى التحقق من صحته، وغضبا، واستقطابا.

ويتصارع العالم الآن مع تقنية ناشئة جديدة؛ الذكاء الاصطناعي التوليدي، ومن الشائع أن نسمع الناس يقولون إنه من السابق لأوانه معرفة كيف سيؤثر ذلك على المجتمع، ولكن يقول "مونجر": "لكنني أعتقد أننا قادرون على التنبؤ بالنتيجة الآن، بنفس الطريقة التي تمكن بها أولئك الذين نظروا عن كثب من التنبؤ بالنتيجة باستخدام وسائل الإعلام الاجتماعية، من خلال فحص الحوافز التي تدفع عملية تطوير التكنولوجيا ونشرها".

كانت وسائل التواصل الاجتماعي أول اتصال واسع النطاق لنا مع الذكاء الاصطناعي، أي "تنظيم" الذكاء الاصطناعي، الذي اختار ببساطة المنشورات ومقاطع الفيديو والتغريدات التي ستجذب الانتباه والآذان.

وتمت برمجة Curation ai بحافز بسيط؛ زيادة التفاعل على المنصة، من أجل زيادة إيرادات الإعلانات، وكما تبين، فإن استخدام المشاركة كحافز يمكن أن يؤدي إلى اختلال وظيفي عميق في المجتمع والثقافة والسياسة.

ويوضح "مونجر": "كانت عشر سنوات من العيش مع الذكاء الاصطناعي وحوافزه الحالية كافية لإعادة توصيل تدفقات المعلومات العالمية، وكسر الواقع المشترك، وتأجيج أزمات الصحة العقلية غير المسبوقة بين الشباب".

يبدأ المجتمع الآن اتصاله الثاني مع الذكاء الاصطناعي، أي التوليد أو "الخلق"، ويتم إطلاق العنان لفئة جديدة من التكنولوجيا، بدءًا من روبوتات الدردشة التي تولد النصوص، ومساعدي الذكاء الاصطناعي الذين يولدون التعليمات البرمجية، إلى الصور المزيفة بعمق ومولدات الصوت لاستنساخ الصوت.

وعلى الرغم من أن شركات التكنولوجيا تقوم بتسويق الذكاء الاصطناعي التوليدي باعتباره إله مكاسب الإنتاجية وغيرها من الفوائد، فإن عواقبه أثبتت بالفعل أنها مزعجة وحتى مدمرة.

وتم تعزيز عمليات الاحتيال المالي ضد كبار السن من خلال استنساخ صوت أحبائهم، ويتم استخدام تطبيقات "التعري" كسلاح ضد المراهقين، ويتم استخدام المحتوى الصوتي العميق لابتزاز الأشخاص من جميع الأعمار.

ويؤدي الذكاء الاصطناعي التوليدي إلى زيادة الخلل الوظيفي الموجود مسبقًا في النظام البيئي الرقمي، وذلك لأنه يقلل الاحتكاك بشكل كبير ويجعل إنشاء المحتوى أسهل بكثير.

يمكن الآن إنشاء الصور التي كانت تتطلب مهارات فوتوشوب متقدمة لإنشائها على الفور تقريبًا باستخدام مطالبة نصية من جملة واحدة، على سبيل المثال، ومن الممكن إنشاء ونشر حملات التضليل السياسي التي كانت تتطلب مشاركة عدد كبير من الناس على نطاق واسع، مع استهداف الناخبين بدقة جراحية، مع حفنة من العملاء البشريين فقط.

ويبقى السؤال: ما الذي يدفع تكنولوجيا يحتمل أن تكون خطرة مثل الذكاء الاصطناعي التوليدي إلى النمو بهذا المعدل الشرس؟ يمكن العثور على الإجابة مرة أخرى في الحوافز الضارة المؤثرة، وخاصة الضغط الذي يدفعك لأن تكون أول من يصل إلى السوق.

على الرغم من تحذيرات الموظفين والباحثين الخارجيين على حد سواء، فإن العديد من شركات الذكاء الاصطناعي المتطورة تسارع إلى إطلاق منتجات ذكاء اصطناعي محفوفة بالمخاطر وغير موثوقة وغير آمنة وحتى غير أخلاقية، على أمل السيطرة على السوق.

وفي هذه العملية، تقوم بتبييض الأضرار وإلقاء المسؤولية على عاتق الحكومات والجمهور لإيجاد حلول للمشكلات التي تخلقها منتجات الذكاء الاصطناعي الخاصة بها.

ويرى "مونجر"، أنه على السياسيين أن يجدوا طريقة للخروج من هذا المأزق، ويجب أن يتحمل عمالقة التكنولوجيا المسؤولية عن الأضرار التي تسببها منتجاتهم، وليس مجرد تشجيعهم على الابتكار.

وحتى الآن، كان على شركات مثل ميتا، وجوجل، وأمازون، ومايكروسوفت أن تتحمل القليل من المسؤولية عن أفعالها، ويجب أن تخضع هذه الشركات لإطار المسؤولية الذي يعرضها لخسائر مالية كبيرة، إذا ثبت أنها مسؤولة عن الأضرار.. عندها فقط سوف تأخذ السلامة على محمل الجد في كل من عملية تطوير الذكاء الاصطناعي. 

قبل عقد من الزمان، مع ظهور وسائل التواصل الاجتماعي، اتخذ العالم نهج الانتظار والترقب بشأن كيفية تغيير هذه التكنولوجيا للمجتمع، وكانت النتائج مدمرة. 

مع الذكاء الاصطناعي، لا يمكننا أن نوافق على الشعارات والحملات التسويقية، لقد أصبح الدافع وراء أبحاث الذكاء الاصطناعي وتطويره ونشره واضحًا بالفعل، وهو الحافز الخطير للمضي قدمًا.. وإذا كنا نريد نتيجة أفضل هذه المرة، فلا يمكننا أن ننتظر عقداً آخر -أو حتى عاماً آخر- قبل أن نتحرك.



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية