"ميتا" تبدأ باستخدام بيانات ألمانية لتدريب الذكاء الاصطناعي
"ميتا" تبدأ باستخدام بيانات ألمانية لتدريب الذكاء الاصطناعي
بدأت شركة "ميتا" الأمريكية، المالكة لتطبيقات فيسبوك وإنستغرام وواتساب، اليوم الثلاثاء، استخدام منشورات المستخدمين الألمان في تدريب نماذج الذكاء الاصطناعي الخاصة بها، بعد قرار قضائي صدر الأسبوع الماضي لصالحها، رغم اعتراضات منظمات حماية البيانات وحقوق المستهلكين.
وأكدت الشركة أنها ستبدأ قراءة وتحليل كل المنشورات العامة التي يشاركها المستخدمون على فيسبوك وإنستغرام، وذلك بهدف تحسين أداء أنظمة الذكاء الاصطناعي التوليدي، التي تطورها ضمن مشاريعها المستقبلية.
وأتاحت "ميتا" خيارًا أمام المستخدمين الألمان لتقديم اعتراض رسمي على هذا الاستخدام، إلا أن المهلة انتهت مساء الاثنين/ الثلاثاء.
محادثات "ميتا إيه آي"
استثنت "ميتا" تطبيق "واتساب" من هذا الإجراء، موضحة أن محتوى المحادثات في واتساب مشفر بالكامل، وبالتالي لا يمكن استخدامه في عمليات تدريب أنظمة الذكاء الاصطناعي.
وفي المقابل، أعلنت الشركة أن المحادثات التي يجريها المستخدمون مع مساعد الذكاء الاصطناعي "ميتا إيه آي" تُعامل كمحتوى عام، ويمكن استخدامها أيضًا في تطوير أنظمتها.
وفشلت جهود قانونية قادها مركز استشارات المستهلكين في ولاية شمال الراين -ويستفاليا في وقف هذه الخطوة- إذ أصدرت المحكمة الإقليمية العليا في كولونيا يوم الجمعة الماضي حكمًا عاجلًا يسمح لـ"ميتا" باستخدام محتوى منشورات المستخدمين في ألمانيا لتدريب الذكاء الاصطناعي.
واستندت الدعوى القضائية إلى الادعاء بانتهاك قوانين حماية البيانات الأوروبية، خصوصًا اللائحة العامة لحماية البيانات (GDPR)، التي تمنح المستخدمين الأوروبيين حقوقًا واضحة فيما يتعلق بكيفية جمع واستخدام بياناتهم الشخصية. لكن المحكمة لم تجد أن استخدام هذه المنشورات ينتهك القانون.
الشركة واحترام الخصوصية
جدد متحدث باسم "ميتا" التأكيد على أن الشركة لا تنتهك قوانين الخصوصية الأوروبية، وقال في بيان عقب الحكم: "نحن ملتزمون بوضع الذكاء الاصطناعي المدرب في ألمانيا بين أيدي الشعب الألماني، وضمان حصول الجميع في أوروبا على فرص متساوية للاستفادة من إمكانات الذكاء الاصطناعي التوليدي".
وشددت الشركة على أن المنشورات المستخدمة ستكون فقط المنشورات العامة، التي اختار المستخدمون مشاركتها مع الجمهور، مع إتاحة خيار رفض ذلك مسبقًا.
وأثار الحكم القضائي مخاوف واسعة في أوساط المدافعين عن الخصوصية الرقمية في أوروبا، الذين يرون أن توسع الشركات التقنية في استخدام المحتوى العام والمحادثات التفاعلية مع أدوات الذكاء الاصطناعي قد يفتح الباب أمام ممارسات مستقبلية أكثر تغولًا في الخصوصية، خاصة في ظل ضعف أدوات الرقابة التقنية على مثل هذه العمليات المعقدة.
ودعا خبراء إلى ضرورة تعزيز آليات الشفافية والمساءلة داخل شركات التكنولوجيا الكبرى، وتوسيع قدرة المستخدمين على التحكم في بياناتهم بشكل أكثر دقة ووضوح، خاصة مع دخول الذكاء الاصطناعي التوليدي مرحلة الاستخدام العام الواسع.