من المسؤول إذا أخطأ الذكاء الاصطناعي الطبي؟ تحذير منظمة الصحة العالمية يكشف ثغرات ومخاطر

من المسؤول إذا أخطأ الذكاء الاصطناعي الطبي؟ تحذير منظمة الصحة العالمية يكشف ثغرات ومخاطر
الذكاء الاصطناعي والخدمات الطبية

في تقرير أصدرته منظمة الصحة العالمية لمنطقة أوروبا، تلفت المنظمة الانتباه إلى سؤال بالغ الأهمية: من يتحمل المسؤولية إذا ارتكب نظام ذكاء اصطناعي يُستخدم في التشخيص الطبي خطأً تسبب في ضرر للمريض؟ التحذير ليس نظرية مستقبلية، بل تحذير ملموس من مخاطر تتصاعد بسرعة في أنظمة الرعاية الصحية.

بحسب ما ذكره موقع أخبار الأمم المتحدة، اليوم الأربعاء، يبيّن التقرير أن انتشار الذكاء الاصطناعي في الصحة يتسارع في أوروبا، وأنه أصبح واقعًا يوميًّا لملايين المرضى ومهنيي الرعاية الصحية، لكن هذا الانتشار يحدث في غياب شبكة أمان قانونية واضحة تكفل حقوق المرضى والعاملين في الصحة.

 ودق الدكتور هانز هنري كلوج، المدير الإقليمي لمنظمة الصحة العالمية في أوروبا، ناقوس الخطر، مشيرًا إلى أن الاستخدام المكثف للذكاء الاصطناعي بدون استراتيجيات وطنية واضحة، أو قوانين تحمي خصوصية البيانات، أو تعليم لمحو أمية الذكاء الاصطناعي، قد يؤدي إلى تعميق الفوارق الصحية بدلاً من معالجتها.

القصور في الاستعداد التنظيمي

تشير بيانات التقرير إلى أن الاستعداد لتطبيق الذكاء الاصطناعي في القطاع الصحي متفاوت جدًا: من بين 50 دولة في المنطقة الأوروبية شملها التقرير، توجد أربع دول فقط لديها استراتيجية وطنية واضحة للذكاء الاصطناعي الصحي، في حين تعمل سبع دول أخرى على تطوير واحدة، وهذا يعني أن معظم الدول لا تمتلك إطارًا قانونيًا أو تنظيميًّا متكاملًا يحدد المسؤوليات في حال تسبب الذكاء الاصطناعي في ضرر.

وبحسب التقرير، تستخدم 32 دولة في هذه المنطقة بالفعل أدوات تشخيص بمساعدة الذكاء الاصطناعي، لكن في الوقت نفسه، أقل من دولة واحدة من بين كل عشرة لديها معايير قانونية واضحة للمسؤولية إذا فشلت هذه الأنظمة، وهذا الفراغ القانوني يُثير مخاطر كبيرة على الأطباء الذين قد يترددون في الاعتماد على هذه التقنيات، وعلى المرضى الذين قد لا يجدون طريقًا واضحًا للإنصاف إذا وقع خطأ.

مخاطرة السلامة والعدالة

توضح الدكتورة ناتاشا أزوباردي-موسكات، مديرة أنظمة الصحة في منظمة الصحة العالمية بمنطقة أوروبا، أن الذكاء الاصطناعي يمكن أن يكون أداة قوية لتعزيز رفاه المرضى وتخفيف الضغط عن الكوادر الصحية، لكن في الوقت نفسه يمكن أن يكون مصدرًا للخطر وتضيف: "إذا لم يتم تنظيمه بشكل صحيح، يمكن أن يقوّض سلامة المرضى، ويهدد الخصوصية، ويزيد من التفاوت في الرعاية الصحية. 

التحديات القانونية.. من المسؤول؟

وسط هذا الواقع، يبرز سؤال من الناحية القانونية: من يتحمل تبعات الأضرار التي تسببها أنظمة الذكاء الاصطناعي؟ وفق التقرير، هناك غياب شبه تام لمعايير قانونية تحدد المسؤولية، يقول الدكتور ديفيد نوفيلو أورتيز، المستشار الإقليمي لمنظمة الصحة العالمية في مجال البيانات والذكاء الاصطناعي، إنه في غياب أطر قانونية واضحة، قد يتردد الأطباء في استخدام أدوات الذكاء الاصطناعي، وقد لا تتوفر للمرضى سبل انتصاف واضحة في حال وقوع ضرر.

توجيهات أخلاقية 

لتصحيح هذا الخلل، سبق لمنظمة الصحة العالمية أن أصدرت إرشادات لأخلاقيات وحوكمة نماذج الذكاء الاصطناعي الكبيرة ومتعددة الوسائط، تضمنت أكثر من أربعين توصية للحكومات ومطوري التكنولوجيا ومقدمي الرعاية الصحية. 

من بين هذه التوصيات، مطالبة الدول بسن تشريعات وتنظيمات صريحة تُلزم بمراجعة سلامة النماذج، وضمان وجود تقييمات ما بعد النشر من طرف مستقل، وتحقيق الشفافية، في حين يتعلق بكيفية تصميم هذه النماذج وتدريبها، كما نبهت المنظمة إلى ضرورة إشراك أصحاب المصلحة كافة -ومنهم المرضى والعاملون في الرعاية الصحية- في جميع مراحل تصميم وتطبيق هذه التكنولوجيا. 

مواقف منظمات حقوقية ومنظمات دولية

في هذا السياق، لا يقتصر التحذير على منظمة الصحة العالمية، حيث أصدرت منظمات حقوقية عدة في وقت سابق ضغوطًا دولية لمنع نشر أنظمة الذكاء الاصطناعي في الرعاية الصحية دون ضمانات قوية للشفافية والمساءلة، مثلاً، مفوضية حقوق الإنسان، ومنظمات غير حكومية تنشط في حقوق المرضى، تسلّط الضوء على أن “الضرر الناتج عن أخطاء الذكاء الاصطناعي” قد يكون أشدّ وطأة من الأخطاء البشرية، خصوصًا إذا لم يُعرف من يتحمل المسؤولية القانونية؛ المطورون؟ الدولة؟ مقدمو الرعاية؟ المرضى أنفسهم؟

على المستوى الأكاديمي، أجمع باحثون دوليون على إطار من الممارسات الجيدة. تتضمن إرشادات يشترك فيها خبراء من أنحاء العالم، مبادئ مثل العدالة، والشفافية، والقابلية للتفسير، والمتانة، لتطوير ذكاء اصطناعي يثق به المرضى والطواقم الصحيّة. 

توصيات أخرى صدرت من معاهد سلامة المرضى، تؤكد ضرورة إجراء تقييمات منتظمة للأداء، وكذلك وجود إشراف بشري دوار، لضمان أن الأدوات الذكية لا تحيد نحو الأخطاء أو تسبب ضررًا. 

تداعيات عالمية وفرص إنقاذ

إذا أخطأ نظام الذكاء الاصطناعي في التشخيص، فإن العواقب قد تكون إنسانية بامتياز: تشخيص خاطئ قد يقود إلى علاج غير مناسب، تأخير في تلقي الرعاية، أو حتى مخاطر صحية تهدد حياة المرضى. قد يفقد المرضى الثقة في النظام الصحي إذا شعروا أن “الآلة” تحكم مصيرهم، كما يمكن أن يعزز الاستخدام الخاطئ للذكاء الاصطناعي التمييز إذا كان النظام مُدرّبًا على بيانات منحازة.

من جهة أخرى، إذا وُضعت الأطر القانونية والأخلاقية المناسبة، يمكن للذكاء الاصطناعي أن يصبح أداة قوية لتوسيع الوصول إلى الرعاية الصحية، خاصة في المناطق ذات محدودية الموارد، وتحسين التشخيص، وخفض التكاليف على المدى الطويل.

دعوة للعمل العاجل

تحث منظمة الصحة العالمية الدول على تسريع وضع الأطر التنظيمية والقانونية الكفيلة بحماية المرضى، ودعت إلى تبني استراتيجيات وطنية للذكاء الاصطناعي في الصحة، تضمنت ضمان الخصوصية، وتعزيز محو أمية الذكاء الاصطناعي بين العاملين في القطاع الصحي، وإشراك المجتمع المدني في تصميم التشريعات والممارسات.

كما تطالب المنظمة أن يكون هناك التزام دائم من المطورين لإجراء تدقيقات ما بعد الإطلاق، وضمان أن النماذج الذكية تخضع لتقييمات مستقلة توضح مدى موثوقيتها وأمانها، وأنه يجب على الحكومات أن تفرض معايير مساءلة واضحة تحدد من يتحمل المسؤولية عندما تحدث أخطاء.

من خلال هذا التحذير من منظمة الصحة العالمية، يظهر جليًا أن الذكاء الاصطناعي في الصحة يحمل وعودًا كبيرة، لكنه أيضًا يحمل مخاطِر جدّية، وأن غياب الأطر القانونية والمساءلة قد يترك المرضى في مواجهة أخطاء قد تُكلفهم الكثير. 



موضوعات ذات صلة


ابق على اتصال

احصل على النشرة الإخبارية