صحة / الامارات نيوز

خبراء: الذكاء الاصطناعى يعقد تحديد المسئولية عند وقوع خطأ طبى

التحديات القانونية والأخلاقية لاستخدام الذكاء الاصطناعي في الرعاية الصحية

يزيد استخدام الذكاء الاصطناعي في الرعاية الصحية بشكل مطرد، وتتنوع الأدوات من خوارزميات تفسير الفحوص إلى أنظمة تشخيص وإدارة المستشفيات، بما في ذلك تحسين سعة الأسرة وتدبير سلاسل التوريد.

ويثار القلق من قلة اختبارات الفعالية وجود أسئلة حول من المسؤول عن نتائج الأخطاء الطبية عند الاعتماد على هذه الأدوات.

ويؤكد البروفيسور ديريك أنجوس من جامعة بيتسبرغ أنه ستكون هناك حالات يبدو فيها أن شيئًا خاطئًا حدث وسيبحث الناس عن جهة تُلَوّم بدلاً من التركيز على طبيعة الأداة ومجال استخدامها، وهو ما يفتح باب النقاش القانوني.

ويذكر البروفيسور جلين كوهين من كلية الحقوق بجامعة هارفارد أن المرضى قد يواجهون صعوبات في إثبات وجود خلل في تصميم أو استخدام أداة ذكاء اصطناعي، وقد تكون المعلومات عن طريقة عملها الداخلية غير متاحة، كما يصعب اقتراح تصميم بديل معقول أو إثبات أن النظام تسبب في نتيجة سيئة.

وقد يطرح التفاعل بين الأطراف تحديات في رفع دعوى، فربما يشيرون إلى بعضهم البعض كجهة مخطئة، وقد توجد اتفاقات تعاقدية لتوزيع المسئولية أو دعاوى تعويض متعددة، كما أن كثيرًا من أدوات الذكاء الاصطناعي خارج إشراف الجهات التنظيمية مثل FDA.

وتوجد عوائق أمام تقييم هذه الأدوات، منها ضرورة استخدامها سريريًا لتقييمها بشكل كامل، بينما الطرق الحالية للتقييم مكلفة ومرهقة.

انتبه: مضمون هذا الخبر تم كتابته بواسطة الامارات نيوز ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من الامارات نيوز ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.

قد تقرأ أيضا