الهدف منها هو ضمان إخضاع أبحاث الذكاء الاصطناعي الطبية لنفس التدقيق الذي تخضع له عملية تطوير العقاقير والاختبارات التشخيصية.

2020-09-14 10:19:57

14 سبتمبر 2020
Article image
مصدر الصورة: كايل ماكدونالد عبر فليكر

الخبر

طرح اتحاد دولي يضم مجموعة من الخبراء الطبيين أولى المعايير الرسمية لإجراء التجارب السريرية التي تنطوي على استخدام الذكاء الاصطناعي. وتأتي هذه الخطوة في وقت بلغت فيه الضجة المثارة حول قدرات الذكاء الاصطناعي الطبي ذروتَها؛ حيث إن انتشار الادعاءات المبالغ فيها -وتلك التي لم يتم التحقق من صحتها حول فعالية بعض الأدوات- يُهدد بتقويض ثقة الناس في الذكاء الاصطناعي بشكل عام.

ما الذي يعنيه ذلك؟

المعايير الجديدة -التي تم الإعلان عنها في دوريات نيتشر ميدسين (Nature Medicine) والمجلة الطبية البريطانية (BMJ) وذا لانسيت (The Lancet)- توسِّع نطاق مجموعتين من المبادئ الإرشادية الخاصة بكيفية إجراء التجارب السريرية والكشف عنها، والتي يتم استخدامها بالفعل في جميع أنحاء العالم لتطوير العقاقير والاختبارات التشخيصيةK وغيرها من التدخلات الطبية. وسيتعين الآن على الباحثين في مجال الذكاء الاصطناعي شرحَ المهارات اللازمة لاستخدام أداة الذكاء الاصطناعي، والإطار الذي يتم تقييمها من خلاله، والتفاصيل الخاصة بكيفية تفاعل البشر معها، وتحليل حالات الخطأ، وغيرها من المعايير.

ما السبب في أهمية هذه المعايير؟

تُعد التجارب العشوائية المحكومة هي الطريقة الأكثر جدارة بالثقة لإثبات فعالية وسلامة العلاج أو التقنية السريرية؛ إذ إنها تشكل الأساس الذي تقوم عليه كل من الممارسات الطبية والسياسات الصحية، بيد أن مصداقيتها تعتمد على مدى التزام الباحثين بالمبادئ التوجيهية الصارمة عند إجراء تجاربهم والكشف عنها. وقد شهدت السنوات القليلة الماضية تطويرَ العديد من أدوات الذكاء الاصطناعي الجديدة والكشف عنها في الدوريات الطبية، إلا أن مقارنة فعاليتها وتقييمها كانت عملية صعبة نظراً لاختلاف نوعية تصميمات التجارب. وفي مارس الماضي، حذرت دراسة منشورة في المجلة الطبية البريطانية من أن الأبحاث الرديئة والادعاءات المبالغ فيها حول مدى مهارة الذكاء الاصطناعي في تحليل الصور الطبية تشكل خطراً على ملايين المرضى.

الوصول لذروة الضجة

سمح الافتقار إلى معايير موحّدة للشركات الخاصة بالتباهي بفعالية أدوات الذكاء الاصطناعي الخاصة بها، دون الخضوع للتدقيق الذي تخضع له الأنواع أخرى من التدخلات الطبية أو عمليات التشخيص. على سبيل المثال، تعرضت شركة الصحة الرقمية بابليون هيلث (Babylon Health) -التي تتخذ من المملكة المتحدة مقراً لها- لانتقادات شديدة عام 2018، بعد إعلانها أن روبوت الدردشة التشخيصي الخاص بها يقف “على قدم المساواة مع الأطباء البشريين”، وذلك استناداً إلى اختبار يقول النقاد إنه مُضلل.

ولم تكن بابليون هيلث هي الشركة الوحيدة التي قدمت مثل هذه الادعاءات؛ إذ يدعي المطورون أن أنظمة الذكاء الاصطناعي الطبي تتفوق على القدرات البشرية أو تضاهيها منذ فترة. وقد تسببت الجائحة في تسارع هذا الاتجاه مع تنافس الشركات على تسليط الضوء على أدواتها. وفي معظم الحالات، يجري تقييم أنظمة الذكاء الاصطناعي هذه داخل الشركات نفسها وفي ظروف مواتية.

أمل مستقبلي

لا يعني هذا الأمر أن الذكاء الاصطناعي غير قادر على التفوق على الأطباء البشريين. وفي الواقع، فإن أول تقييم مستقل لأداة تشخيص تعتمد على الذكاء الاصطناعي تتفوق على البشر في اكتشاف السرطان من خلال تصوير الثدي بالأشعة السينية، لم يُنشر سوى الشهر الماضي فحسب. ووجدت الدراسة أن أداة صنعتها شركة لونيت للذكاء الاصطناعي (Lunit AI) وتم استخدامها في بعض المستشفيات في كوريا الجنوبية حققت نتيجة تماثل متوسط النتيجة التي حققتها مجموعة من أطباء الأشعة تم اختبارها ضدهم. بل ارتفعت دقة الأداة عند استخدامها مقترنة مع طبيب بشري. وستجعل المعايير الجديدة هذا النوع من التقييم المستقل أكثر سهولة من خلال فصل الأدوات الجيدة عن الرديئة، ما يؤدي في نهاية المطاف إلى تحسين قدرات الذكاء الاصطناعي الطبي، وجعله أكثر جدارة بالثقة.