ما مخاطر الوصاية الصحية لأنظمة الذكاء الاصطناعي على المرضى؟

3 دقائق
ما مخاطر الوصاية الصحية لأنظمة الذكاء الاصطناعي على المرضى؟
ستيفاني أرنيت/ إم آي تي تي آر/ غيتي إميدجيز
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

هل تثق بنصيحة طبية قام الذكاء الاصطناعي بتوليدها؟ كنت أفكر في هذا السؤال على مدار أسبوع كامل، وذلك في ضوء المزيد من العناوين الإخبارية التي تزعم بأن تكنولوجيات الذكاء الاصطناعي قادرة على تشخيص العديد من الأمراض. وغالباً ما تشير هذه العناوين، بصورة غير مباشرة، إلى أن أنظمة الذكاء الاصطناعي أفضل وأسرع وأقل تكلفة من المهنيين الذين تلقوا تدريباً طبياً.

مشاكل هذه النماذج معروفة للجميع

ولكن الكثير من هذه التكنولوجيات يعاني مشاكل معروفة لدى الجميع. فقد تم تدريبها على بيانات محدودة أو متحيزة، وغالباً لا تعمل بشكل جيد بالنسبة للنساء أو أصحاب البشرة الملونة مقارنة بالرجال من ذوي البشرة البيضاء. إضافة إلى هذا، فإن بعض البيانات التي تم تدريب هذه الأنظمة عليها خاطئ بشكل واضح.

وثمة مشكلة أخرى. فمع بدء تسلل هذه الأنظمة إلى بيئات الرعاية الصحية، يقول الباحثون إننا نشهد انتشار ظاهرة معروفة باسم وصاية الذكاء الاصطناعي. لطالما كانت الوصاية في الطب مثاراً للجدل منذ ظهور هذا الاختصاص. ولكن الأطباء قد يصبحون أكثر ميلاً إلى الثقة بالذكاء الاصطناعي الآن، وذلك على حساب التجارب التي عاشها المرضى شخصياً، إضافة إلى آرائهم وخبراتهم السريرية الخاصة.

لقد بدأ استخدام الذكاء الاصطناعي في مجال الرعاية الصحية. فبعض المستشفيات يستخدم هذه التكنولوجيا لتصنيف المرضى من حيث خطورة إصاباتهم. وتستخدمها مستشفيات أخرى للمساعدة في التشخيص، أو وضع الخطط العلاجية. ولكن المستوى الحقيقي لاستخدام الذكاء الاصطناعي غير واضح، وفقاً لأستاذة التكنولوجيا والتنظيم في جامعة أكسفورد في المملكة المتحدة، ساندرا واكتر.

تقول واكتر: “في بعض الأحيان، لا نعرف بالضبط نوعية الأنظمة المُستَخدمة”. ولكننا نعرف أنه من المرجح ازدياد استخدام هذه الأنظمة مع تحسّن هذه التكنولوجيا، ومع سعي أنظمة الرعاية الصحية إلى البحث عن أساليب خفض التكاليف، على حد تعبير واكتر.

اقرأ أيضاً: نظام ذكاء اصطناعي يعتمد على الملاحظات الطبية لتعليم نفسه كيفية كشف الأمراض في صور الأشعة السينية للصدر

وصاية أنظمة الذكاء الاصطناعي في الرعاية الصحية

ويشير الباحثون إلى أنه من المحتمل أن الأطباء بدؤوا يمنحون هذه التكنولوجيات مستوى عالياً من الثقة. ففي دراسة منشورة منذ عدة سنوات، طلب الباحثون من متخصصي الأورام مقارنة تشخيصاتهم لسرطان الجلد مع استنتاجات أحد أنظمة الذكاء الاصطناعي. وتقبّل الكثيرون من المشاركين نتائج الذكاء الاصطناعي، حتى عندما كانت متناقضة مع آرائهم السريرية خاصتهم.

ثمة خطر حقيقي من تزايد اعتمادنا على هذه التكنولوجيات إلى درجة يجب ألا نصل إليها. وهنا يأتي دور الوصاية.

وفي ورقة بحثية علمية تم نشرها مؤخراً، كتبت ميليسا ماكرادن وروكسان كيرش من مستشفى الأطفال المرضى في مقاطعة أونتاريو في كندا ما يلي: “يمكن التعبير عن الوصاية بدقة باستخدام الجملة التالية: (الطبيب يعرف أكثر من الجميع)”. وتقوم الفكرة على أن التدريب الطبي يجعل من الطبيب الشخص الأفضل لاتخاذ القرارات نيابة عن المريض، بغض النظر عن مشاعر هذا المريض أو معتقداته أو ثقافته أو أي شيء آخر يمكن أن يؤثر على الخيارات التي نتخذها.

تضيف ماكرادن وكيرش قائلتين: “يمكن تلخيص الوصاية بالذكاء الاصطناعي عندما يتحول الذكاء الاصطناعي إلى أعلى شكل من أشكال الأدلة، بحيث يحل الذكاء الاصطناعي الذي يعرف كل شيء محل الطبيب الذي يعرف كل شيء”. وتقولان إننا نشهد “توجهاً متزايداً نحو وصاية الخوارزميات”. وهو ما يمكن أن يتسبب بالمشاكل للعديد من الأسباب.

اقرأ أيضاً: كيف يساعد الذكاء الاصطناعي في تشخيص الإصابة بفيروس كورونا؟

الذكاء الاصطناعي يتنبأ فحسب

فالسبب الأول، كما ذكرنا سابقاً، يتلخص بأن الذكاء الاصطناعي لا يخلو من العيوب والمشاكل. فهذه التكنولوجيات مُدَرّبة على مجموعات من البيانات السابقة الفعلية، التي لا تخلو بدورها من الأخطاء. تقول واكتر: “نحن لا نرسل الخوارزميات إلى كلية الطب حتى نعلّمها كل ما يجب معرفته حول الجسم البشري والأمراض”.

ولهذا، “لا يستطيع الذكاء الاصطناعي أن يفهم، بل يستطيع أن يتنبأ فحسب”، على حد تعبير ماكرادن وكيرش في ورقتهما البحثية. ويمكن تدريب الذكاء الاصطناعي على معرفة الأنماط الكامنة في خزعات خلايا الجلد التي لديها صلة بتشخيص السرطان في الحالات السابقة، على سبيل المثال. ولكن الأطباء الذين أجروا هذه التشخيصات السابقة وجمعوا تلك البيانات، كانوا أكثر عرضة للفشل في رصد الحالات لدى الأشخاص من ذوي البشرة الملونة.

إضافة إلى هذا، فإن تحليل الأنماط السابقة لن يقدم للأطباء، بالضرورة، جميع المعلومات التي يحتاجون إليها حول كيفية متابعة علاج مريض ما. وفي الوقت الحالي، يجب أن يتعاون الأطباء والمرضى على اتخاذ القرارات المتعلقة بالعلاج. ويجب ألا تؤدي التطورات في الذكاء الاصطناعي إلى تقويض استقلالية المريض.

إذاً، كيف يمكن أن نمنع حدوث هذا الأمر؟ يتضمن أحد الحلول الممكنة تصميم تكنولوجيات جديدة تم تدريبها باستخدام بيانات أفضل. ومن الممكن تدريب إحدى الخوارزميات على معلومات حول معتقدات ورغبات مختلف الجماعات والشرائح والفئات، إضافة إلى بيانات بيولوجية متعددة المصادر، على سبيل المثال. وقبل أن نقوم بهذا، يجب أن نقوم بجمع البيانات فعلياً، وهي مهمة مكلفة لن تبدو مناسبة لمن يسعون إلى استخدام الذكاء الاصطناعي لخفض التكاليف، وذلك على حد تعبير واكتر.

اقرأ أيضاً: الذكاء الاصطناعي في الطب: خطر التحيز يهدد تطبيقاته الواسعة

ويجب على مصممي أنظمة الذكاء الاصطناعي هذه أن يتوخوا الحرص والدقة في دراسة احتياجات الأشخاص الذين ستتولى هذه الأنظمة تقييم حالاتهم. ويجب أن يتذكروا أن التكنولوجيات التي تحقق النجاح مع بعض المجموعات قد لا تلاقي النجاح نفسه مع مجموعات أخرى، سواء بسبب بنيتهم البيولوجية أو معتقداتهم. تقول واكتر: “يختلف البشر من مكان لآخر”.

وقد يكون أفضل مسار يمكن اتباعه هو استخدام هذه التكنولوجيات الجديدة كما نستخدم التكنولوجيات المُجَرّبة بشكل جيد. فصور الأشعة السينية والرنين المغناطيسي تساعد على تقديم المعلومات التي تزيد من دقة التشخيص، إضافة إلى معلومات صحية أخرى. ويجب أن يكون بإمكان الأشخاص اختيار إجراء عملية المسح، واختيار ما يرغبون في فعله بنتائج هذه العمليات. يمكننا أن نستفيد من الذكاء الاصطناعي دون أن نتخلى عن استقلاليتنا له.