هل يمكن أن نسمح للذكاء الاصطناعي باتخاذ قرارات الحياة أو الموت؟

10 دقائق
هل يمكن أن نسمح للذكاء الاصطناعي باتخاذ قرارات الحياة أو الموت؟
مصدر الصورة: إكزيت إنترناشيونال
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

في ورشة عمل في روتردام بهولندا، يعمل فيليب نيتشكيه “دكتور الموت” أو “نظير إيلون ماسك في مجال الموت بمساعدة الآخرين”، بالنسبة للبعض، على إجراء آخر بضع جولات من الاختبارات لآلة ساكرو (Sarco) الجديدة، قبل شحنها إلى سويسرا، حيث ينتظرها المستخدم الأول.

وهذا هو النموذج الثالث الذي قامت منظمة نيتشكيه غير الربحية، إكزيت إنترناشيونال (Exit International)، بصنعه باستخدام الطباعة المجسمة واستكمال توصيلاته. تم عرض النموذج الأول في ألمانيا وبولندا. ويقول: “كان النموذج الثاني كارثياً”. أما الآن، فقد قام بإصلاح جميع أخطاء التصنيع، وأصبح جاهزاً لإطلاقه، كما يقول: “هذا هو النموذج الذي سيتم استخدامه”.

اقرأ أيضاً: كيف يؤثر الذكاء الاصطناعي في جودة اتخاذ القرارات؟

آلة ساركو: أن تفصل الآلة بين الموت والطب

إن آلة ساركو عبارة عن حجيرة شبيهة بالتابوت بتصميم يشبه التصاميم المستخدمة في أفلام ستار تريك (Star Trek)، وهي خلاصة حملة أطلقها نيتشكيه منذ 25 عاماً بهدف “الفصل بين الموت والطب” عبر التكنولوجيا. يوضع الشخص الذي اختار الموت ضمن الآلة، ويجب أن يجيب عن ثلاثة أسئلة: من أنت؟ أين أنت؟ هل تعرف ما سيحدث لك عند ضغط هذا الزر؟

وسيحدث التالي: ستمتلئ ساركو بغاز النيتروجين. وسيغمى على الشخص في الداخل خلال أقل من دقيقة، وسيموت بسبب الاختناق خلال خمس دقائق تقريباً.

وسيتم تسليم تسجيل لتلك المقابلة الصغيرة والنهائية بعد ذلك إلى السلطات السويسرية. لم يتواصل نيتشكيه بعد مع الحكومة السويسرية للحصول على الموافقات اللازمة، ولكن سويسرا هي أحد البلدان التي شرعت الانتحار بمساعدة الآخرين. وتسمح الحكومة بهذا الانتحار بشرط أن يقوم الشخص الراغب بالموت بتنفيذ العملية بنفسه.

يرغب نيتشكيه بأن يصبح الانتحار بمساعدة الآخرين مقتصراً على أقل قدر ممكن من المساعدة، حيث يمنح الناس الذين اختاروا إنهاء حياتهم حرية اتخاذ القرار، وبالتالي الحفاظ على كرامتهم، في لحظاتهم الأخيرة. ويقول: “ليس هناك من حاجة فعلية إلى الطبيب للموت”.

اقرأ أيضاً: التحيز في أنظمة الذكاء الاصطناعي: كيف يمكن للآلة أن تكون متحيزة؟

وبما أن ساركو تعتمد على النيتروجين، وهو غاز متوفر على نطاق واسع، بدلاً من الباربتيورات المهدئة والمستخدمة عادة في عيادات القتل الرحيم، فهي لا تحتاج إلى وجود طبيب لإجراء عملية الحقن أو الإشراف على تقديم أدوية قاتلة.

أو على الأقل، هذه هي الفكرة من الناحية النظرية. ولكن نيتشكيه لم يتمكن من تفادي المؤسسة الطبية بالكامل. فسويسرا تفرض على المرشحين للموت الرحيم إثبات الأهلية العقلية، كما يقول نيتشكيه، وهو ما يتم عادة عن طريق تقييم يجريه طبيب نفسي. ويقول: “ما زال هناك اعتقاد سائد بأن الشخص الذي يطلب الموت مصاب بمرض عقلي ما لم يتم تشخيصه، وأنه ليس من المنطقي أن يسعى أي شخص للموت”.

ولكنه يعتقد أنه وجد الحل. حيث تعمل إكزيت إنترناشيونال على خوارزمية يأمل نيتشكيه بأنها ستساعد الناس على إجراء تقييم نفسي ذاتي على الحاسوب. ومن الناحية النظرية، إذا اجتاز شخص هذا الاختبار الإلكتروني، فسوف يقوم البرنامج بتزويده برمز مؤلف من أربعة أرقام لتفعيل ساركو. يقول نيتشكيه: “هذا هو الهدف”. “ولكن في الواقع، تبين أن المشروع بالغ الصعوبة”.

الذكاء الاصطناعي في اتخاذ قرارات الموت

قد يبدو هدف نيتشكيه متطرفاً، بل وربما شائناً، بالنسبة للبعض. كما أن إيمانه بقدرة الخوارزميات قد يكون مبالغاً فيه. ولكنه ليس الشخص الوحيد الذي يسعى إلى إدماج التكنولوجيا، خصوصاً الذكاء الاصطناعي، في عملية اتخاذ قرارات الحياة والموت.

ولكن، وعلى حين ينظر نيتشكيه إلى الذكاء الاصطناعي كوسيلة تمنح الأفراد المزيد من الاستقلالية في اتخاذ القرارات الأكثر أهمية بأنفسهم، فإن بعض الآخرين يتساءلون حول قدرة الذكاء الاصطناعي على إراحة البشر من عبء اتخاذ قرارات كهذه فالذكاء الاصطناعي مُستَخدَم فعلاً في تصنيف حالات المرضى ومعالجتهم في عدد متزايد من مجالات الرعاية الصحية. ومع تحول الخوارزميات إلى جزء متزايد الأهمية من عملية الرعاية، يجب أن نضمن أن دورها محصور بالقرارات الطبية، لا الأخلاقية.

اقرأ أيضاً: لماذا يتوجب علينا إضفاء الطابع الإنساني على الذكاء الاصطناعي؟

تعد الرعاية الطبية من الموارد المحدودة. حيث يجب على المرضى انتظار المواعيد للحصول على الاختبارات أو العلاج. كما أن المحتاجين إلى زرع الأعضاء مضطرون للانتظار للحصول على قلوب أو كلى مناسبة. ويجب تقديم اللقاحات أولاً لمن هم أكثر عرضة للمرض (في البلدان التي توجد فيها لقاحات). وخلال أسوأ مراحل الوباء، عندما كانت المستشفيات تواجه نقصاً في الأسرة وأجهزة التنفس، كان الأطباء مضطرين إلى اتخاذ قرارات سريعة حول من يجب أن يتلقى العناية الفورية ومن يجب أن ينتظر إلى وقت لاحق، مع نتائج مأساوية.

لقد أدت أزمة كوفيد إلى وضع هذه القرارات الصعبة تحت عدسة المجهر، كما أدت إلى تساؤل الكثيرين حول قدرة الخوارزميات على المساعدة. قامت العديد من المستشفيات حول العالم بشراء أدوات ذكاء اصطناعي جديدة، أو تعديل الأدوات الموجودة، للمساعدة على تصنيف الحالات. كما كانت بعض المستشفيات في المملكة المتحدة تدرس إمكانية استخدام أدوات الذكاء الاصطناعي لفحص صور الأشعة السينية للصدر، وسارعت إلى استخدام هذه الأدوات كوسيلة سريعة وزهيدة التكاليف لتحديد حالات كوفيد الأشد خطورة. وتمكنت الشركات المزودة لهذه التكنولوجيات، مثل شركة كيور دوت إيه آي (Qure.ai) في مومباي بالهند، وشركة لونيت (Lunit)، في سيؤول بكوريا، من الحصول على عقود في أوروبا والولايات المتحدة وإفريقيا.

وقالت شركة دياغنوستيك روبوتيكس (Diagnostic Robotics)، والتي زودت أدوات تصنيف حالات المرضى إلى العديد من المستشفيات في الهند والولايات المتحدة، إنها شهدت قفزة تبلغ سبعة أضعاف في الطلب على تكنولوجياتها في السنة الأولى من الوباء. ومن ذلك الحين، شهدت الأعمال في قطاع الرعاية الصحية بالذكاء الاصطناعي ازدهاراً كبيراً.

ولكن هذه الاندفاعة نحو الأتمتة تثير أسئلة معقدة لا يمكن الإجابة عنها بسهولة. فما القرارات التي يمكن استخدام الخوارزمية لاتخاذها؟ وكيف يجب أن يتم بناء هذه الخوارزميات؟ ومَن يحق له المشاركة في تصميمها؟

اقرأ أيضاً: كيف يساهم الذكاء الاصطناعي في جعل الرعاية الصحية أكثر عدلاً؟

أين يمكن استخدام الخوارزميات في الرعاية الصحية؟

تعتقد مديرة مركز تحليل البيانات الاجتماعية والأستاذة في جامعة أوكلاند للتكنولوجيا في نيوزيلندا، ريما فايثياناثان، والتي تركز على استخدام التكنولوجيا في الصحة والرفاهية، أن رغبة الناس باستخدام الذكاء الاصطناعي في اتخاذ القرارات الكبيرة أمر جيد. وتقول: “يجب أن نعالج المشكلات التي يجدها الأطباء السريريون صعبة للغاية”.

ويتضمن أحد المشاريع التي تعمل عليها خدمة صحة عقلية للمراهقين، حيث يتم تقديم التشخيص والعلاج لليافعين ذوي السلوكيات المؤذية للنفس. وتشهد هذه العيادة إقبالاً كبيراً، ولهذا فإنها بحاجة للحفاظ على وتيرة سريعة في تخريج المرضى لاستقبال مرضى آخرين.

ويواجه الأطباء صعوبة في الاختيار بين مواصلة رعاية المرضى الحاليين أو علاج مرضى جدد. تقول فايثياناثان: “لا يستطيع الأطباء تخريج المرضى لأنهم خائفون للغاية من قيامهم بإيذاء أنفسهم. إنه السيناريو الأكثر رعباً بالنسبة لهم”.

وحتى عندما يبدو الذكاء الاصطناعي دقيقاً، فإن المشرعين والأكاديميين، على حد سواء، يدعون إلى اتخاذ الحذر.

حاولت فايثياناثان مع زملائها تطوير نموذج تعلم آلي قادر على توقع المرضى المعرضين أكثر من غيرهم لخطر سلوك إيذاء للنفس في المستقبل، وذلك باستخدام نطاق واسع من البيانات، مثل السجلات الصحية والمعلومات الديموغرافية، وذلك لتقديم معلومات إضافية يمكن للأطباء استخدامها في عملية اتخاذ القرار. وتقول: “أنا أبحث دائماً عن الحالات التي تتضمن أطباء يعانون من المتاعب، ويقدرون وجود خوارزمية تساعدهم على التعامل معها”.

ما زال المشروع في مراحله المبكرة. ولكن، وحتى الآن، وجد الباحثون أن البيانات المستخدمة في تدريب النموذج قد لا تكون كافية للحصول على توقعات دقيقة. ولكنهم سيستمرون بالمحاولة. فليس من الضروري أن يكون النموذج مثالياً حتى يكون مفيداً للأطباء، كما تقول فايثياناثان.

ليست هذه المجموعة هي الفريق الوحيد الذي يحاول التنبؤ بمخاطر تخريج المرضى. ففي تقييم تم نشره في 2021، تم ذكر العديد من الدراسات التي أجراها باحثون يزعمون أنهم تمكنوا من استخدام نماذج التعلم الآلي لتوقع عودة المرضى إلى العلاج أو وفاتهم بعد مغادرة المستشفيات في الولايات المتحدة. لم تكن أي من هذه النماذج دقيقة بما فيه الكفاية للاستخدام السريري، ولكن المؤلفين يتطلعون قدماً إلى زمن تعمل فيه نماذج كهذه على “تحسين جودة العناية والتخفيف من تكاليف الرعاية الصحية”.

توخي الحذر مع نماذج الذكاء الاصطناعي

وعلى الرغم من هذا، وحتى عندما يبدو الذكاء الاصطناعي دقيقاً، فإن المشرعين والأكاديميين، على حد سواء، يدعون إلى اتخاذ الحذر. فمن جهة، فإن البيانات التي تعمل الخوارزميات وفقها، وطريقة العمل نفسها، ليست سوى أشياء من صنع البشر، ولهذا فهي مليئة بالتحيز. وعلى سبيل المثال، فإن البيانات الصحية تتضمن نسبة كبيرة للغاية من الرجال البيض، ما يؤدي إلى تشويه قدرة الخوارزميات على التنبؤ. وتقدم النماذج طبقة سطحية من الموضوعية التي يمكن أن تدفع بالناس إلى التخلي عن اتخاذ القرارات الأخلاقية، والثقة بالآلات بدلاً من التشكيك في نتائجها.

وهذه المشكلة التي ما زالت مستمرة تمثل إحدى نواحي كتاب ديفيد روبنسون الجديد “أصوات بين التعليمات البرمجية” (Voices in the Code)، والذي يتحدث عن نشر الذكاء الاصطناعي على نطاق واسع. ويتحدث روبنسون، وهو أكاديمي زائر في مجموعة العلوم الاجتماعية في جامعة كاليفورنيا في مدينة بيركلي، وعضو هيئة تدريسية في جامعة أبل، عن قصة بيلدينغ سكريبنر. ففي عام 1960، قام سكريبنر، وهو طبيب كلى في سياتل، بإدخال أنبوب قصير من التيفلون، وهو يعرف باسم التحويلة، في أذرع بعض من مرضاه لمنع دمائهم من التخثر أثناء إجراء عملية غسيل الكلى. وبفضل هذا الابتكار، أصبح بوسع المصابين بأمراض الكلى إجراء عملية غسل الكلى لفترة غير محددة، ما أدى إلى تحويل الفشل الكلوي من مرض قاتل إلى مرض طويل الأمد.

اقرأ أيضاً: هل سيثبت الذكاء الاصطناعي جدارته في قطاع الرعاية الصحية؟

وعندما انتشر الخبر، انهمرت طلبات العلاج على سكريبنر. ولكنه لم يستطع استقبال الجميع. فمن يجب أن يساعده، ومن يجب أن يرفض استقباله؟ وسرعان ما أدرك أن هذا ليس بقرار طبي، بل إنه قرار أخلاقي. وهكذا، قام بتنظيم لجنة من الأشخاص العاديين لاتخاذ هذا القرار. بطبيعة الحال، لم تكن خياراتهم مثالية. فقد أدت تحيزات تلك الحقبة إلى تفضيل اللجنة للرجال المتزوجين العاملين وذوي العائلات، على سبيل المثال.

ووفقاً لرواية روبنسون، فإن الدرس الذي يجب أن نتعلمه من عمل سكريبنر هو أن بعض العمليات –البيروقراطية، والتقنية، والخوارزمية- يمكن أن تجعل بعض الأسئلة الصعبة تبدو حيادية وموضوعية. ومن المحتمل أن تخفي الناحية الأخلاقية للخيار، والنتائج الفادحة لهذا في بعض الأحيان.

ويكتب روبنسون قائلاً: “يمكن أن تقوم البيروقراطية نفسها بدور وسيلة لتحويل القرارات الأخلاقية الصعبة إلى قرارات فنية ومملة”. إن هذه الظاهرة موجودة قبل ظهور الحواسيب، كما يقول، “ولكن الأنظمة البرمجية يمكن أن تؤدي إلى تسريع وتعزيز هذا التوجه. فالقياس الكمي يمكن أن يخفف من وطأة الطابع الأخلاقي، وتستطيع الحواسيب تحقيق هذا الأمر بصورة أكثر سهولة من ذي قبل”.

ومهما كانت العملية، يجب أن نترك الطابع الأخلاقي يأخذ مداه الكامل، وذلك حتى ندرس الآثار المؤلمة للقرار المطلوب اتخاذه. وبالنسبة لسكريبنر، كان هذا يعني أخذ استشارة مجموعة من الأشخاص العاديين حول من يجب إنقاذه، بدلاً من الاستعانة بمجموعة من الأطباء الذين يتمتعون بموضوعية ظاهرية، ويعقدون لقاءاتهم خلف أبواب مغلقة. أما اليوم، فهذا يعني طلب تدقيق خوارزميات تقوم بمهام حساسة. وفي الوقت الحالي، فإن تدقيق الخوارزميات من قبل أطراف مستقلة هو أقرب إلى أمنية متفائلة منه إلى ممارسة معيارية. ولكن، وباستخدام مثال أمراض الكلى مرة أخرى، يبين روبنسون كيفية تنفيذ هذا الأمر.

تحيز الخوارزميات بالمرصاد

بحلول العقد الأول من القرن الحالي، تم تطوير خوارزمية لتحديد المتلقين للكلى المتبرع بها في الولايات المتحدة. ولكن البعض اعترض على طريقة تصميم الخوارزمية. ففي 2007، قال كلايف غراو – وهو مرشح لزرع الكلية من لوس أنجلوس- لغرفة مليئة بالخبراء الطبيين إن خوارزميتهم كانت متحيزة ضد كبار السن من أمثاله. فقد تم تصميم الخوارزمية لتوزيع الكلى على نحو يزيد من عدد السنوات الإضافية المتوقعة التي تم إنقاذها إلى أقصى حد. وهو ما أدى إلى تفضيل المرضى الأصغر سناً والأكثر ثراءً من ذوي البشرة البيضاء، كما قال غراو وغيره من المرضى.

اقرأ أيضاً: باحثون من إم آي تي يطورون طريقة مبتكرة لتقليل تحيز الذكاء الاصطناعي

إن هذا التحيز في الخوارزميات أمر شائع. ولكن ليس من الشائع أن يتفق مصممو هذه الخوارزميات على وجود مشكلة. فبعد سنوات من الاعتماد على استشارات أشخاص عاديين مثل غراو، وجد المصممون طريقة أقل تحيزاً لزيادة عدد السنوات التي تم إنقاذها، وذلك بأخذ الوفيات الإجمالية بعين الاعتبار، إضافة إلى العمر. ومن التغيرات الأساسية هي التوقف عن مطابقة أغلبية المتبرعين، وهم غالباً أناس ماتوا في عمر الشباب، مع متلقين من نفس الشريحة العمرية. فقد أصبحت بعض هذه الكلى الآن تُقدَّم إلى أشخاص أكبر سناً إذا كانت حالتهم الصحية جيدة. وكما في حالة لجنة سكريبنر، ما زالت الخوارزمية عاجزة عن اتخاذ قرارات يتفق عليها الجميع. ولكن ليس من السهل نقض العملية التي تم تطويرها بها.

“لم أرغب في أن أجلس هناك وأعطي الحقنة. إذا كنت راغباً في ذلك، يمكنك ضغط الزر”.

فيليب نيتشكيه

أسئلة صعبة

يطرح نيتشكيه بعض الأسئلة الصعبة أيضاً، فهو طبيب سابق تخلى عن رخصته الطبية بعد نزاع قانوني دام سنوات مع المجلس الطبي الأسترالي، ويتميز بأنه أول شخص يقدم حقنة قاتلة طوعية إلى شخص آخر. وخلال الأشهر التسعة الممتدة بين يوليو/ تموز، 1996، عندما وضعت المنطقة الشمالية في أسترالياً قانوناً لتشريع القتل الرحيم، ومارس/ آذار عام 1997، عندما قامت الحكومة الفيدرالية الأسترالية بإيقاف العمل بهذا القانون، ساعد نيتشكيه أربعة من مرضاه على قتل أنفسهم.

المريض الأول هو بوب دينت، نجار بعمر 66 سنة ويعاني من سرطان البروستات، وقد شرح قراره في رسالة مفتوحة: “لو احتفظت بحيوان أليف يعاني نفس معاناتي، لتعرضت للملاحقة القانونية”.

يرغب نيتشكيه بدعم قرارات مرضاه. وعلى الرغم من هذا، فلم يكن مرتاحاً للدور الذي طلبوا منه تأديته. ولهذا، قرر بناء الآلة. ويقول: “لم أرغب في أن أجلس هناك وأعطي الحقنة. إذا كنت راغباً في ذلك، يمكنك ضغط الزر”.

اقرأ أيضاً: الذكاء الاصطناعي في الطب: خطر التحيز يهدد تطبيقاته الواسعة

لا تتمتع هذه الآلة بمنظر مميز، وهي ليست في واقع الأمر أكثر من محقن موصول إلى حاسوب محمول. ولكنها كانت كافية لتحقيق الغرض منها. تمثل ساركو نسخة متطورة من ذاك الجهاز الأصلي، والذي اشتراه متحف العلوم في لندن لاحقاً. يأمل نيتشكيه بأن الخوارزمية القادرة على إجراء عملية التقييم النفسي ستكون الخطوة التالية في عملية التطوير.

ولكن يوجد احتمال كبير بأن تلاقي هذه الآمال نهايتها. فبناء برنامج يستطيع تقييم الصحة العقلية لشخص ما يمثل مشكلة غير محلولة، بل ومسألة شائكة أيضاً. وكما يلاحظ نيتشكيه نفسه، فإن الأطباء أنفسهم لم يتفقوا على معنى سعي شخص عاقل إلى الموت. ويقول: “يمكن لعدة أطباء نفسيين أن يقدموا لك العديد من الإجابات المختلفة”. وبالتالي، ليست هناك أرضية مشتركة يمكن التأسيس عليها لبناء هذه الخوارزمية.

ولكن ليست هذه النتيجة المقصودة. فعلى غرار سكريبنر، يسأل نيتشكيه عن القرار الذي يعتبر قراراً طبياً، والقرار الذي يعتبر قراراً أخلاقياً، ومن يجب أن يختار. اعتقد سكريبنر أن على الأشخاص العاديين –والذين يمثلون المجتمع ككل- أن يختاروا المرضى الذين ستتم معالجتهم بعملية غسل الكلى، فعندما تصبح فرصة نجاة المرضى أكثر أو أقل تكافؤاً، فإن حياة المرضى أو وفاتهم لم تعد مسألة تقنية. وكما يقول روبنسون، يجب على المجتمع أن يكون مسؤولاً عن هذه القرارات، على الرغم من أن العملية ما زالت قابلة للترميز بتعليمات برمجية إذا تم هذا بشكل شامل وشفاف. وبالنسبة لنيتشكيه، فإن الانتحار بمساعدة الآخرين قرار أخلاقي أيضاً، وهو قرار يجب على الأفراد اتخاذه بأنفسهم. ويمكن حماية هذا الخيار عن طريق آلة ساركو، إضافة إلى الخوارزمية النظرية.

اقرأ أيضاً: خوارزمية طبية متحيزة تمنح تفضيلاً لذوي البشرة الفاتحة في برامج الرعاية الصحية

وسيصبح الذكاء الاصطناعي أكثر فائدة، بل وربما يقوم بدور أساسي، مع تزايد التعداد السكاني وازدياد الضغط على الموارد. ولكن العمل الحقيقي يكمن في الاعتراف بالعشوائية والأخطاء الفادحة التي ستشوب الكثير من القرارات التي سنطلب من الذكاء الاصطناعي اتخاذها. وهذه المشكلة تقع على عاتقنا نحن.

وبالنسبة لروبنسون، فإن تصميم الخوارزميات يشبه التشريع إلى درجة ما: “من وجهة نظر معينة، فإن التساؤل حول أفضل طريقة لبناء برنامج لاتخاذ القرارات حول البشر ليس سوى حالة خاصة من التساؤل حول أفضل طريقة لصياغة القوانين. ويختلف الناس حول فوائد الطرق المختلفة لبناء البرمجيات المتعلقة بالقرارات المهمة، تماماً كما يختلفون حول فوائد الطرق المختلفة لصياغة القوانين”. وفي نهاية المطاف، فإن مسؤولية هذه القوانين تقع على عاتق الناس جميعاً.