ما عواقب استخدام الذكاء الاصطناعي لمعالجة القضايا الاجتماعية؟

7 دقائق
ما عواقب استخدام الذكاء الاصطناعي لمعالجة القضايا الاجتماعية؟
مصدر الصورة: shutterstock.com/TippaPatt
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

تمتلك ميريديث بروسارد (Meredith Broussard) مؤهلات فريدة تمكّنها من تحليل ظاهرة الانتشار الواسع للذكاء الاصطناعي. بروسارد هي عالمة بيانات وأستاذة مساعدة في جامعة نيويورك، واحتلت مكانة مرموقة كواحدة من أبرز الباحثين في مجال التحيّز الخوارزمي لسنوات.

“أكثر من مجرد خلل”

على الرغم من أن المجال الذي تعمل فيه بروسارد يتطلب إجراء الكثير من الحسابات الرياضية، فقد أمضت السنوات القليلة الماضية في التفكير في المشكلات التي لا يمكن حلها باستخدام الرياضيات. صاغت بروسارد أفكارها في كتاب جديد يتعلق بمستقبل الذكاء الاصطناعي ويحمل اسم “أكثر من مجرد خلل” (More than a Glitch). وهي تجادل فيه بأن البشر مندفعون باتساق وبشكل مفرط لاستخدام الذكاء الاصطناعي بهدف حل المشكلات الاجتماعية بطرق غير ملائمة وضارة. تزعم بروسارد بشكل رئيسي في كتابها الجديد أن استخدام الأدوات التكنولوجية لحل المشكلات الاجتماعية دون أخذ العرق والجنس والمقدرات الفردية في الاعتبار يمكن أن يتسبب في ضررٍ كبير.

تعافت بروسارد مؤخراً من مرض سرطان الثدي، وبعد قراءة النسخة المفصّلة من سجلاتها الطبية الإلكترونية، أدركت أن الذكاء الاصطناعي أدّى دوراً في تشخيص مرضها، وهو أمر أصبح شائعاً بشكلٍ متزايد. دفعها هذا الاكتشاف إلى إجراء تجربة بهدف تعلم المزيد عن كفاءة أدوات الذكاء الاصطناعي في تشخيص مرض السرطان.

تحدّثتُ مع بروسارد حول ما اكتشفته من هذه التجربة وعن المشكلات الناجمة عن استخدام التكنولوجيا من قِبل الشرطة والعوامل التي تحد مما يدعى “بإنصاف الذكاء الاصطناعي” وحلول بعض المشكلات التي تتسبب فيها هذه التكنولوجيا. (يعني الإنصاف في الذكاء الاصطناعي غياب التحيّز وتفضيل الأفراد أو الجماعات بناء على سماتهم في القرارات التي يتم اتخاذها بالاستعانة بأدوات الذكاء الاصطناعي، مثل تحديد أهلية الأشخاص للحصول على القروض من المصارف). تم تعديل نص المقابلة لزيادة وضوحه والحد من طوله.

اقرأ أيضاً: الذكاء الاصطناعي: هل حان الوقت للحديث عن النفوذ بدلاً من مناقشة الأخلاقيات؟

صدمتني القصة الشخصية التي سردتيها في الكتاب عن الدور الذي أدّاه الذكاء الاصطناعي في تشخيص مرض السرطان. هل يمكنك إخبار قرّائنا بما فعلتيه وما تعلّمتيه من هذه التجربة؟

تم تشخيص إصابتي بمرض سرطان الثدي في بداية جائحة كوفيد-19. لم أُضطر للبقاء داخل المنزل فقط بسبب عمليات الإغلاق، بل اضطررت لذلك أيضاً لأني خضعت لعملية جراحية كبيرة. تصفّحت يوماً ما سجلي الطبي ولاحظت عبارة على إحدى الصور، وهي “قرأ الذكاء الاصطناعي هذه الصورة”. قلت لنفسي عندها: “لماذا قرأت إحدى أدوات الذكاء الاصطناعي صورة الثدي الشعاعية الخاصة بي؟”. لم يقل لي أحد أن هذا سيحصل، وكانت هذه العبارة مكتوبة في جزء مخفي من سجلي الطبي الإلكتروني. شعرتُ بالفضول للغاية حول استخدام تكنولوجيا الذكاء الاصطناعي الحديثة في الكشف عن السرطان. لذلك، ابتكرت تجربة لمعرفة ما إذا كان بإمكاني تكرار نتائج التشخيص. أدخلت صور الثدي الشعاعية إلى إحدى أدوات الذكاء الاصطناعي المفتوحة المصدر لمعرفة ما إذا كانت قادرة على كشف السرطان. اكتشفت أن لدي الكثير من المفاهيم الخاطئة حول كيفية استخدام الذكاء الاصطناعي في تشخيص السرطان، ووصفت ذلك بالتفصيل في الكتاب.

بمجرد أن تمكّنت بروسارد من كتابة رمز برمجي فعّال، تنبّأت أداة الذكاء الاصطناعي بأن الصور تحتوي على خلايا سرطانية. مع ذلك، قال لها طبيبها الجراح إن استخدام تكنولوجيا الذكاء الاصطناعي لم يكن ضرورياً بالمطلق لتشخيص حالتها، نظراً لأن الأطباء تمكّنوا من قراءة صورها بوضوح ودقة بالفعل.

ما أدركتُه كمريضة بالسرطان هو أن الأطباء والممرضات والعاملين في مجال الرعاية الصحية الذين أشرفوا عليّ خلال فترة التشخيص والتعافي كانوا داعمين للغاية وأدّوا دوراً حاسماً. لا أفضّل في المستقبل العيش في عالم جامد حيث يذهب المرضى لإجراء صور الثدي الشعاعية ثم يحصلون على التشخيص من صندوق أحمر صغير يُظهر نتيجة مثل “هناك إصابة بالسرطان على الأرجح“. لا أعتقد أن هذا مستقبل يرغب أي شخص فيه عندما يتعلق الأمر بالإصابة بالأمراض المهددة للحياة. مع ذلك، لم يطوّر الكثير من باحثي الذكاء الاصطناعي أجهزة تصوير الثدي الشعاعية التي تُستخدم في التشخيص.

اقرأ أيضاً: دليل شركات التكنولوجيا الكبرى للحديث عن أخلاقيات الذكاء الاصطناعي

يقول البعض إنه بمجرد حل مشكلة تحيّز الذكاء الاصطناعي بشكلٍ ملائم، يمكن أن تصبح هذه التكنولوجيا أكثر انتشاراً بكثير. وقلتِ في الكتاب إن هذه الحجة إشكالية، لماذا هي كذلك؟

من وجهة نظري، تتمثّل إحدى الجوانب الإشكالية العديدة لهذه الحجة في الفكرة التي تنص على أن الذكاء الاصطناعي سيصبح مثالياً بطريقة ما في المستقبل، وأن هذا هو الهدف الذي يجب على الجميع السعي لتحقيقه. الذكاء الاصطناعي هو مجرد رياضيات. ولا أعتقد أنه يجب أن تحكم الرياضيات المنظومات جميعها في العالم. الحواسيب فعّالة للغاية في حل المسائل الرياضية. ولكنها ليست فعّالة في حل المشكلات الاجتماعية. مع ذلك، فهي تستخدم لحل هذه المشكلات. إن العالم المستقبلي الذي نتخيل أننا سنستخدم الذكاء الاصطناعي فيه لحل أي مشكلة ليس عالماً أريد العيش فيه.

اقرأ أيضاً: إريك زينغ: أهمية الذكاء الاصطناعي المسؤول في مستقبل مجتمعاتنا

كتبتِ أيضاً عن تكنولوجيا التعرف على الوجوه. سمعت مؤخراً حجة تنص على أن الحركة الهادفة لمنع استخدام هذه التكنولوجيا (وخصوصاً من قِبل إدارات الشرطة) تثبّط الجهود المبذولة لزيادة دقتها وقدرتها على توليد نتائج خالية من التحيّزات. ما رأيك بهذه الحجة؟

لا شك في أني من الأشخاص الذين يؤيدون عدم استخدام تكنولوجيا التعرف على الوجوه من قبل الشرطة. أتفهّم أن هذا قد يحبط الأشخاص الذين يريدون استخدام هذه التكنولوجيا، ولكني تعمّقت في أثناء فترة البحث الذي أجريته عند تأليف كتابي في تاريخ استخدام الشرطة للتكنولوجيا، وكانت الحقائق التي اطلعت عليها مقلقة.

بدأت البحث بقراءة كتاب رائع يحمل اسم البرمجيات السوداء (Black Software) ألّفه أستاذ الإعلام والثقافة والتواصل في جامعة نيويورك، تشارلتون ماكلوين (Charlton McIlwain)، الذي كتب عن محاولة شركة آي بي إم (IBM) بيع عدد كبير من الحواسيب الجديدة في الوقت نفسه الذي خاضت فيه الولايات المتحدة ما يدعى بالحرب على الفقر في ستينيات القرن الماضي. في ذلك الوقت، حاول العديد من الأشخاص بيع الحواسيب باحثين عن مشكلات ليحلّوها باستخدام هذه الآلات، ولكنهم لم يدركوا عُمق المشكلة الاجتماعية التي تعاني منها البلاد. وفي زمننا هذا، ما زلنا نعاني العواقب الكارثية للقرارات التي تم اتخاذها خلال تلك الفترة.

اقرأ أيضاً: شركات ناشئة تساعد الشركات الأخرى في توفير متطلبات أخلاقيات الذكاء الاصطناعي

لا تستخدم إدارات الشرطة التكنولوجيا بكفاءة أكبر من أي جهة أخرى. سيكون الوضع مختلفاً تماماً لو كنا نعيش في عالم جميع الخبراء فيه من علماء الحاسوب المميزين الذين يدركون بشكلٍ جيد جميع القضايا الاجتماعية المتداخلة السائدة، وفي عالم تسوده المجتمعات التي تتمتع بالعدالة الاجتماعية حيث يتم تمويل المدارس بشكلٍ كامل. ولكننا نعيش في عالم يعاني الكثير من المشكلات، وأعتقد أن ضخ المزيد من التكنولوجيات في الأحياء الأميركية الأكثر فقراً التي يعيش فيها الأشخاص ذوو البشرة السوداء والبنيّة، والتي تخضع لرقابة مفرطة من قبل الشرطة بالفعل، يزيد الطين بلّة.

ناقشتِ في الكتاب القدرة المحدودة لعلم البيانات على معالجة القضايا الاجتماعية، ولكنّك عالمة بيانات! كيف أدركتِ محدودية مهنتك؟

أنا أقضي الوقت مع الكثير من علماء الاجتماع. وقد تزوجت عالم اجتماع أيضاً. كانت إحدى الحوادث التي أثّرت بي عند التفكير في التأثير المتبادل بين علم الاجتماع والتكنولوجيا محادثة أجريتها قبل بضع سنوات مع عالم الاجتماع والأعراق البشرية [والأستاذ المشارك في كلية روتجرز للمعلومات]، جيف لين (Jeff Lane).

بدأنا في الحديث عن قواعد البيانات الخاصة بالعصابات، وقال لي لين معلومة لم أكن على دراية بها من قبل، وهي أن أعضاء العصابات يميلون للتخلي عنها بعد التقدّم في العمر. لا ينضم هؤلاء إلى العصابات ويبقون أعضاء فيها طيلة حياتهم. قلت عندها لنفسي: “لا تقتضي حقيقة أن أعضاء العصابات يتخلّون بالفعل عن الانخراط في نشاطات هذه العصابات حذف سجلاتهم من قواعد بيانات الشرطة”. أعلم كيف تستخدم الجهات المختلفة قواعد البيانات، وأعلم أن عملية تحديث هذه القواعد وتعديلها ليست دقيقة ومنظّمة بشكل جيد.

لذلك، استقصيت الموضوع ولم أجد أي قاعدة تنص على حذف معلومات الأعضاء السابقين في العصابات من قواعد بيانات الشرطة المحلية. دفعني ذلك للتفكير في مدى عدم التنظيم الذي تتسم به حياتنا الرقمية، وكيف يمكن أن يؤثّر ذلك بطرق خطيرة في التكنولوجيا التي تستخدمها إدارة الشرطة.

اقرأ أيضاً: مجموعات أخلاقيات الذكاء الاصطناعي تكرر أحد الأخطاء المجتمعية التقليدية

يتم استخدام تكنولوجيا تحديد الدرجات التنبؤي بشكل متزايد في المدارس. هل هذا أمر مقلق؟ متى يكون تطبيق خوارزميات التنبؤ مناسباً، ومتى يكون غير مناسب؟

تتمثل إحدى عواقب جائحة كوفيد-19 في أنها ساعدتنا على الإدراك بشكلٍ مباشر كم يمكن أن تكون الحياة مملة عند استخدام البرامج المعتمدة على الخوارزميات في مختلف المجالات. لن تحتوي هذه الحياة على حوادث سارة وقعت دون تخطيط مسبق. شاهدتُ جميع العروض في قائمة التوصيات في موقع نتفليكس (Netflix) خلال الجائحة، وشعرتُ بالملل بعد ذلك. لاحظت عندها أني ألجأ إلى الأساليب التي تتسم بأنها إنسانية للغاية بهدف إضافة المزيد من العشوائية إلى عملية اكتشاف الأفكار الجديدة.

بالنسبة لي، يعتبر هذا أحد الجوانب الرائعة في قضاء الوقت في المدرسة والتعلّم؛ إذ يُتيح ذلك للأشخاص التواجد في الصفوف مع الآخرين الذين لديهم تجارب مختلفة في الحياة. من وجهة نظري كأستاذة، فإن التنبؤ بدرجات الطلاب مسبقاً هو عكس ما أسعى للقيام به في الصفوف الدراسية. أريد أن أؤمن بقدرة الطلاب على التطوّر، وأريد أن أساعد طلابي على مواصلة رحلتهم التعليمية. تعطينا الخوارزميات معلومات مثل “هذا الطالب من النمط سِين، ولذلك ستكون درجته عَين على الأرجح”. وبرأيي، يتناقض ذلك مع جوهر التعليم.

تجذبنا أحياناً فكرة استخدام الإحصائيات للتنبؤ بالمستقبل، لذلك فأنا أتفهم تماماً الرغبة بتصميم الآلات التي تساعدنا على التقليل من غموض المستقبل. لكن لا يوجد مهرب من التعايش مع حقيقة أننا لن نعلم كل شيء عن المستقبل، وعلينا أن نفسح المجال لأنفسنا لكي نتغيّر كأشخاص.

اقرأ أيضاً: لإنقاذ مستقبل الذكاء الاصطناعي: موظفة أخرى تغادر جوجل بعد اتهامها الشركة بتهميش الأقليات

هل يمكنك أن تتحدثي عن الدور الذي يمكن أن تؤديه تكنولوجيا التدقيق الخوارزمي في المستقبل الأكثر أماناً وإنصافاً؟

التدقيق الخوارزمي عبارة عن عملية تنطوي على فحص الخوارزميات وتقييم إمكانية توليدها للنتائج المنحازة. هذا المجال حديث العهد للغاية، ولم يعمل فيه الخبراء قبل 20 عاماً. ولكن الآن، تم تطوير مختلف أنواع الأدوات المذهلة. يقوم الباحثون مثل كاثي أونيل (Cathy O’Neil) وديبرا راجي (Deborah Raji) بعمل مثير للإعجاب في مجال التدقيق الخوارزمي. طوّر الباحثون الذين شاركوا في مؤتمر الإنصاف والمساءلة والشفافية (FAccT conference)، [الذي يهدف لجعل مجال الذكاء الاصطناعي أكثر أخلاقيّة]، العديد من الطرق الرياضية لتقييم درجة الإنصاف في الأنظمة الخوارزمية. أنا متفائلة جداً بشأن الدور الذي يمكن أن يؤديه التدقيق في مساعدتنا على جعل الخوارزميات أكثر إنصافاً وعدلاً.

اقرأ أيضاً: في خطوة اضطرارية: جوجل تطلق بارد رداً على تشات جي بي تي

انتقدتِ في كتابك عبارة “الصندوق الأسود” كوصف لنماذج التعلم الآلي، وجادلتي بأنها تبين بشكلٍ خاطئ أنه من المستحيل وصف آليات العمل الداخلية في هذه النماذج. كيف علينا أن نصف نماذج التعلم الآلي؟

هذا سؤال جيد بالفعل. يبيّن كل ما قلته عن التدقيق أن فهمنا لفكرة الصندوق الأسود خاطئ نوعاً ما. أدركت عندما بدأت في محاولة وصف الأنظمة الحسابية أن فكرة الصندوق الأسود هي فكرة مجرّدة نستخدمها لأنها تبدو ملائمة ولأننا نحاول عادة تجنّب شرح المفاهيم الرياضية المعقدة. وهو أمر لا ضير فيه. أمضيت ما يكفي من الوقت في حفلات التعارف لدرجة أني أدرك تماماً أنه يُفضّل تجنّب خوض الأحاديث المطوّلة عن الرياضيات. ولكن إذا استخدمنا الخوارزميات لاتخاذ قرارات متعلقة بالقضايا الاجتماعية، يجب ألا نتظاهر أن شرح آلية عملها مستحيل.

إحدى الأفكار التي أحاول تذكّرها دائماً هي أن العالم يحتوي على الكثير من الظواهر غير المفهومة، وأنه يحتوي أيضاً على ظواهر غير مفهومة بالنسبة لي شخصياً. عندما أكتب عن الأنظمة المعقدة، أحاول بجدّ أن أوضح الفرق بين الظواهر غير المفهومة بالنسبة للبشر وتلك غير المفهومة بالنسبة لي.

اقرأ أيضاً: كيف نطوّر الذكاء الاصطناعي المسؤول الذي ينفع المجتمع؟

عندما يتحدث الخبراء عن أنظمة التعلم الآلي، فإن عدم الخوض في التفاصيل الدقيقة هو أمر مغرٍ. ولكننا نعلم أن هذه الأنظمة تمييزية. ولّى الزمن الذي يمكن للمراسلين فيه أن يدّعوا أنهم لا يعرفون ما المشكلات التي يمكن أن تنشأ في هذه الأنظمة. يمكننا أن نتنبّأ بالمشكلات المحتملة ونطرح الأسئلة المهمة. هل تم تقييم ما إذا كانت هذه الأنظمة قادرة على توليد النتائج المتحيزة من ناحية الجنس أو القدرات الفردية أو العرق؟ في معظم الأحيان، الجواب هو لا.