منذ مقتل جورج فلويد، أصبح من اللازم مواجهة عواقب تعزيز الهيكليات العرقية من قِبل أوساط الذكاء الاصطناعي والصناعة التكنولوجية.

2020-06-25 13:13:31

25 يونيو 2020
Article image
مصدر الصورة: بيكسينو | صور جيتي

الخبر

قام تحالف متنامٍ من باحثي الذكاء الاصطناعي بصياغة رسالة مفتوحة إلى دار النشر العلمية سبرنجر نيتشر حول بحث من مؤتمر علمي تخطط لنشره في كتابها المقبل: Transactions on Computational Science & Computational Intelligence (المعاملات القائمة على الحوسبة العلمية والذكاء الحسابي). يحمل البحث عنوان “نموذج شبكة عصبونية عميقة لتوقع الميول الإجرامية باستخدام معالجة الصورة”، ويتحدث عن نظام للتعرف على الوجوه يُزعم أنه قادر على توقع ما إذا كان شخص ما مجرماً أم لا، وذلك وفقاً للبيان الصحفي الأصلي. تم تطوير هذا النموذج من قِبل باحثين في جامعة هاريسبيرج، وكان من المفترض أن يُقدم في المؤتمر المقبل.

المطالب

تستشهد الرسالة بعمل باحثين من ذوي البشرة السوداء في مجال الذكاء الاصطناعي؛ وذلك لدحض الأساس العلمي للبحث، وتأكيد العنصرية التي تنطوي عليها تقنيات توقع الميول الإجرامية. كما تتضمن الرسالة ثلاثة مطالب:

  1. أن تتراجع دار سبرنجر نيتشر عن عرضها لنشر الدراسة.
  2. أن تصدر بياناً يدين استخدام الأساليب الإحصائية مثل التعلم الآلي لتوقع الميول الإجرامية والاعتراف بدورها في تحفيز إجراء أبحاث كهذه.
  3. أن تلتزم جميع دور النشر العلمية بالامتناع عن نشر أبحاث مماثلة في المستقبل.

أُرسلت الرسالة إلى سبرنجر نيتشر مؤخراً، وقد شارك في كتابتها في البداية خمسة باحثين من جامعة إم آي تي، ومعهد رينسيلاير بوليتكنيك، وجامعة ماكجيل، ومعهد إيه آي ناو. وخلال بضعة أيام وحسب، حازت الرسالة على أكثر من 600 توقيع -وما زال العد مستمراً- من العديد من مؤسسات أخلاقيات الذكاء الاصطناعي والأوساط الأكاديمية، إضافة إلى عدة شخصيات هامة مثل ميريديث ويتاكر، واحدة من مؤسسي معهد إيه آي ناو، وإيثان زوكرمان، المدير السابق لمركز الإعلام المدني في مختبر الوسائط في إم آي تي.

أهمية هذه الرسالة

على الرغم من أن الرسالة تركز على بحث محدد، فإن هدف المؤلفين إثبات وجود مشكلة منهجية في تحفيز دور النشر العلمية للباحثين على نشر المعايير اللاأخلاقية. تقول تشيلسي باراباس، وهي طالبة في مرحلة الدكتوراه في إم آي تي، وشاركت في صياغة الرسالة: “هذا ما يتسبب في ظهور المسحة العنصرية في الأبحاث العلمية مراراً وتكراراً” تؤكد ثيودورا دراير، وهي باحثة في مرحلة ما بعد الدكتوراه في إيه آي ناو، ومن المشاركين في صياغة الرسالة أيضاً: “يحدث هذا لأن دور النشر تقوم بنشر هذه الأبحاث. وتعود أهمية هذا البحث من سبرنجر إلى أنه لا يمثل حالة فريدة على الإطلاق. إنه رمز للمشكلة، ويمثل انتقاداً لاستمرارها لفترة طويلة حتى الآن”.

رد سبرنجر

استجابة للرسالة، قالت سبرنجر إنها لن تنشر الرسالة. وتضمن الرد ما يلي: “إن البحث المشار إليه تم تقديمه للمشاركة في مؤتمر مقبل قررت سبرنجر نشر مشاركاته. وبعد عملية تحكيم علمي دقيقة، تم رفض البحث”. قامت جامعة هاريسبيرج أيضاً بإزالة البيان الصحفي عن موقعها، وقالت إن “الهيئة العلمية تقوم بتحديث البحث للتعامل مع الانتقادات التي أُثيرت حوله”. رفضت جامعة هاريسبيرج وأحد مؤلفي البحث طلباً للتعليق على الموضوع، إضافة إلى طلب للحصول على نسخة من البحث الأصلي. قال موقعو الرسالة إنهم سيواصلون العمل على تحقيق المطلب الثاني والثالث.

المشهد العام

منذ أن أطلق مقتل جورج فلويد شرارةَ حركة عالمية نحو العدالة العرقية، أصبح من اللازم مواجهة عواقب تعزيز الهيكليات العرقية من قِبل أوساط الذكاء الاصطناعي والصناعة التكنولوجية. وعلى سبيل المثال، أعلنت كل من آي بي إم ومايكروسوفت وأمازون خلال أول أسبوع من مايو إنهاء التعليق الجزئي على منتجاتها للتعرف على الوجوه. كان هذا الإجراء حصيلة عامين من المناصرة والتأييد من باحثين وناشطين لإثبات الصلة بين هذه التكنولوجيات والإجراءات الجائرة بحق مجتمعات الأقليات. تمثل الرسالة المفتوحة أحدث خطوة في هذه الحركة نحو تحقيق مستوى أعلى من المسؤولية الأخلاقية في الذكاء الاصطناعي.

تقول سونجا سولومون، وهي مدير الأبحاث في مركز الوسائط والتكنولوجيا والديمقراطية في جامعة ماكجيل: “لقد رغبنا إلى حد كبير في المشاركة ضمن هذه الحركة المتنامية. وعلى وجه الخصوص عندما ننظر من نوافذنا ونرى ما يجري الآن في الولايات المتحدة والعالم، فإننا ندرك وجود مخاطر جسيمة”.


شارك



مراسلة الذكاء الاصطناعي، إم آي تي تكنولوجي ريفيو