أداة جديدة من سوني لتخفيف التحيز في أنظمة التعرف على الوجوه

4 دقائق
مصدر الصورة: ستيفاني آرنيت. إم آي تي تي آر. غيتي إيميدجيز
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

أصبحت أنظمة الرؤية الحاسوبية منتشرة في كل مكان، فهي تساعد على تصنيف الصور وتحديدها على صفحات وسائل التواصل الاجتماعي، وكشف الأجسام والوجوه في الصور ومقاطع الفيديو، وتحديد العناصر المهمة في الصورة؛ لكنها مليئة بالتحيزات، وتصبح أقل دقة عندما تتضمن الصور نساءً أو أشخاصاً من ذوي البشرة الداكنة أو السمراء. أيضاً، تعاني هذه الأنظمة مشكلةً أخرى، فالطرائق الحالية التي يعتمد عليها الباحثون لكشف التحيزات في هذه الأنظمة هي ذاتها تتسم بالتحيز؛ حيث تصنف البشر ضمن فئات عامة لا تأخذ تعقيداتهم بعين الاعتبار.

وسائل لقياس التحيزات

نشر باحثون في شركتَيّ سوني وميتا (Meta) ورقتين بحثيتين جديدتين يقترحون فيهما وسائلَ لقياس التحيزات في أنظمة الرؤية الحاسوبية بدقة كافية للتعبير عن التنوع البشري على نحو أفضل. وستُقَدَّم كلتا الورقتين خلال مؤتمر الرؤية الحاسوبية (ICCV) في أكتوبر/ تشرين الأول. يمكن للمطورين استخدام هذه الأدوات للتحقق من مستوى التنوع في مجموعات البيانات لديهم؛ ما يساعدهم على إجراء عملية تدريب أفضل وأكثر تنوعاً لأنظمة الذكاء الاصطناعي. ويمكن استخدام هذه الأدوات أيضاً لقياس التنوع في الصور البشرية التي ينتجها الذكاء الاصطناعي التوليدي.

عادة ما يُقاس التحيز وفق لون البشرة في الرؤية الحاسوبية باستخدام مقياس فيتزباتريك (Fitzpatrick scale) الذي يتراوح بين الفاتح والداكن. وطُوِّر المقياس في البداية لقياس درجة اسمرار البشرة البيضاء؛ ولكنه اعتُمِد لاحقاً بصفته أداة لتحديد الأعراق على نطاق واسع وفقاً لباحث أخلاقيات الذكاء الاصطناعي في سوني، ويليام ثونغ. يُستخدم هذه المقياس لتحديد درجة التحيز في الأنظمة الحاسوبية، على سبيل المثال، بمقارنة دقة نماذج الذكاء الاصطناعي للأشخاص ذوي البشرة الفاتحة والداكنة.

لكن توصيف الجلد البشري بمقياس أحادي البعد سيؤدي إلى نتائج مضللة وفقاً لرئيسة القسم العالمي لأخلاقيات الذكاء الاصطناعي في سوني، أليس شيانغ. فعندما يصنف الباحثون البشر إلى مجموعات مبنية على هذا المقياس الذي يفتقر إلى الدقة، فإنهم يتجاهلون تحيزات تؤثر، مثلاً، في الآسيويين الذين لا يحظون بتمثيل كافٍ في مجموعات البيانات الغربية للذكاء الاصطناعي، ويمكن إدراجهم ضمن فئات البشرة الفاتحة والبشرة الداكنة على حد سواء. إضافة إلى هذا، فإن هذا المقياس لا يأخذ بعين الاعتبار إمكانية تغير لون بشرة الشخص. على سبيل المثال؛ تصبح بشرة الآسيويين أكثر ميلاً إلى الاسمرار والاصفرار مع تقدم العمر، على حين تصبح بشرة البيض أكثر ميلاً إلى الاسمرار والاحمرار كما يقول الباحثون.

اقرأ أيضاً: لماذا نحتاج قسم عمليات النموذج في دورة حياة نماذج الذكاء الاصطناعي؟

أداة لتوسيع مقياس لون البشرة

طوّر فريق ثونغ وشيانغ أداة كشف عنها الفريق حصرياً لإم آي تي تكنولوجي ريفيو، لتوسيع مقياس لون البشرة إلى بُعدين؛ بحيث يقيس لون البشرة (من الفاتح إلى الداكن) ومسحتها اللونية (من الأحمر إلى الأصفر)، وقد قررت سوني إتاحة الأداة مجاناً عبر الإنترنت للجميع.

يقول ثونغ إنه وجد إلهامه في عمل الفنانة البرازيلية أنجيليكا داس التي تُظهر أعمالها أشخاصاً من أصول متشابهة ولكن بتباينات كبيرة في ألوان البشرة. لكن تمثيل النطاق الكامل لألوان البشرة ليس بالفكرة الجديدة، فقد كانت صناعة التجميل تستخدم التقنية نفسها منذ سنوات.

تقول شيانغ: “بالنسبة إلى أي شخص وجد نفسه مضطراً لاختيار لون لمستحضر “كريم الأساس”، لا يعتمد الاختيار فقط على لو كانت البشرة فاتحة أو داكنة؛ بل أيضاً إذا كانت تحمل مسحة لونية دافئة أو باردة”.

إن عمل سوني على التدرج اللوني للبشرة “يقدم معلومات مهمة حول عنصر مفقود كان الجميع يتجاهلونه” وفقاً للأستاذ المساعد في جامعة رايس، غوها بالاكريشنان؛ الذي درس التحيزات في نماذج الرؤية الحاسوبية.

اقرأ أيضاً: هل يمكن للذكاء الاصطناعي أن يتعلم كيف يخدع البشر؟

قياس التحيز في الرؤية الحاسوبية بطرق مختلفة

حالياً، لا توجد طريقة معيارية واحدة يعتمد عليها الباحثون لقياس التحيز في الرؤية الحاسوبية؛ ما يزيد صعوبة مقارنة الأنظمة بعضها ببعض.

ولرفع مستوى الاتساق في تقييمات التحيز، طورت ميتا طريقة جديدة لقياس مستوى الإنصاف في نماذج الرؤية الحاسوبية، تحمل اسم “فاسيت” (FACET)، اختصاراً لعبارة: “Fairness in Computer Vision Evaluation” (الإنصاف في تقييم الرؤية الحاسوبية)، ويمكن استخدامها في مجموعة من المهمات الأكثر شيوعاً، مثل التصنيف والكشف والتجزئة ضمن شرائح. تقول باحثة الذكاء الاصطناعي في ميتا، لورا غوستافسون، إن فاسيت هي أول تقييم للإنصاف يشمل الكثير من المهمات المختلفة للرؤية الحاسوبية، وإن هذه الأداة تشمل نطاقاً أوسع من معايير الإنصاف بالمقارنة مع الأدوات الأخرى لقياس التحيز.

لبناء فاسيت، جمعت ميتا مجموعة بيانات تضم 32,000 صورة بشرية متاحة مجاناً، ووظفت مجموعة من الأشخاص من مختلف أنحاء العالم لتصنيفها. طُلِب من المصنفين تصنيف الصور وفق 13 خاصية مرئية مختلفة؛ مثل العمر الظاهري، ولون البشرة، والجنس، ولون الشعر وطبيعته، وغير ذلك. وطُلِب منهم أيضاً تصنيف الأشخاص بناء على ما كانوا يفعلونه في الصور، أو عملهم الذي يمكن استنتاجه منها؛ مثل مصفف شعر، أو متزلج، أو طالب، أو موسيقي، أو رياضي. ويقول الباحثون إن هذا يضيف المزيد من التفاصيل والدقة إلى تقييم التحيز.

اقرأ أيضاً: التحيز في أنظمة الذكاء الاصطناعي: كيف يمكن للآلة أن تكون متحيزة؟

استخدمت ميتا فاسيت بعد ذلك لتقييم أداء أحدث نماذج الرؤية الحاسوبية على مجموعات مختلفة من الأشخاص، وأظهرت النتائج وجود تباينات كبيرة. على سبيل المثال؛ كانت النتائج أفضل أداء في كشف الأشخاص ذوي البشرة الفاتحة، حتى بوجود الضفائر أو الشعر المجعد.

وبما أن الأشخاص من أنحاء العالم جميعها يضيفون تحيزاتهم الخاصة إلى طريقتهم في تقييم صور الآخرين، فإن جهود ميتا في توظيف مصنفين من عدة مناطق جغرافية متنوعة تمثل عاملاً إيجابياً وفقاً لباحثة الدكتوراة في جامعة برينستون، أنجلينا وانغ؛ التي درست التحيز في نماذج الرؤية الحاسوبية.

إضافة إلى هذا، فإن قرار ميتا بجعل بياناتها متاحة مجاناً عبر الإنترنت سيكون عاملاً مساعداً للباحثين. يكلف تصنيف البيانات أموالاً طائلة؛ ولهذا فإن هذه البيانات متوفرة فعلياً فقط لدى الشركات التكنولوجية الكبيرة عموماً. ويقول بالاكريشنان: “نرحب بهذه الإضافة دون شك”.

لكن وانغ تحذر أنه من الأفضل التحلي بالواقعية إزاء تأثير هذه الأنظمة، فمن المرجح أن تؤدي إلى تحسينات صغيرة بدلاً من إحداث تحولات جذرية في الذكاء الاصطناعي.

اقرأ أيضاً: كيف يمكن حل مشكلات التعميم والتحيز في خوارزميات الذكاء الاصطناعي؟

وتقول: “أظن أننا ما نزال بعيدين عن التوصل إلى أي فكرة يمكن أن تعبر فعلاً عن طريقة تمثيل البشر لأنفسهم، ومن المرجح أننا لن نتوصل إليها على الإطلاق”.