باحثون من إم آي تي يطورون طريقة مبتكرة لتقليل تحيز الذكاء الاصطناعي

3 دقائق
باحثو إم آي تي يتخلصون من تحيز نماذج الذكاء الاصطناعي
حقوق الصورة: شترستوك. تعديل إم آي تي تكنولوجي ريفيو العربية.
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

توصل باحثون من معهد ماساتشوستس للتكنولوجيا «إم آي تي» إلى تقنية جديدة تعمل على تقليل تحيز نماذج الذكاء الاصطناعي، وإدخال العدل والإنصاف في التمثيل الداخلي للنموذج نفسه، حتى لو كانت البيانات التي تدرّب عليها النموذج غير عادلة.

ماذا يعني تحيز الذكاء الاصطناعي؟

تحيز الذكاء الاصطناعي هو أن تقوم خوارزميات الذكاء الاصطناعي، وخصوصاً تلك المعتمدة على التعلم العميق، بالتمييز بين الأشخاص على أساس العرق أو الجنس أو الإعاقة أو غيرها. ويمكن أن يتسرب التحيز إلى هذه الخوارزميات من خلال بيانات التدريب أو خلال عملية إعداد البيانات. 

هناك طريقتان أساسيتان يظهر التحيز من خلالهما في بيانات التدريب: 

البيانات التي تجمعها لا تمثل الواقع

قد تحدث هذه الحالة، على سبيل المثال، إذا تمت تغذية خوارزمية التعلم العميق بصور الوجوه ذات البشرة الفاتحة أكثر مما تتم تغذيتها بصور الوجوه ذات البشرة الداكنة، ما يجعل النموذج متحيزاً لذوي البشرة الفاتحة عند تطبيقه في العالم الحقيقي.

البيانات تعكس أوجه التحيز الموجودة

وتمثل ما حدث بالضبط عندما اكتشفت أمازون أن أداة التوظيف الداخلي لديها كانت تتجاهل المرشحين من الإناث. فنظراً لأنه تم تدريبها على سجل سابق من القرارات المتخذة، والتي تم فيها تفضيل الرجال على النساء، فقد تعلمت الأداة أن تفعل الشيء نفسه.

بالإضافة إلى ذلك، تُشفّر نماذج التعلم الآلي الشائعة لمهام التعرف على الصور التحيز عند تدريبها على بيانات غير متوازنة، وبالتالي يصبح من المستحيل إصلاح هذا التحيز داخل النموذج لاحقاً، حتى مع أحدث تقنيات تعزيز الإنصاف، وحتى عند إعادة تدريب النموذج باستخدام مجموعة بيانات متوازنة. 

اقرأ أيضاً: التحيز في لينكدإن: الذكاء الاصطناعي هو المشكلة والحل في الوقت نفسه

إدخال العدل في نماذج الذكاء الاصطناعي

وضع باحثو إم آي تي تقنية جديدة، تعزز قدرة نماذج الذكاء الاصطناعي على تقليل التحيز، حتى إذا كانت مجموعة البيانات المستخدمة لتدريب النموذج غير متوازنة، كما في حالة تدريب النماذج على صور ذوي البشرة البيضاء. أي أن الباحثون استطاعوا إدخال الإنصاف مباشرةً في التمثيل الداخلي للنموذج نفسه. 

ما فائدة ذلك؟

عند تطبيق هذه التقنية، يصبح بإمكان النموذج إنتاج مخرجات عادلة حتى لو تم تدريبه على بيانات غير عادلة، وهو أمر مهم بشكل خاص نظراً لوجود عدد قليل جداً من مجموعات البيانات المتوازنة للتعلم الآلي.

علاوةً على ذلك، يتحسن أداء النماذج في المهام النهائية مثل التعرف على الوجه وتصنيف أنواع الحيوانات.

كيف يصبح الذكاء الاصطناعي متحيزاً؟

تُعرف تقنية التعلم الآلي التي درسها الباحثون باسم التعلم المتري العميق، وهو شكل واسع من أشكال التعلم التمثيلي. في التعلم المتري العميق، تتعلم الشبكة العصبونية التشابه بين الكائنات عن طريق تعيين صور متشابهة قريبة من بعضها وصور مختلفة متباعدة. أثناء التدريب، تقوم هذه الشبكة العصبية بتعيين الصور في «مساحة التضمين» حيث يتوافق مقياس التشابه بين الصور مع المسافة بينها.

درس الباحثون استخدام نموذج التعلم المتري العميق من خلال مثالين؛ الأول تصنيف أنواع الطيور، وفيه يقوم النموذج بتصنيف صور العصافير الذهبية معاً في جزء واحد من مساحة التضمين وطيور الكاردينال معاً في جزء آخر من مساحة التضمين. بمجرد التدريب، يمكن للنموذج أن يقيس بشكل فعال تشابه الصور الجديدة التي لم يرها من قبل. وسوف يتعلم تجميع صور أنواع الطيور التي لم يرها من قبل بالقرب من بعضها بعضاً، ولكن بعيداً عن طيور الكاردينال أو العصافير الذهبية داخل مساحة التضمين. 

والمثال الآخر، هو مثال التعرف على الوجه، وفيه يكون المقياس غير عادل إذا كان من المرجح أن يضمّن أفراداً ذوي بشرة داكنة أقرب إلى بعضهم بعضاً في مساحة التضمين، حتى لو لم يكونوا نفس الشخص، على عكس ما يفعله مع صور الأشخاص ذوي البشرة الفاتحة.

أجرى الباحثون عدة تجارب على نماذج متحيزة وغير عادلة مماثلة، ولم يتمكنوا من التغلب على التحيز الذي تعلمه النموذج في مساحة التضمين الخاصة به. 

وعند إعادة تدريب النموذج على مجموعة بيانات متوازنة لإصلاح المشكلة، تبقى فجوات في الأداء بنسبة 20% على الأقل. لذلك رأى الباحثون أن الحل الوحيد لهذه المشكلة هو التأكد من أن مساحة التضمين عادلة منذ البداية.

اقرأ أيضاً: ماذا لو كانت خوارزميات الكشف عن التحيز العرقي تتسم هي نفسها بالتحيز؟

تدريب الذكاء الاصطناعي على العدل والإنصاف

وضع باحثو إم آي تي حلاً لمشكلة التحيز، وسموه “تخفيض ترابط السمات الجزئية” (Partial Attribute Decorrelation) واختصاره «PARADE»، وفيه يتم تدريب نموذج الذكاء الاصطناعي على تعلم مقياس تشابه منفصل لسمة حساسة، مثل سمة لون البشرة، ثم ربط مقياس تشابه لون البشرة مع مقياس التشابه المستهدف. 

بكلمات أخرى، إذا كان النموذج يتعلم مقاييس التشابه لوجوه بشرية مختلفة، فسوف يتعلم تعيين وجوه متشابهة قريبة من بعضها بعضاً ووجوه مختلفة متباعدة باستخدام ميزات أخرى غير لون البشرة. ليست سمة لون البشرة السمة الوحيدة التي يمكن تضمينها في هذه الطريقة، بل يمكن إدخال العديد من السمات الحساسة في مقياس التشابه المستهدف. 

عند اختبار الطريقة على المثالين سابقَي الذكر (لون البشرة وتصنيف الطيور)، وجدوا أنها قللت من فجوات الأداء الناتجة عن التحيز، سواء في مساحة التضمين أو عند تطبيق النموذج على أرض الواقع، بغض النظر عن مجموعة البيانات المستخدمة في تدريب النموذج.

اقرأ أيضاً: الذكاء الاصطناعي في الطب: خطر التحيز يهدد تطبيقاته الواسعة

يؤكد الباحثون أنه بالإمكان تطبيق الطريقة على العديد من المواقف لأن المستخدم يمكنه التحكم في مقدار العلاقة بين مقاييس التشابه. على سبيل المثال، إذا كان النموذج سيشخص سرطان الثدي من صور التصوير الشعاعي للثدي، فمن المحتمل أن يرغب الطبيب في بقاء بعض المعلومات حول جنس المريض في مساحة التضمين النهائية لأنه من المرجح أن تصاب النساء بسرطان الثدي أكثر من الرجال.