هل يمكن اعتماد التوظيف باستخدام الذكاء الاصطناعي أم أنه في حاجة للتدقيق؟

2 دقائق
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

طلب مركز معلومات الخصوصية الإلكترونية (إيبيك EPIC) من هيئة التجارة الفدرالية الأميركية أن تُجري تحقيقاً حول هايرفو HireVue، وهي أداةٌ مبنية على الذكاء الاصطناعي لمساعدة الشركات في اختيار الأشخاص المناسبين للتوظيف. 

ما هي هايرفو بالضبط؟ 
هايرفو هي واحدةٌ من عددٍ متنامٍ من أدوات الذكاء الاصطناعي التي تستخدمها الشركات من أجل تقييم المتقدِّمين للوظائف. حيث تقوم الخوارزمية بتحليل المقابلات المرئية، مستخدمةً كل ما يتعلق بالمقابلة، بدءاً من انتقاء المُرشَّح للكلمات ووصولاً إلى تعابيره الوجهية؛ وذلك بهدف تعيين “درجة قابلية التوظيف” للمرشَّح، التي تتم مقارنتها مع درجات المتقدِّمين الآخرين. ووفقاً لصحيفة واشنطن بوست، فقد قامت أكثر من 100 شركة فعلاً بتطبيق هذه الأداة على أكثر من مليون متقدِّمٍ للعمل لديها. 

ما المشكلة؟
من الصعوبة بمكان التنبُّؤ بأيٍّ من المتقدِّمين سيكون ناجحاً في عمله بالاعتماد على تحليل أشياء كالتعابير الوجهية. والأسوأ من ذلك هو أن هذه الخوارزمية يتم تدريبها على بياناتٍ محدودة مما يثير مخاوف منتقديها من أن يؤدي هذا إلى زيادة احتمال تصنيف المتقدِّمين “التقليديين” (أي ذوي البشرة الفاتحة والذكور) كأشخاصٍ أكثر قابليةً للتوظيف من خلال منحهم درجاتٍ أعلى. ونتيجةً لذلك –بحسب الخبراء– فإن المتقدِّمين الذين يحيدون عن صفة “المتقدِّم التقليدي”-بمن فيهم الأشخاص الذين لا يتحدثون الإنجليزية كلغةٍ أمّ أو الأشخاص من ذوي الاحتياجات الخاصة- سيزداد احتمال حصولهم على درجاتٍ أقلّ. وعلاوةّ على ذلك، فإنَّ هذه الأداة تشجِّع المتقدمين على التلاعب بالنظام من خلال إجراء المقابلات بطريقةٍ يعلمون أن أداة هايرفو سوف تُفضِّلها.

ما الذي يمكن فعله؟
لا تخضع أدوات التوظيف المبنية على الذكاء الاصطناعي لقواعد تنظيمية جيدة، ومعالجة هذه المشكلة ستكون صعبةً لعدة أسبابٍ وإليكم بعضُها:

  • أولاً: لا تكشف معظم الشركات عن بياناتها ولا توضِّح طريقة عمل خوارزمياتها؛ لذا يغدو من الصعب للغاية إثباتُ وجود تحيُّزٍ فيها. ويُمثِّل هذا جزءاً من السبب في عدم وجود أي دعاوى قضائية كبرى ضد استخدامها حتى الآن. وشكوى إيبيك -التي تشير إلى انتهاك طريقة عمل هايرفو لقواعد هيئة التجارة الفدرالية الأميركية بخصوص منع الممارسات “الظالمة والمُخادِعة”- ما هي إلا خطوةٌ أولى، ولكن من غير الواضح إذا كانت ستتبعها خطواتٌ أُخرى أم لا. ومع أنَّ الهيئة قد قبِلت هذه الشكوى لكنها لم تصرِّح إذا ما كانت ستجري تحقيقاً فيها أم لا. 
  • ثانياً: على الرغم من حُسْن نيّة المحاولات الأُخرى لمنع التحيُّز إلا أنها محدودةُ التأثير؛ ففي وقتٍ سابق من هذا العام، أقرَّ المشرِّعون بولاية إيلينوي قانوناً يُلزم أرباب العمل أن  يقوموا على الأقل بإعلام طالبي العمل باستخدامهم لهذه الخوارزميات، والحصول على موافقتهم على ذلك. لكنَّ فائدة قوانين مثل هذه ستكون ضئيلةً؛ حيث من المرجح أن يوافق طالبو العمل على استخدام هذه الأدوات في مقابلاتهم لأنهم ببساطةٍ لا يريدون خسارة فرصة العمل هذه.
  • وأخيراً: فإنَّ استخدام الذكاء الاصطناعي في التوظيف -حالُه كحال استخدامه في مجال الرعاية الصحية وفي المحاكم– سيؤدي إلى إثارة قضية التحيُّز في المجتمع من جديد، وهي مشكلةٌ معقدة. وسيتعيَّن على المشِّرعين إيجاد طريقةٍ لتحديد درجة مسؤولية الشركات في تجنُّب الوقوع في أخطاء مجتمعٍ مُتحيِّز.