تكنوضاد ذكاء اصطناعي

تحيز الذكاء الاصطناعي | AI BIAS


وهو أن تقوم خوازميات الذكاء الاصطناعي -وخصوصاً تلك المعتمدة على التعلم العميق- بالتمييز بين الأشخاص على أساس العرق أو الجنس أو الإعاقة أو غيرها. ويمكن أن يتسرب التحيز إلى هذه الخوارزميات من خلال بيانات التدريب أو خلال عملية إعداد البيانات.
هناك طريقتان أساسيتان يظهر التحيز من خلالهما في بيانات التدريب: إما أن البيانات التي تجمعها لا تمثل الواقع، أو أنها تعكس أوجه التحيز الموجودة. قد تحدث الحالة الأولى – على سبيل المثال – إذا تم تغذية خوارزمية التعلم العميق بصور الوجوه ذات البشرة الفاتحة أكثر مما يتم تغذيتها بصور الوجوه ذات البشرة الداكنة. والحالة الثانية تمثل ما حدث بالضبط عندما اكتشفت أمازون أن أداة التوظيف الداخلي لديها كانت تتجاهل المرشحين من الإناث. فنظراً لأنه تم تدريبها على سجل سابق من القرارات المتخذة، والتي تم فيها تفضيل الرجال على النساء، فقد تعلمت الأداة أن تفعل الشيء نفسه.
كما يمكن إدخال التحيز خلال مرحلة إعداد البيانات، والتي تتضمن تحديد السمات التي تريد للخوارزمية أن تضعها في الاعتبار. ففي حالة أداة أمازون للتوظيف، قد تكون “السمة” هي جنس المرشح، أو مستواه التعليمي، أو عدد سنوات الخبرة. إن اختيار السمات التي ينبغي مراعاتها أو تجاهلها يمكن أن يؤثر بشكل كبير على الدقة التي يحققها النموذج في التنبؤ.


مفاهيم من نفس المحور


مقالات تم ذكر هذا المصطلح فيها


بدعم من تقنيات