Article image
مصدر الصورة: أنسبلاش


هذا القسم يأتيكم بالتعاون مع:


يدعو المعهد إلى التريُّث في تطبيق تكنولوجيا التعرف على المشاعر والوجوه ريثما تتم دراسة مخاطرها بشكلٍ دقيق.

يقول معهد أبحاث الذكاء الاصطناعي إيه آي ناو AI Now في تقريره السنوي إنه يجب حظر استخدام تكنولوجيا التعرف على المشاعر في عملية اتخاذ القرارات التي تؤثِّر على حياة الناس؛ نظراً لاستناد هذه التكنولوجيا إلى أساسٍ ضعيف علمياً.

سوق مزدهرة
على الرغم من عدم وجود أدلةٍ على قدرة الآلات على استيعاب المشاعر البشرية، يُقدَّر أن قيمة سوق تكنولوجيا التعرف على المشاعر لا تقلّ عن 20 مليار دولار، وهي مستمرةٌ في النمو بشكلٍ متسارع. وحالياً، يتم استخدام هذه التكنولوجيا في تقييم المتقدِّمين إلى الوظائف والأشخاص المُشتبَه في ارتكابهم جرائم. كما يتم اختبارها في تطبيقاتٍ أخرى مثل أجهزة الواقع الافتراضي المثبتة على الرأس للاستدلال على الحالات العاطفية للاعبين.

مشاكل إضافية
هناك أدلةٌ أيضاً على أن تكنولوجيا التعرف على المشاعر يمكن أن تؤدي إلى تفاقم التمييز على أساس العرق والجنس. وقد قال معهد إيه آي ناو إنه يجب على الهيئات الناظمة أن تتدخل لتفرض قيوداً صارمة على استخدامها، وأضاف المعهد أنه يجب -حتى ذلك الحين- أن تتوقف شركات الذكاء الاصطناعي عن التوسع في تطبيقها. وعلى وجه التحديد، استشهد المعهد بدراسةٍ حديثة أجرتها الجمعية الأميركية للعلوم النفسية، بعد أن أمضت عامين في مراجعة أكثر من 1000 ورقةٍ بحثية حول موضوع اكتشاف المشاعر، وخلُصَت إلى نتيجةٍ مفادها أن من الصعب للغاية الاعتماد على تحليل التعابير الوجهية وحدِها من أجل التحديد الدقيق لمشاعر شخصٍ ما. 

مخاوف أخرى
طالب معهد إيه آي ناو في تقريره الحكوماتِ والشركات بالتوقف عن استخدام تكنولوجيا التعرف على الوجوه في تطبيقاتٍ حساسة ريثما تتم دراسة مخاطر هذا الاستخدام بصورةٍ صحيحة، كما هاجم المعهد قطاع الذكاء الاصطناعي بسبب “عنصريته المُمنهَجة وبُغضه للنساء وافتقاره إلى التنوع”، كما دعا إلى إلزام قطاع الذكاء الاصطناعي بالكشف عن تأثيره البيئي.