لماذا يعاني العاملون في قطاع الذكاء الاصطناعي المسؤول من الإرهاق؟

9 دقائق
مصدر الصورة: ستيفاني أرنيت/ ميتر/ أنسبلاش
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

كانت مارغريت ميتشل تعمل لدى جوجل (Google) لمدة سنتين، قبل أن تدرك أنها أصبحت بحاجة إلى استراحة.

تقول ميتشل، والتي قامت بتأسيس فريق الذكاء الاصطناعي الأخلاقي للشركة، والمساهمة في قيادته: “لقد بدأت أصاب بالانهيار بصورة متكررة. لم أتعرض إلى شيء كهذا من قبل”.

وبعد أن تحدثت مع الطبيب، أدركت المشكلة: لقد كانت مصابة بالإرهاق الشديد. وانتهى بها المطاف بالحصول على استراحة طبية بسبب الضغط والإرهاق. 

تعمل ميتشل الآن باحثة في الذكاء الاصطناعي، وكبيرة علماء الأخلاقيات في شركة الذكاء الاصطناعي الناشئة هاغينغ فيس (Hugging Face)، وهي ليست الوحيدة التي عانت من هذه المشكلة على الإطلاق. فقد أصبح الإرهاق الشديد ظاهرة منتشرة على نحو متزايد في فرق الذكاء الاصطناعي المسؤول، كما يقول مؤسس معهد مونتريال لأخلاقيات الذكاء الاصطناعي ومستشار الذكاء الاصطناعي المسؤول في مجموعة بوسطن الاستشارية، أبيشيك غوبتا. 

اقرأ أيضاً: تعرف على الباحثة السعودية لطيفة محمد العبد الكريم وعملها بمجال أخلاقيات الذكاء الاصطناعي

الإرهاق الشديد ظاهرة منتشرة ضمن فرق الذكاء الاصطناعي

تتعرض الشركات إلى ضغوط متزايدة من الجهات المنظمة والناشطين لضمان تطوير منتجات الذكاء الاصطناعي الخاصة بها بطريقة تخفف من أي أذيات محتملة قبل إطلاقها. ولهذا، استثمرت الشركات في فرق تقوم بتقييم أثر طريقة تصميم هذه الأنظمة وتطويرها وتطبيقها على حياتنا ومجتمعاتنا وأنظمتنا السياسية. 

وقد قامت المحاكم بإرغام بعض الشركات التكنولوجية، مثل ميتا، على تقديم تعويضات ودعم إضافي للصحة العقلية لبعض الموظفين، مثل مديري المحتوى، والذي يتطلب منهم عملهم التدقيق في المحتوى المرسوم والعنيف بشكل متواصل، وهو ما قد يؤثر عليهم سلباً بشدة. 

ولكن الفرق التي تعمل في مجال الذكاء الاصطناعي المسؤول لا تحظى بعناية مماثلة، كما قال بعض الموظفين لإم آي تي تكنولوجي ريفيو، على الرغم من أن عملهم يمكن أن يكون مرهقاً للغاية من الناحية النفسية بمستوى لا يقل عن الإشراف على المحتوى. وفي المحصلة، يمكن لهذا الأمر أن يتسبب لأفراد هذه الفرق بالشعور بالإهمال وعدم التقدير، ما يمكن أن يؤثر على صحتهم العقلية، ويؤدي إلى الإرهاق الشديد.

تعتبر رومان تشاودوري، والتي تقود فريق الأخلاقيات والشفافية والمسؤولية للتعلم الآلي في تويتر (Twitter) من الرواد في أخلاقيات الذكاء الاصطناعي التطبيقية، وقد واجهت ذات المشكلة في منصب سابق. 

وتقول: “لقد وصلت إلى مستوى عالٍ من الإرهاق الشديد في إحدى المراحل، وقد شعرت باليأس في هذا الوضع”. 

كان جميع العاملين الذين أجرت معهم إم آي تي تكنولوجي ريفيو مقابلات يتحدثون عن عملهم بحماس، فقد كان مدفوعاً بالشغف والإحساس بضرورة العمل بسرعة، إضافة إلى الشعور الإيجابي الناجم عن بناء حلول لمشكلات حقيقية. ولكن هذا الإحساس بالقيام بمهمة نبيلة يمكن أن يكون عبئاً ثقيلاً دون وجود الدعم الصحيح.

تقول تشاودوري: “إن الحصول على استراحة يكاد يبدو مستحيلاً”. “وهناك الكثير من العاملين في الشركات التكنولوجية من المكلفين بمهام تهدف إلى حماية المستخدمين على المنصة. وبالتالي، يوجد شعور دائم باحتمال حدوث أمر سيئ للغاية عندما أحصل على إجازة، أو عند التراخي في المراقبة والتركيز على مدار الساعة”.  

تقول ميتشل إنها تواصل العمل في مجال أخلاقيات الذكاء الاصطناعي “بسبب الحاجة الكبيرة إليه، فهي واضحة للغاية، ومع هذا فإن من يدركون وجود هذه الحاجة من الذين يعملون فعلياً في مجال التعلم الآلي قليلون للغاية”. 

ولكن التحديات كثيرة. فالمنظمات والمؤسسات تضغط بشدة على الأفراد لإصلاح المشكلات الكبيرة المتعلقة بالأنظمة دون دعم ملائم، على حين يواجه هؤلاء الأفراد في أغلب الأحيان سيلاً شبه متواصل من الانتقاد العدواني على الإنترنت. 

اقرأ أيضاً: دليل شركات التكنولوجيا الكبرى للحديث عن أخلاقيات الذكاء الاصطناعي

تنافر معرفي

تتباين أدوار العاملين في مجال أخلاقيات الذكاء الاصطناعي والذكاء الاصطناعي المسؤول، وتتراوح بين تحليل الآثار الاجتماعية لأنظمة الذكاء الاصطناعي إلى تطوير استراتيجيات وسياسات مسؤولة لإصلاح المشكلات التقنية. وعادة ما يتم تكليف هؤلاء الأفراد بإيجاد حلول لتخفيف سلبيات الذكاء الاصطناعي، مثل الخوارزميات التي تنشر خطاب الكراهية، والأنظمة التي توزع الأشياء مثل المنازل والحوافز بطريقة تمييزية، وصولاً إلى انتشار الصور واللغة المقززة والعنيفة. 

إن محاولة إصلاح المشكلات المتجذرة مثل العنصرية والتمييز على أساس الجنس وغيره في أنظمة الذكاء الاصطناعي قد تتضمن، على سبيل المثال، تحليل مجموعات بيانات كبيرة تتضمن محتوى شديد الإساءة، مثل مشاهد الاغتصاب والمصطلحات العرقية المسيئة.

غالباً ما تعكس أنظمة الذكاء الاصطناعي أسوأ المشكلات في مجتمعاتنا، مثل العنصرية والتمييز الجنسي، وتدفع إلى تفاقمها. وتتراوح التكنولوجيات الإشكالية بين أنظمة التعرف على الوجوه التي تصنف ذوي البشرة السمراء مع الغوريلات، وبرمجيات التزييف العميق المستخدمة لصنع أفلام إباحية لنساء لم يعطين موافقتهن على المشاركة فيها. إن التعامل مع هذه المسائل قد يكون مرهقاً على وجه الخصوص بالنسبة للنساء، والمنتسبين إلى غير العرق الأبيض، وغير ذلك من المجموعات المهمشة، والتي تميل إلى العمل في مجال أخلاقيات الذكاء الاصطناعي. 

ومع أن الإرهاق الشديد لا يقتصر على العاملين في مجال الذكاء الاصطناعي المسؤول، إلا أن جميع الخبراء الذين تحدثت معهم إم آي تي تكنولوجي ريفيو قالوا إنهم يواجهون تحديات صعبة على وجه الخصوص في ذلك المجال. 

تقول ميتشل: نحن نعمل على شيء يتسبب لنا يوماً بعد يوم بالأذى على المستوى الشخصي إلى حد بعيد، وهو ما يجعل واقع التمييز أكثر مرارة، لأن تجاهله يصبح مستحيلاً”. 

ولكن، وعلى الرغم من تنامي الوعي العام حول المخاطر التي قد يتسبب بها الذكاء الاصطناعي، فإن مختصي الأخلاقيات ما زالوا يكافحون لنيل اعتراف زملائهم في مجال الذكاء الاصطناعي. 

بل إن البعض يستخفون بعمل مختصي الأخلاقيات في الذكاء الاصطناعي. يقول الرئيس التنفيذي للشركة الناشئة ستابيليتي أيه آي (Stability AI) إيماد موستاك في تغريدة، والذي قامت شركته ببناء نظام الذكاء الاصطناعي ستيبل ديفيوجن (Stable Diffusion) لتحويل النص إلى صور، إن الجدل الأخلاقي حول تكنولوجياته “أبوي الطابع”. ولم يرد موستاك أو ستابيليتي أيه آي على طلب إم آي تي تكنولوجي ريفيو للحصول على تعليق.

“معظم العاملين في مجال الذكاء الاصطناعي هم من المهندسين، وهم ليسوا منفتحين فعلياً على العلوم الإنسانية”، كما يقول إيمانويل غوفي، المختص بأخلاقيات الذكاء الاصطناعي ومؤسس المعهد الدولي لأخلاقيات الذكاء الاصطناعي، وهو مؤسسة بحثية. 

اقرأ أيضاً: ماذا يمكن أن تقدم البوذية إلى أخلاقيات الذكاء الاصطناعي؟

حلول تقنية سريعة مطلوبة دون النظر في حاجات العاملين

يقول غوفي إن الشركات ترغب بالحصول على حلول تقنية سريعة، وتريد أن يقوم شخص ما “بتعليمها كيف تصبح أخلاقية عبر عرض تقديمي على بوربوينت مؤلف من ثلاث شرائح وأربع نقاط أساسية وحسب”. ويضيف غوفي قائلاً إن التفكير الأخلاقي يجب أن يكون أكثر عمقاً، ويجب أن يتم تطبيقه على جميع أساليب العمل والوظائف في المؤسسة.  

ويقول: “من الناحية النفسية، فإن الجزء الأكثر صعوبة هو التعامل في كل يوم، وفي كل دقيقة، مع التضارب بين ما تؤمن به وبين ما يجب عليك فعله”. 

تقول ميتشل إن سلوك الشركات التكنولوجية بشكل عام، وفرق التعلم الآلي بشكل خاص، يزيد من تعقيد المشكلة. وتقول: “لست مضطراً إلى محاولة حل هذه المشكلات الصعبة وحسب، بل يجب عليك أيضاً أن تثبت أنها جديرة بهذا الجهد. وبالتالي، فإن ما نتعرض له هو النقيض التام للدعم. إننا نتعرض إلى الإعاقة والعرقلة”. 

وتضيف تشاودوري: “هناك من يعتقد أن الأخلاقيات مجال عديم النفع، وأننا نمثل تأثيراً سلبياً على تقدم الذكاء الاصطناعي”. 

إضافة إلى ذلك، فإن وسائل التواصل الاجتماعي تسهّل على المنتقدين التعاون على استهداف الباحثين. وتقول تشاودوري إنه لا جدوى من الحوار مع أشخاص لا يقدرون قيمة هذا المجال، “ولكن تفادي الحوار يصبح صعباً إذا تمت الإشارة إليك بالتحديد في منشور ما أو تعرضت إلى هجوم موجه ضدك بصورة مباشرة”. 

اقرأ أيضاً: شركات ناشئة تساعد الشركات الأخرى في توفير متطلبات أخلاقيات الذكاء الاصطناعي

سرعات عالية

إن الوتيرة السريعة لتقدم أبحاث الذكاء الاصطناعي تزيد الطين بلة. فالإنجازات الجديدة ضخمة وسريعة. ففي السنة الماضية وحدها، كشفت الشركات التكنولوجية الستار عن أنظمة ذكاء اصطناعي قادرة على توليد الصور من النصوص، لتعلن بعد مرور أسابيع وحسب عن برنامج ذكاء اصطناعي أكثر تطوراً لتركيب مقاطع الفيديو من النصوص وحدها أيضاً. إنه تطور مذهل، ولكن الأضرار المحتملة المترافقة مع كل إنجاز يمكن أن تمثل تحدياً كبيراً. فمن الممكن أن يقوم نظام الذكاء الاصطناعي الذي يحول النصوص إلى صور بانتهاك حقوق الملكية الفكرية، ومن المحتمل أنه تم تدريبه على مجموعات بيانات مليئة بالمواد المسيئة، ما يؤدي إلى نتائج مؤسفة. 

تقول تشاودوري: “إن ملاحقة المواضيع الجديدة التي تحقق انتشاراً واسعاً على تويتر أمر مرهق بالفعل”. من المستحيل على مختصي الأخلاقيات أن يكونوا خبراء في جميع المشكلات الكثيرة التي يمكن أن تظهر مع كل إنجاز في مجال الذكاء الاصطناعي، كما تقول تشاودوري، ولكنها ما زالت تشعر أنها يجب أن تكون متابعة لجميع تفاصيل أخبار ومعلومات مجال الذكاء الاصطناعي، مخافة أن تفلت منها معلومة مهمة. 

وتقول تشاودوري إن العمل ضمن فريق مزود بموارد جيدة في تويتر كان تجربة إيجابية، فقد كانت مطمئنة إلى أنها لن تضطر إلى تحمل العبء لوحدها. وتقول: “كنت أعلم أنني يمكن أن أغيب لأسبوع دون أن أخشى من تردي الأوضاع في غيابي، لأنني لست الشخص الوحيد المشرف على العمل”. 

ولكن تشاودوري تعمل في شركة تكنولوجية كبيرة تتمتع بالموارد والرغبة لتوظيف فريق كامل للعمل على الذكاء الاصطناعي المسؤول. وهي رفاهية لا يتمتع بها الجميع. 

فالعاملون في الشركات الناشئة الأصغر في مجال الذكاء الاصطناعي يواجهون الكثير من الضغوط من مستثمري رأس المال لتنمية العمل، كما أن الرواتب التي يحصلون عليها من العقود مع المستثمرين لا تعكس العمل الإضافي المطلوب لبناء التكنولوجيا المسؤولة، كما يقول فيفيك كاتيال، وهو عالم بيانات في شركة مالتيتيودز (Multitudes) الناشئة المختصة بالتحليل الأخلاقي للبيانات.

ويتوجب على قطاع التكنولوجيا مطالبة مستثمري رأس المال بالمزيد “للاعتراف بوجوب دفع المزيد للحصول على تكنولوجيا أكثر مسؤولية”، كما يقول كاتيال. 

اقرأ أيضاً: مجموعات أخلاقيات الذكاء الاصطناعي تكرر أحد الأخطاء المجتمعية التقليدية

غياب الاعتراف بالمشكلة

ولكن المشكلة أن معظم الشركات لا تعترف بوجود أي مشكلة في المقام الأول، وذلك وفق تقرير نشرته إم آي تي سلون ماناجمينت ريفيو ومجموعة بوسطن الاستشارية في وقت سابق من هذا العام. فقد احتل الذكاء الاصطناعي المرتبة الأولى بين الأولويات الاستراتيجية لدى 42% من المشاركين في التقرير، ولكن عدد المؤسسات التي طبقت برنامجاً للذكاء الاصطناعي المسؤول لم يتجاوز 19%. 

ومع أن البعض قد يعتقدون أنهم يأخذون الاحتياطات الكافية للتخفيف من مخاطر الذكاء الاصطناعي، فإنهم ببساطة لا يقومون بتوظيف الكفاءات المناسبة في المناصب المناسبة وتوفير الموارد المناسبة لها لتطبيق الذكاء الاصطناعي، كما يقول غوبتا.

ويضيف: “وهنا يبدأ التعرض للإحباطات والإرهاق الشديد”.

اقرأ أيضاً: تُرى ما الذي دعا الصين فجأة إلى الاهتمام بأخلاقيات الذكاء الاصطناعي؟

الطلب المتزايد

خلال فترة قصيرة، قد لا يعود أمام الشركات الخيار في تطبيق وعودها حول الذكاء الاصطناعي الأخلاقي، لأن المشرعين بدؤوا بفرض قوانين مخصصة للذكاء الاصطناعي. 

فقانونا الذكاء الاصطناعي ومسؤولية الذكاء الاصطناعي، واللذان سيفرضهما الاتحاد الأوروبي قريباً، سيلزمان الشركات بتوثيق الإجراءات التي اتخذتها للتخفيف من أضرار الذكاء الاصطناعي. أما في الولايات المتحدة، يعمل المشرعون في نيويورك وكاليفورنيا وغيرها على تنظيم استخدام الذكاء الاصطناعي في القطاعات عالية المخاطرة، مثل التوظيف. وفي أوائل أكتوبر، كشف البيت البيض عن لائحة حقوق الذكاء الاصطناعي، والتي توضح خمسة حقوق أساسية يجب أن يحصل عليها جميع الأميركيين فيما يتعلق بالأنظمة المؤتمتة. ومن المرجح أن يدفع هذا القانون بالوكالات الفدرالية إلى زيادة تدقيقها على أنظمة وشركات الذكاء الاصطناعي. 

وعلى الرغم من أن الوضع الاقتصادي الدولي المتقلب أجبر الكثير من الشركات التكنولوجية على تجميد عملية التوظيف، والتهديد بعمليات تسريح كبيرة، فإن فرق الذكاء الاصطناعي المسؤولة أصبحت أكثر أهمية من ذي قبل، لأن إطلاق أنظمة الذكاء الاصطناعي غير الآمنة أو المخالفة للقانون يمكن أن يعرض الشركة إلى غرامات ضخمة أو يؤدي بها إلى حذف خوارزمياتها. على سبيل المثال، وفي الربيع المنصرم، قامت هيئة التجارة الفيدرالية في الولايات المتحدة بإرغام شركة ويت ووتشرز (Weight Watchers) على حذف خوارزمياتها بعدما تبين أن الشركة كانت تقوم بجمع البيانات حول الأطفال بصورة مخالفة للقانون. يمثل تطوير نماذج الذكاء الاصطناعي وجمع قواعد البيانات استثماراً كبيراً للشركات، وبالتالي، فإن قيام جهة مسؤولة بإرغام الشركة على حذف هذه النماذج وقواعد البيانات بالكامل يمثل ضربة كبيرة للشركة. 

ويمكن أن يؤدي الإرهاق الشديد والشعور المتواصل بعدم الأهمية إلى دفع العاملين في هذا المجال إلى تركه بالكامل، ما يؤدي إلى تقويض مجال أبحاث إدارة الذكاء الاصطناعي وأخلاقيات الذكاء الاصطناعي بشكل عام. وهو أمر خطير على وجه الخصوص لأن أصحاب الخبرات الأكبر في حل مشكلات أضرار أنظمة الذكاء الاصطناعي للمؤسسات والتعامل معها قد يكونون الأكثر إرهاقاً. 

تقول ميتشل: “إن مجرد فقدان شخص واحد يؤدي إلى عواقب وخيمة على المؤسسة بأكملها”، لأن الخبرات التي راكمها هذا الشخص قد يكون تعويضها في غاية الصعوبة. ففي أواخر 2020، قامت جوجل بفصل تيمنيت جيبرو، والتي كانت من المشرفين على أخلاقيات الذكاء الاصطناعي في الشركة، كما فصلت ميتشل بعد بضعة أشهر. كما ترك الشركة عدة أفراد آخرين من فريقها المختص بالذكاء الاصطناعي المسؤول خلال فترة بضعة أشهر وحسب.

ويقول غوبتا إن هذا النوع من تسرب الكفاءات يمثل “خطراً شديداً” على مسار التقدم في أخلاقيات الذكاء الاصطناعي، ويزيد من صعوبة التزام الشركات ببرامجها في هذا المجال. 

ففي العام الماضي، أعلنت جوجل عن مضاعفة فريق الأبحاث المخصص لأخلاقيات الذكاء الاصطناعي، ولكنها لم تعلق على التقدم الذي أحرزه الفريق منذ ذلك الحين. وقد قالت الشركة لإم آي تي تكنولوجي ريفيو، إنها تؤمّن التدريب لتعزيز مقاومة الصحة العقلية، وإنها أطلقت مبادرة لدعم الصحة العقلية بين الأقران، بحيث تقدم للموظفين إمكانية الوصول إلى أدوات رقمية للمساعدة على صعيد اليقظة الذهنية. كما تقوم الشركة بتأمين اتصالهم بشكل افتراضي مع مختصين بالصحة العقلية. ولم ترد الشركة على أي أسئلة حول الوقت الذي أمضته ميتشل في الشركة. 

أما ميتا (Meta) فقالت إنها استثمرت في مزايا مثل برنامج يؤمن للموظفين وعائلاتهم الحصول على 25 جلسة علاج نفسي مجاني في السنة. وقالت تويتر إنها تقدم للموظفين جلسات الاستشارة والتوجيه، والتدريب على مواجهة الإرهاق الشديد. ويوجد في الشركة أيضاً برنامج لدعم الأقران للتركيز على الصحة العقلية. ولكن لم تقل أي من الشركات إنها تقدم الدعم الموجه خصيصاً للعاملين في مجال أخلاقيات الذكاء الاصطناعي.

اقرأ أيضاً: هل تنتقم جوجل من موظفيها الذين أطاحوا بمجلسها لأخلاقيات الذكاء الاصطناعي؟

ومع ازدياد الطلب على الامتثال لقوانين الذكاء الاصطناعي، وإدارة المخاطر، يجب على المسؤولين التنفيذيين في الشركات التكنولوجية ضمان توجيه الاستثمارات الكافية إلى برامج الذكاء الاصطناعي المسؤول، كما يقول غوبتا. 

ويبدأ هذا التغيير من الأعلى. يقول غوبتا: “يتعين على المسؤولين التنفيذيين أن يعبّروا عن التزامهم بهذه المسألة عن طريق الأموال والوقت والموارد المخصصة لها”. وإلا، فإن العاملين في مجال أخلاقيات الذكاء الاصطناعي “سيفشلون بالتأكيد”. 

تحتاج فرق الذكاء الاصطناعي المسؤولة إلى ما يكفي من الأدوات والموارد والأفراد للعمل على حل المشاكل، ولكنها تحتاج أيضاً إلى الاستقلالية، والقدرة على التواصل مع كافة أقسام المؤسسة، والسلطة لفرض التغييرات التي يُطلب منهم إحداثها، كما يضيف غوبتا.

تركز الكثير من موارد الصحة العقلية في الشركات التكنولوجية على إدارة الوقت والتوازن بين العمل والحياة الشخصية، ولكن يجب تخصيص المزيد من الدعم للأفراد الذين يعملون على مواضيع تشكل عبئاً عليهم من الناحية العاطفية والنفسية، وفقاً لتشاودوري. وتضيف أن موارد الصحة العقلية المصممة خصيصاً للعاملين في مجال التكنولوجيا المسؤولة ستكون عاملاً إيجابياً أيضاً. 

تقول ميتشل: “لم يكن هناك اعتراف بآثار العمل في هذا المجال، وبالتأكيد، لم يكن هناك أي دعم أو تشجيع للعاملين على العمل بشكل لا يؤثر على الحياة الشخصية، ويبدو أن الآلية الوحيدة الموجودة لدى الشركات التكنولوجية للتعامل مع هذا الواقع هي تجاهل هذا الواقع”.