لإنقاذ مستقبل الذكاء الاصطناعي: موظفة أخرى تغادر جوجل بعد اتهامها الشركة بتهميش الأقليات

2 دقائق
في محاولة لإنقاذ مستقبل الذكاء الاصطناعي: أليكس حنّا تغادر شركة جوجل
ريان يونغ
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

كتبت أليكس حنّا في 2 فبراير/ شباط، وهو آخر يوم لها في فريق أخلاقيات الذكاء الاصطناعي في شركة جوجل: “استقلت لأنني تعبت”. شعرت أن الشركة، وصناعة التكنولوجيا بشكل عام، لم تفعل شيئاً يذكر لتعزيز التنوع أو التخفيف من الأضرار التي تسببت بها منتجاتها للأشخاص المهمشين. وكتبت في منشورها على منصة ميديوم (Medium): “باختصار، شركات التكنولوجيا لديها مشكلة عنصرية. إن شركة جوجل ليست مجرد شركة تقنية. وإنما هي شركة تقنية متعصّبة للعرق الأبيض”.

اقرأ أيضاً: لماذا قامت جوجل بتعيين “مجلس للذكاء اصطناعي”؟

بداية جديدة دون قيود

لم تأخذ حنّا قسطاً كبيراً من الراحة، فقد انضمت بتاريخ 3 فبراير/ شباط إلى معهد أبحاث الذكاء الاصطناعي الموزّع (DAIR) لتكون الموظفة الثانية في المجموعة.

لقد كانت هذه الخطوة تتويجاً للفترة الحرجة التي عصفت بحياة حنّا المهنية. في أواخر عام 2020، تم طرد مديرتها، تيمنيت جيبرو، من منصبها كرئيسة مشاركة لفريق أخلاقيات الذكاء الاصطناعي بعد أن كتبت ورقة بحثية تشكك من خلالها بأخلاقيات النماذج اللغوية الضخمة (ومنها نماذج شركة جوجل). وبعد بضعة أشهر، تم طرد المدير التالي، ميغ ميتشل. 

يهدف معهد أبحاث الذكاء الاصطناعي الموزع (DAIR)، الذي أسسته جيبرو في أواخر عام 2021 وتموّله العديد من المؤسسات الخيرية، إلى تحدي الفهم الحالي للذكاء الاصطناعي من خلال نهج بحثي يركّز على المجتمع وينطلق من القاعدة إلى القمة. تعمل المجموعة عن بُعد، وتضم فرقاً في برلين وجنوب إفريقيا.  

اقرأ أيضاً: باحثة بارزة في أخلاقيات الذكاء الاصطناعي تقول إنها طُردت من جوجل

تقول حنّا، مديرة الأبحاث بالمجموعة: “أردنا إيجاد طريقة مختلفة للذكاء الاصطناعي، بحيث لا تحتوي على نفس القيود المؤسسية الموجودة في الشركات والكثير من الأبحاث الأكاديمية”. وعلى الرغم من أن هذه الأنواع من التحقيقات أبطأ، كما تقول، “فهي تسمح لـ أفراد المجتمع بالبحث عن أنواع مختلفة من المعرفة التي يتم احترامها وتعويضها واستخدامها في العمل المجتمعي”.

تقول حنّا: بعد أقل من عام، ما زال معهد أبحاث الذكاء الاصطناعي الموزع (DAIR) يقوم بفرز أهدافه وأساليبه. لكن البحث جارٍ على قدم وساق. يتألف المعهد من ثلاثة موظفين بدوام كامل وخمسة زملاء، وهم مزيج من الأكاديميين والنشطاء والممارسين الذين يأتون بأجنداتهم البحثية الخاصة، ولكنهم يساعدون أيضاً في تطوير برامج المعهد. على سبيل المثال، تستخدم زميلة معهد أبحاث الذكاء الاصطناعي الموزع (DAIR)، رايسيتي سيفالا، صور الأقمار الصناعية وتقنية الرؤية الحاسوبية للتركيز على التغيير الذي طرأ على الأحياء في جنوب إفريقيا بعد الفصل العنصري. يقوم مشروعها بتحليل تأثير إلغاء الفصل العنصري ورسم خرائط للمناطق ذات الدخل المنخفض.

كما تعمل زميلة أخرى للمعهد، وهي ميلاغروس ميشيلي، على مشروع حول اختلال ميزان القوى في عمل البيانات ذات المصادر الخارجية. يقيم العديد من العاملين في مجال البيانات، الذين يحللون ويديرون كميات هائلة من البيانات الواردة إلى شركات التكنولوجيا، في دول العالم الثالث ويتقاضون عادةً أجوراً زهيدة. 

يُعتبر معهد أبحاث الذكاء الاصطناعي الموزع (DAIR) مناسباً تماماً بالنسبة إلى حنّا. بدأت “مسارها غير التقليدي للتكنولوجيا”، كما وصفته، بالحصول على درجة الدكتوراة في علم الاجتماع والعمل على تحقيق العدالة العمالية. واستخدمت أدوات التعلم الآلي في الدراسات العليا لدراسة كيفية تواصل النشطاء مع بعضهم بعضاً خلال أحداث 2008 في موطن عائلتها، مصر. تقول حنّا: “كان الناس يقولون إن [الثورة] حدثت على فيسبوك وتويتر، لكن لم يأتِ ذلك الحراك من فراغ. بدأتُ بإجراء مقابلات مع النشطاء وفهمت ما يفعلونه على الأرض بعيداً عن النشاط عبر الإنترنت”. 

اقرأ أيضاً: هل تنتقم جوجل من موظفيها الذين أطاحوا بمجلسها لأخلاقيات الذكاء الاصطناعي؟

يهدف معهد أبحاث الذكاء الاصطناعي الموزّع (DAIR) إلى تغيير هيكلي كبير من خلال استخدام الأبحاث لتسليط الضوء على القضايا التي قد لا يتم استكشافها بطريقة أخرى ونشر المعرفة التي قد لا يتم تقييمها لولا تلك الأبحاث. تقول حنّا: “في خطاب استقالتي من شركة جوجل، أشرتُ إلى كيفية تجسيد المؤسسات التقنية للكثير من القيم والممارسات المتعصّبة للعِرق الأبيض. وتتطلب هذه الحالة المثيرة للقلق استكشاف ماهية وجهات النظر هذه والبحث في كيفية إلغاء تلك الممارسات التنظيمية”. وهذه هي القيم التي يدافع عنها معهد أبحاث الذكاء الاصطناعي الموزع (DAIR).