مشاكل الذكاء الاصطناعي الحالية تعود إلى قرون مضت

4 دقائق
مصدر الصورة: آري ليلوان
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

في مارس من عام 2015، اندلعت الاحتجاجات في جامعة كيب تاون في جنوب إفريقيا بشأن التمثال الموجود في الحرم الجامعي للمستعمِر البريطاني سيسيل رودس. وكان رودس، أحد أثرياء صناعة التعدين الذي وهب الأرض التي بُنيت عليها الجامعة، قد ارتكب إبادة جماعية ضد الأفارقة ووضع أسس نظام الفصل العنصري. وتحت شعار “رودس يجب أن يسقط”، طالب الطلاب بإزالة التمثال. لقد أشعلت احتجاجاتهم حركةً عالمية للقضاء على الإرث الاستعماري الذي ما زال حاضراً في مجال التعليم.

كما أن هذه الأحداث حرَّضت شاكر محمد، باحث جنوب أفريقي في مجال الذكاء الاصطناعي في ديب مايند (DeepMind)، على التفكير في أشكال الإرث الاستعماري التي قد تكون موجودة في أبحاثه على حدٍّ سواء. في عام 2018، حينما بدأ مجال الذكاء الاصطناعي لتوه في التعامل مع المشاكل من قبيل التمييز الخوارزمي، صاغ محمد منشور مدونة تضمن أفكاره الأولية. وفي ذلك المنشور، دعا محمد الباحثين إلى “إنهاء أشكال الاستعمار في الذكاء الاصطناعي”، وإلى إعادة توجيه أنشطة المجال بعيداً عن المراكز الغربية مثل وادي السليكون، وإلى إشراك أصوات وثقافات وأفكار جديدة لقيادة تطوير هذه التكنولوجيا.

الآن في أعقاب تجدد الصرخات المطالبة بشعار “رودس يجب أن يسقط” في حرم جامعة أكسفورد، المدفوعة بمقتل جورج فلويد والحركة العالمية المناهضة للعنصرية، أصدر محمد ورقة بحثية جديدة مع زميله ويليام إسحق وطالبة الدكتوراه في أكسفورد ماري تيريز بي إن جي. وتُجسِّد هذه الورقة أفكار محمد الأصلية مع أمثلة محددة لكيفية تجذُّر تحديات الذكاء الاصطناعي في الحقبة الاستعمارية، وتقدِّم إستراتيجيات لمعالجتها من خلال الاعتراف بذلك التاريخ.

كيف يتجلى الإرث الاستعماري في الذكاء الاصطناعي؟

على الرغم من أن الاستعمار التاريخي قد يكون انتهى، لكن آثاره لا تزال قائمة حتى اليوم. هذا ما يسميه العلماء “الإرث الاستعماري”؛ أي فكرة أن اختلالات القوة المعاصرة بين الأعراق، والبلدان، والأغنياء والفقراء، والمجموعات الأخرى ليست إلا امتدادات لاختلالات القوة بين المُستعمِر والمُستعمَر.

فلنأخذ العنصرية الهيكلية كمثال؛ حيث ابتكر الأوروبيون في الأصل مفهوم الأعراق والاختلافات بينها لتبرير تجارة الرقيق الإفريقية ثم لاستعمار البلدان الإفريقية. وفي الولايات المتحدة، يمكن الآن تتبع آثار تلك الإيديولوجيا من خلال تاريخ البلاد الخاص بالرق، وجيم كرو، ووحشية الشرطة.

وبنفس الطريقة، يقول مؤلفو الورقة البحثية، فإن هذا التاريخ الاستعماري يفسِّر بعضاً من أكثر خصائص وتأثيرات الذكاء الاصطناعي إثارة للقلق. ويحددون خمسة تجليات للإرث الاستعماري في مجال الذكاء الاصطناعي:

التمييز والاضطهاد الخوارزمي:
ربما تكون الروابط بين التمييز الخوارزمي والعنصرية الاستعمارية هي الأكثر وضوحاً؛ فالخوارزميات المبنية بهدف أتمتة الإجراءات والمدرَّبة على البيانات داخل مجتمع مُجحف عنصرياً تؤدي في النهاية إلى تكرار هذه النتائج العنصرية في مخرجاتها. لكن الكثير من المنح الدراسية حول هذا النوع من الضرر الناجم عن الذكاء الاصطناعي يركز على أمثلة موجودة في الولايات المتحدة. إن دراسة هذا الأذى في سياق الإرث الاستعماري يسمح بتوفير منظور عالمي؛ فأميركا ليست المكان الوحيد الذي يعاني من عدم المساواة الاجتماعية. ويقول إسحق: “هناك دائماً مجموعات يتم تحديدها وتعريضها لهذا الضرر”.

العمل الشبحي:
إن ظاهرة العمل الشبحي، أي العاملين غير المرئيين في مجال البيانات والذين لا بد منهم لدعم الابتكار في مجال الذكاء الاصطناعي، تشكل استمراراً وثيقاً للعلاقة الاقتصادية التاريخية بين المُستعمِر والمُستعمَر. وقد أصبحت العديد من المستعمَرات الأميركية والبريطانية السابقة- الفلبين وكينيا والهند- مراكز عمل شبحي للشركات العاملة في الولايات المتحدة والمملكة المتحدة. إن القوى العاملة الرخيصة في هذه البلدان الناطقة باللغة الإنجليزية- مما يجعل منها أنسب الخيارات للعمل في مجال البيانات- توجد على أرض الواقع بسبب تاريخها الاستعماري.

الاختبار التجريبي:
يتم تجربة أنظمة الذكاء الاصطناعي في بعض الأحيان على مجموعات أكثر ضعفاً قبل تنفيذها لصالح المستخدمين “الحقيقيين”. وعلى سبيل المثال قامت كمبريدج أناليتيكا بإجراء اختبار تجريبي لخوارزمياتها في الانتخابات النيجيرية و الكينية عام 2017 قبل استخدامها في الولايات المتحدة والمملكة المتحدة. وقد وجدت الدراسات لاحقاً أن هذه التجارب عطَّلت بدرجة كبيرة العملية الانتخابية في كينيا وقوّضت التماسك الاجتماعي فيها. ويمثل هذا النوع من التجارب تذكيراً بالمعاملة التاريخية التي مارستها الإمبراطورية البريطانية تجاه مستعمَراتها كمختبرات للأدوية والتكنولوجيات الجديدة.

حوكمة الذكاء الاصطناعي:
إن اختلالات القوة الجيوسياسية التي خلَّفتها الحقبة الاستعمارية تلعب دوراً هاماً في صياغة حوكمة الذكاء الاصطناعي. وقد تجلى ذلك في الاندفاع الأخير لتشكيل مبادئ توجيهية عالمية لأخلاقيات الذكاء الاصطناعي؛ إذ تم استبعاد البلدان النامية في إفريقيا وأميركا اللاتينية وآسيا الوسطى إلى حد كبير من المناقشات، مما دفع البعض إلى رفض المشاركة في الاتفاقيات الدولية لتدفق البيانات. وفي المحصلة، تستمر البلدان المتقدمة في الاستفادة بشكل غير متناسب من المعايير العالمية المُصمَّمة لمصلحتها، بينما يتزايد تأخر البلدان النامية في هذا المجال.

التنمية الاجتماعية الدولية:
وأخيراً، تؤثر اختلالات القوة الجيوسياسية نفسها على طريقة استخدام الذكاء الاصطناعي لمساعدة البلدان النامية. فغالباً ما تتسم مبادرات “الذكاء الاصطناعي من أجل الخير” أو “الذكاء الاصطناعي من أجل التنمية المستدامة” بطابع أبوي؛ حيث إنها تجبر البلدان النامية على الاعتماد على أنظمة الذكاء الاصطناعي الحالية بدلاً من المشاركة في إنشاء أنظمة جديدة مصممة بما يتناسب مع سياقها الخاص.

يشير الباحثون إلى عدم شمولية هذه الأمثلة، لكنها تبين مدى عمق تأثير الإرث الاستعماري في التطوير العالمي للذكاء الاصطناعي. كما أنها تربط ما تبدو أنها مشاكل متباينة في إطار قضية واحدة موحَّدة. ويقول إسحق: “توفر لنا هذه الورقة قواعد ومفردات جديدة لنتحدث عن سبب أهمية هذه المسائل وما الذي سنفعله للتفكير فيها ومعالجتها على المدى الطويل”.

كيفية بناء ذكاء اصطناعي خالٍ من الإرث الاستعماري

يقول الباحثون إن الفائدة من دراسة الآثار الضارة للذكاء الاصطناعي من خلال هذه العدسة، تتمثل في المنصة التي توفرها للتنبؤ بالضرر المستقبلي وتخفيفه. وتعتقد بي إن جي أنه لا يوجد حقاً ما يسمى “العواقب غير المقصودة”، وإنما هي تبعات النقاط العمياء في رؤى المنظمات والمؤسسات البحثية عندما تفتقر إلى تمثيل متنوع.

وفي هذا السياق، يقترح الباحثون ثلاث تقنيات لتحقيق الذكاء الاصطناعي “الخالي من الإرث الاستعماري”، أو الأكثر شمولاً وفائدة:

التطوير التقني الواعي للسياق:
يجب أولاً أن يفكر باحثو الذكاء الاصطناعي الذين يطورون نظاماً جديداً في مكان وكيفية استخدامه. ويجب ألا ينتهي عملهم بكتابة الرماز البرمجي، ولكن ينبغي أن يشمل اختبار النظام الجديد، ودعم السياسات التي تسهِّل استخدامه الصحيح، وتنظيم الإجراءات ضد الاستخدامات غير السليمة.

الوصاية العكسية:
يجب عليهم ثانياً الإصغاء إلى الفئات المهمشة. وأحد الأمثلة على كيفية القيام بذلك هو الممارسة الناشئة للتعلم الآلي التشاركي، والتي تسعى إلى إشراك الأشخاص الأكثر تأثراً بأنظمة التعلم الآلي في تصميمها. وهذا يعطي الأشخاص المعرضين لهذه الأنظمة فرصةً لتحدي وإملاء كيفية صياغة مشاكل التعلم الآلي، وماهية البيانات التي يتم جمعها وكيفية القيام بذلك، ومكان استخدام النماذج النهائية.

التضامن:
يجب أيضاً منح المجموعات المهمشة الدعم والموارد لإطلاق جهودهم الخاصة في مجال الذكاء الاصطناعي. وبالفعل، توجد العديد من مجتمعات ممارسي الذكاء الاصطناعي المهمشين، بما في ذلك ديب ليرنينج إن دابا (Deep Learning Indaba) وبلاك إن إيه آي (Black in AI) وكوير إن إيه آي (Queer in AI)، وينبغي توسيع عمل هؤلاء.

ويقول الباحثون إنهم، منذ نشر ورقتهم البحثية، قد لمسوا اهتماماً وحماساً منقطع النظير. ويقول إسحق: “يشير ذلك، على الأقل بالنسبة لي، أن هناك تقبلاً لهذا العمل، ويبدو أنها تفتح نقاشاً يرغب المجتمع في بدء الانخراط فيه”.