$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6933 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(21680)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "54.173.214.79"
  ["user_header"]=>
  object(stdClass)#7068 (41) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(149) "/%D8%AA%D8%B5%D8%AD%D9%8A%D8%AD-%D9%85%D8%B3%D8%A7%D8%B1-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86b8ae30ecfd2081-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "54.173.214.79"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.20" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(13) "54.173.214.79" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "55732" ["REDIRECT_URL"]=> string(53) "/تصحيح-مسار-الذكاء-الاصطناعي/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711640025.993562) ["REQUEST_TIME"]=> int(1711640025) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7067 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7066 (2) { ["content_id"]=> int(21680) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

الكفاح من أجل إعادة الذكاء الاصطناعي إلى مساره الصحيح

13 دقيقة
مسار صحيح للذكاء الاصطناعي
في اتجاه عقارب الساعة من أعلى اليسار: رافائيل جونتيجو لوبيز، وديبورا راجي، وريديت أبيبي، وتيمنيت جيبرو، وجوي بولامويني، وويليام أجنيو. حقوق الصورة: ريكاردو سانتوس.
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

لم يخطر في بال تيمنيت جيبرو أبداً أن تتسبب لها ورقة علمية بكل هذه المتاعب.

في عام 2020، تواصلت جيبرو، بصفتها الرئيس المشارك لفريق جوجل المختص بأخلاقيات الذكاء الاصطناعي، مع إميلي بيندر، أستاذة اللسانيات في جامعة واشنطن، وطلبت منها التعاون في بحث علمي يتمحور حول المسار المقلق الذي يسلكه الذكاء الاصطناعي. كانت جيبرو تسعى إلى تحديد المخاطر التي تحملها النماذج اللغوية الكبيرة، وهي واحدة من أبرز الاختراقات المذهلة في أبحاث الذكاء الاصطناعي. وهذه النماذج هي عبارة عن خوارزميات مدربة على كميات هائلة من النصوص، وتستطيع تأليف ما يبدو وكأنه مقاطع نثرية مقنعة إذا ما تم تصميمها بالشكل المناسب.

السباق بين الشركات التكنولوجية العملاقة لدمج النماذج اللغوية في منتجاتها

على مدى سنوات مضت، كان السباق محتدماً بين شركات التكنولوجيا لبناء إصدارات أكبر من هذه النماذج ودمجها في المنتجات الاستهلاكية. كانت شركة جوجل، التي ابتكرت التقنية، تستخدم بالفعل أحد هذه الإصدارات في تحسين ملاءمة نتائج البحث للاستعلامات. وفي يونيو 2020، أعلنت شركة “أوين إيه آي” (OpenAI) عن أضخم هذه النماذج، نموذج “جي بي تي-3” (GPT-3)، ومنحت شركة مايكروسوفت ترخيصاً حصرياً باستخدامه بعد بضعة أشهر.

كانت جيبرو تشعر بالقلق إزاء سرعة نشر هذه التكنولوجيا، مما دفعها إلى كتابة ورقة بحثية مع بيندر وخمسة آخرين يستعرضون فيها بالتفاصيل المخاطر المحتملة. لقد كان إنشاء النماذج باهظ التكلفة من الناحيتين البيئية (فهي تتطلب كميات هائلة من القوة الحاسوبية) والمادية؛ وغالباً ما كان يتم تدريبها على محتوى الإنترنت الذي يعج بالخطاب السامّ والمسيء. ثم فرضت هذه التكنولوجيا هيمنتها على الأبحاث في مجال معالجة اللغات باستخدام الذكاء الاصطناعي، ما أدى إلى تهميش تقنيات بديلة واعدة أخرى.

ورغم أن هذه النماذج لا تستطيع فهم اللغة حقاً- شأنها شأن تقنيات الذكاء الاصطناعي الأخرى- ولكن نظراً لقدرتها على التلاعب باللغة لاسترداد المعلومات النصية الخاصة بالمستخدمين أو لتوليد دردشة طبيعية، فإنه يمكن تجميعها في منتجات وخدمات تدر أموالاً طائلة على شركات التكنولوجيا.

في نوفمبر من ذلك العام، أرسلت جيبرو الورقة البحثية إلى أحد المؤتمرات. وبعد فترة وجيزة، طلب منها المسؤولون التنفيذيون في جوجل التراجع عن هذه الخطوة، وعندما رفضت، قاموا بطردها. بعد شهرين، طردوا أيضاً مؤلفتها المشاركة مارجريت ميتشل، القائدة الأخرى لفريق أخلاقيات الذكاء الاصطناعي في الشركة.

أثار تفكيك هذا الفريق أحد أكبر الخلافات في عالم الذكاء الاصطناعي في الذاكرة الحديثة؛ حيث اعتبر المدافعون عن قرارات جوجل بأن للشركة الحق في الإشراف على باحثيها. لكن بالنسبة لكثيرين آخرين، فإن ما حدث أدى إلى تعميق المخاوف بشأن درجة السيطرة التي يتمتع بها عمالقة التكنولوجيا حالياً في هذا المجال. تمثل الشركات التقنية الكبرى أبرز أرباب العمل والممولين للباحثين في مجال الذكاء الاصطناعي، بما في ذلك- لدرجة مثيرة للسخرية نوعاً ما- العديد من أولئك الذين يقيّمون تأثيراته الاجتماعية.

قامت كل من جوجل وفيسبوك وأمازون ومايكروسوفت وآبل، وهي من بين أغنى وأقوى الشركات في العالم، بجعل الذكاء الاصطناعي جزءاً جوهرياً من أعمالها. سمحت التطورات التي حدثت خلال العقد الماضي، لا سيما في تقنية الذكاء الاصطناعي التي تسمى التعلم العميق، بمراقبة سلوك المستخدمين والتوصية بالأخبار والمعلومات والمنتجات لهم، والأهم من ذلك كله، استهدافهم بالإعلانات. في العام الماضي، حققت ترسانة جوجل الإعلانية عائدات تزيد عن 140 مليار دولار، كما حققت إعلانات فيسبوك عائدات بقيمة 84 مليار دولار.

استثمرت الشركات الكثير من الأموال في هذه التكنولوجيا التي حققت لها عوائد طائلة؛ ففي عام 2014، استحوذت شركة ألفابت، الشركة الأم لجوجل، على مختبر الذكاء الاصطناعي “ديب مايند” (DeepMind) في لندن مقابل 600 مليون دولار وتنفق مئات الملايين سنوياً لدعم أبحاثه. كما وقعت مايكروسوفت صفقة بقيمة مليار دولار مع أوبن إيه آي في عام 2019 للحصول على حقوق تسويق خوارزمياتها.

في الوقت نفسه، أصبح عمالقة التكنولوجيا من كبار المستثمرين في أبحاث الذكاء الاصطناعي في الجامعات، ما أثّر بشكل كبير على أولوياتها العلمية. على امتداد سنوات، انتقل المزيد من العلماء الطموحين إلى العمل لدى عمالقة التكنولوجيا بدوام كامل أو تبنوا الانتماء المزدوج [للقطاعين الأكاديمي والخاص]. وبين عامي 2018 و2019، كان هناك مؤلف واحد على الأقل من 58% من الأوراق البحثية الأكثر استشهاداً في أكبر مؤتمرين للذكاء الاصطناعي يعمل لدى أحد عمالقة التكنولوجيا، مقارنة بنسبة 11% فقط قبل عقد من الزمن، وذلك وفقاً لدراسة أجراها باحثون في شبكة “راديكال إيه آي” (Radical AI Network) وهي مجموعة تسعى إلى تحدي ديناميكيات القوة في مجال الذكاء الاصطناعي.

تكمن المشكلة في أن أجندة الشركات للذكاء الاصطناعي تركز على التقنيات التي تحمل إمكانات تجارية واعدة، وتتجاهل إلى حد كبير الأبحاث التي يمكن أن تساعد في مواجهة تحديات من قبيل عدم المساواة الاقتصادية وتغير المناخ. في الواقع، أدى ذلك إلى تفاقم هذه التحديات. فالسعي لأتمتة المهام أفقد الناس وظائفهم وأدى إلى ظهور العمالة الشاقة مثل تنظيف البيانات ومراقبة المحتوى. ومن ناحية أخرى، أدى السعي لبناء نماذج أكبر من أي وقت مضى إلى زيادة كبيرة في استهلاك أنظمة الذكاء الاصطناعي للطاقة. كما أنشأ التعلم العميق ثقافة تنطوي على الجمع المتواصل لبياناتنا- غالباً دون إذن- من أجل تدريب منتجات مثل أنظمة التعرف على الوجوه. وقد أدت خوارزميات التوصية إلى تفاقم الاستقطاب السياسي، بينما فشلت النماذج اللغوية الكبيرة في التخلص من المعلومات المضللة.

هذا هو الوضع الراهن الذي تسعى جيبرو وحركة متنامية من العلماء ذوي التفكير المماثل إلى تغييره. على مدى السنوات الخمسة الماضية، عمل هؤلاء على تحويل أولويات المجال بعيداً عن مجرد إثراء شركات التكنولوجيا من خلال توسيع إمكانية المشاركة في تطوير هذه التكنولوجيا. ولا يقتصر هدفهم على التخفيف من الأضرار التي تسببها الأنظمة الحالية، وإنما أيضاً إنشاء ذكاء اصطناعي جديد ديمقراطي وأكثر إنصافاً.

اقرأ أيضاً: الإخفاقات الغريبة في الصور التي تنشئها الخوارزميات

“تيمنيت ترسل لكم تحياتها”

في ديسمبر 2015، جلست جيبرو لتكتب رسالة مفتوحة. كانت حينئذٍ في منتصف فترة دراستها لنيل درجة الدكتوراه في جامعة ستانفورد، وقد حضرت مؤتمر أنظمة معالجة المعلومات العصبية، وهو أكبر تجمع سنوي لأبحاث الذكاء الاصطناعي. ومن بين أكثر من 3,700 باحث حضروا المؤتمر، أحصت جيبرو خمسة فقط من ذوي البشرة السمراء.

بعد أن كان يوماً مجرد اجتماع صغير بشأن موضوع أكاديمي ناشئ، سرعان ما تحول “نيور آي بي إس” (NeurIPS)- الاسم الذي يعرف به هذا المؤتمر اليوم- إلى أكبر تجمع سنوي للتوظيف في مجال الذكاء الاصطناعي. كانت أغنى الشركات في العالم تحضره لتتباهى بالعروض التجريبية، وتقيم الحفلات الباهظة، وتكتب شيكات ضخمة لأندر الأشخاص في وادي السيليكون: الباحثون البارعون في مجال الذكاء الاصطناعي.

في ذلك العام، وصل إيلون ماسك للإعلان عن مشروع أوبن إيه آي غير الربحي. استثمر هو وسام ألتمان، رئيس واي كومبيناتور (Y Combinator) آنذاك، وبيتر ثيل، أحد مؤسسي باي بال، مليار دولار لحل ما اعتقدوا أنه يمثل مشكلة وجودية: احتمال أن يسيطر الذكاء الفائق على العالم يوماً ما. وكان الحل الذي اقترحوه هو بناء ذكاء فائق أفضل. ومن بين 14 مستشاراً أو عضواً في الفريق الفني، كان 11 من الرجال ذوي البشرة البيضاء.

بينما كان الجميع يحتفي بإيلون ماسك، كانت جيبرو تتعرض للإذلال والمضايقة. في إحدى حفلات المؤتمر، أحاطت بها مجموعة من الرجال المخمورين الذين يرتدون قمصان فريق أبحاث جوجل وأجبروها على العناق وتقبيلها على خدها والتقاط صورة لها.
كتبت جيبرو نقداً لاذعاً لما عاشته: المشهد الاستعراضي، والتقديس الأشبه بالعبادة لمشاهير الذكاء الاصطناعي، والأهم من ذلك كله، التجانس الساحق. وكتبت أن ثقافة نادي الذكور هذه قد دفعت فعلاً بالنساء الموهوبات إلى الخروج من الحقل. كما كان يدفع بمجتمع الباحثين في هذا المجال بأكمله نحو تصور ضيق وخطير لمفهوم الذكاء الاصطناعي وتأثيره على العالم.

وأشارت جيبرو إلى أن جوجل قد نشرت بالفعل خوارزمية رؤية حاسوبية تصنف البشر من ذوي البشرة السوداء على أنهم حيوانات غوريلا. وكان التطور المتزايد للطائرات دون طيار يضع الجيش الأميركي على طريق تطوير الأسلحة الفتاكة ذاتية التحكم. ولكن لم يكن هناك أي ذكر لهذه المشكلات في خطة ماسك الكبرى لمنع الذكاء الاصطناعي من السيطرة على العالم في بعض السيناريوهات المستقبلية النظرية. كتبت جيبرو: “لسنا مضطرين للتنبؤ بالمستقبل حتى نتمكن من رؤية التأثيرات السلبية المحتملة للذكاء الاصطناعي، فقد بدأت في التجلي الآن بالفعل”.

ورغم أن جيبرو لم تُقدم أبداً على نشر هذه الأفكار، لكنها أدركت أنه لا بد من تغيير هذا الواقع. وفي 28 يناير 2016، أرسلت بريداً إلكترونياً بعنوان “تيمنيت ترسل تحياتها” إلى خمسة باحثين آخرين من ذوي البشرة السمراء والعاملين في مجال الذكاء الاصطناعي، جاء فيه: “لطالما أحزنني نقص الألوان في مجال الذكاء الاصطناعي، لكنني الآن رأيت 5 منكم 🙂 واعتقدت أنه سيكون من الرائع أن نطلق مجموعة ’ذوي البشرة السمراء في الذكاء الاصطناعي’ أو على الأقل أن نتعرف على بعضنا بعضاً”.
أثار هذا البريد الإلكتروني النقاش؛ كيف تأثرت أبحاثهم بهويتهم كأشخاص من ذوي البشرة السمراء؟ بالنسبة لجيبرو، كان عملها نتاجاً لهويتها إلى حد كبير، لكن الأمر لم يكن كذلك بالنسبة للآخرين. ومع ذلك، اتفقوا بعد الاجتماع على ما يلي: إذا كان الذكاء الاصطناعي سيلعب دوراً أكبر في المجتمع، ينبغي أن يكون هناك المزيد من الباحثين من ذوي البشرة السمراء وإلا سينتج هذا المجال دراسات عملية أضعف، مما قد يؤدي إلى عواقب سلبية أخطر.

اقرأ أيضاً: هل يساعد ناشرو المواد العلمية على استمرار عمل الخوارزميات العنصرية؟

أجندة مدفوعة بجني الأرباح تملي بضرورة إعادة الذكاء الاصطناعي إلى مساره الصحيح

في الوقت الذي كانت فيه مجموعة ذوي البشرة السمراء في الذكاء الاصطناعي أو “بلاك إن إيه آي” (Black in AI) في طور التشكل، كان الذكاء الاصطناعي ينطلق في مساره التجاري. في ذلك العام، 2016، أنفق عمالقة التكنولوجيا ما يقدر بنحو 20 إلى 30 مليار دولار على تطوير التكنولوجيا، وفقًا لمعهد ماكنزي جلوبال.

أدت استثمارات الشركات الكبرى في مجال الذكاء الاصطناعي إلى حرفه عن مساره الصحيح؛ حيث بدأ آلاف الباحثين الآخرين في دراسة الذكاء الاصطناعي، لكنهم أرادوا في الغالب العمل على خوارزميات التعلم العميق، مثل تلك المسؤولة عن عمل النماذج اللغوية الكبيرة. يقول سوريش فينكاتاسوبرامانيان، أستاذ علوم الحاسوب الذي يعمل الآن في مكتب البيت الأبيض المختص بسياسات العلوم والتكنولوجيا: “عندما تكون طالب دكتوراه شاباً يرغب في الحصول على وظيفة في شركة تكنولوجيا، فأنت تدرك أن جميع شركات التكنولوجيا تصب كل تركيزها على التعلم العميق. لذا فإنك ستقوم بتحويل كل أبحاثك إلى التعلم العميق. ثم ينظر طالب الدكتوراه التالي حوله ويقول:’ الجميع يركز أبحاثه على التعلم العميق، ربما ينبغي علي أن أحذو حذوهم”.

لكن التعلم العميق ليس التقنية الوحيد في هذا المجال. وقبل ازدهاره، كان هناك نهج مختلف للذكاء الاصطناعي يُعرف بالمنطق الرمزي. بينما يستخدم التعلم العميق كميات هائلة من البيانات لتعليم الخوارزميات حول العلاقات الهامة المتضمنة في المعلومات، يركز المنطق الرمزي على ترميز المعرفة والمنطق بشكل صريح بناءً على الخبرة البشرية.

وفي الوقت الحاضر، يعتقد بعض الباحثين أنه يجب الجمع بين هذه التقنيات. من شأن النهج الهجين أن يمنح الذكاء الاصطناعي كفاءة أكبر في استخدام البيانات واستهلاك الطاقة، ويمنحه معرفة وقدرات تفكير الخبراء بالإضافة إلى القدرة على تحديث نفسه بمعلومات جديدة. لكن ليس هناك ما يشجع الشركات على استكشاف أساليب بديلة عندما تكون أضمن طريقة لتعظيم أرباحها تتمثل في بناء نماذج أكبر من سابقاتها.

في ورقتهما البحثية، تناولت جيبرو وبيندر التكلفة الأساسية لهذا الميل نحو التمسك بالتعلم العميق، وهي أنه لا يجري العمل على تطوير أنظمة الذكاء الاصطناعي الأكثر تقدماً التي نحتاجها، واستمرار تكرار المشكلات نفسها [دون إيجاد حلول لها]. وعلى سبيل المثال، تعتمد فيسبوك بشكل كبير على النماذج اللغوية الكبيرة في المراقبة المؤتمتة للمحتوى. لكن غالباً ما تفشل هذه النماذج نتيجة عجزها عن الفهم الحقيقي لمعنى النص. ونتيجة لذلك، تقوم هذه الأنظمة بشكل متكرر بإزالة المنشورات غير المؤذية، ولا تتخذ أي إجراءات ضد منشورات الكراهية والمعلومات المضللة.

تعاني أنظمة الذكاء الاصطناعي الخاصة بالتعرف على الوجوه من نفس المشكلة؛ حيث تم تدريبها على كميات هائلة من البيانات ولكنها لا ترى سوى أنماط البكسل، ولا تستوعب المفاهيم المرئية العيون والأفواه والأنوف. يمكن أن يؤدي ذلك إلى تعطل هذه الأنظمة عند استخدامها مع الأفراد من لون بشرة مختلف عن الأشخاص الذين شاهدتهم أثناء التدريب. ومع ذلك، باعت أمازون وشركات أخرى هذه الأنظمة إلى سلطات إنفاذ القانون. في الولايات المتحدة، تسببت في ثلاث حالات معروفة لقيام الشرطة بسجن الشخص الخطأ- جميعهم رجال من ذوي البشرة السمراء- في العام الماضي.

على مدى سنوات، أقر الكثيرون من مجتمع الذكاء الاصطناعي إلى حد كبير بالدور الذي تلعبه الشركات التقنية الكبرى في رسم ملامح تطور وتأثير هذه التقنيات. في حين أعرب البعض عن عدم ارتياحهم لاستحواذات الشركات، رحب الكثيرون بالتمويل الكبير الذي يقدمه قطاع الشركات لهذا المجال.

ولكن مع بروز أوجه قصور الذكاء الاصطناعي اليوم بشكل أكثر وضوحاً- فشلها في حل المشكلات الاجتماعية والأدلة المتزايدة على أنها تؤدي إلى تفاقم هذه المشاكل- اهتزت الثقة في الشركات التقنية الكبرى. وأدى طرد جوجل لجيبرو وميتشل إلى تأجيج النقاش لأنه كشف عن مدى اهتمام الشركات بتحقيق الربح بدرجة أكبر من اهتمامها بفرض الرقابة الذاتية.

في أعقاب ذلك مباشرة، وقع أكثر من 2,600 موظف في جوجل و 4,300 آخرين على عريضة تدين إقالة جيبرو باعتبارها “رقابة بحثية غير مسبوقة”. بعد نصف عام، لا تزال المجموعات البحثية ترفض تمويل الشركة، ويرفض الباحثون المشاركة في ورش عمل مؤتمرها، ويغادرها الموظفون احتجاجاً.

بخلاف ما كان عليه الحال قبل خمس سنوات عندما بدأت جيبرو طرح هذه الأسئلة، هناك اليوم حركة راسخة تطرح التساؤلات حول الشكل الذي ينبغي أن يكون عليه الذكاء الاصطناعي والجهات التي يخدمها. لم يكن هذا التغيير مجرد مصادفة، بل إنه إلى حد كبير نتاج مبادرة جيبرو، والتي بدأت بفعل بسيط يتمثل في دعوة المزيد من الباحثين ذوي البشرة السمراء للانضمام إلى هذا المجال.

اقرأ أيضاً: عندما تخفق الخوارزميات، يقع اللوم على أقرب إنسان في محيطها!

مؤتمر لإعادة الذكاء الاصطناعي إلى مساره الصحيح

في ديسمبر 2017، استضافت مجموعة بلاك إن إيه آي (Black in AI) الجديدة ورشة العمل الأولى في نيور آي بي إس (NeurIPS). أثناء تنظيم ورشة العمل، تواصلت جيبرو مع جوي بولامويني، باحثة في مختبر الوسائط بإم آي تي والتي كانت تدرس أوجه التحيز في الأنظمة التجارية الخاصة بالتعرف على الوجوه. بدأت بولامويني في اختبار هذه الأنظمة بعد أن فشل أحدها في اكتشاف وجهها ما لم ترتدي قناعاً أبيضاً، وقدمت نتائجها الأولية إلى ورشة العمل.

كانت ديبورا راجي، باحثة جامعية آنذاك، من أوائل المشاركين. شعرت راجي بالذهول من الثقافة التي لاحظتها في نيور آي بي إس (NeurIPS). وأصبحت المشاركة في ورشة العمل أشبه بفترة راحة بالنسبة إليها. وتقول: “الانتقال من أربعة أو خمسة أيام من المؤتمرات المعتادة إلى يوم كامل من الاجتماع بأشخاص يشبهونني ويتحدثون عن النجاح في هذا المجال، كان هذا تشجيعاً هاماً بالنسبة لي”.

واصلت كل من بولامويني وراجي وجيبرو عملهن معاً على زوج من الدراسات الرائدة حول أنظمة الرؤية الحاسوبية التمييزية. قامت كل من بولامويني وجيبرو بتأليف ورقة “ظلال جنسانية” (Gender Shades)، والتي أظهرت أن أنظمة التعرف على الوجوه التي تبيعها شركات مايكروسوفت وآي بي إم والشركة التقنية الصينية العملاقة “ميجفي” سجلت معدلات فشل عالية بشكل ملحوظ عند التعرف على وجوه النساء من ذوات البشرة السمراء على الرغم من تسجيل أداء شبه مثالي عند التعرف على الرجال من ذوي البشرة البيضاء. كما تعاونت راجي وبولامويني بعد ذلك في دراسة لاحقة بعنوان “التدقيق نحو خطوات عملية” (Actionable Auditing)، التي وجدت أن الشيء نفسه ينطبق على نظام “ريكوجنيشين” من أمازون. لتوافق أمازون في عام 2020 على تعليق بيع الشرطة هذا المنتج لمدة عام واحد، ويرجع الفضل في ذلك جزئياً إلى عمل هؤلاء الباحثات.

لكن في ورشة عمل بلاك “إن إيه آي” (Black in AI) الأولى، كان من المستبعد تحقيق مثل هذه النجاحات. لم تكن هناك أي أجندة سوى بناء مجتمع الباحثين من ذوي البشرة السوداء وإجراء أبحاث مستندة إلى وجهات نظرهم التي يعتبر هذا المجال في أمس الحاجة إليها. لم يفهم الكثير من المتفرجين حينئذٍ مبررات وجود مثل هذه المجموعة.

تتذكر جيبرو التعليقات الرافضة للبعض من مجتمع الذكاء الاصطناعي. لكن بالنسبة للآخرين، رسمت بلاك إن إيه آي (Black in AI) مساراً صحيحاً للذكاء الاصطناعي للمضي قدماً.

ويؤكد ذلك كل من ويليام أجنيو ورافائيل جونتيجو لوبيز، وكلاهما من الرجال ذوي الميول الجنسية المغايرة وهما باحثان في علوم الحاسوب، وأدركا أنهما يستطيعان تأسيس مجموعة ذوي الميول الجنسية المغايرة في الذكاء الاصطناعي أو “كوير إن إيه آي” (Queer in AI). (تشمل المجموعات الأخرى التي تم تشكيلها مجموعة ذوي الأصول اللاتينية في الذكاء الاصطناعي أو “لاتين إكس إن إيه آي” (Latinx in AI) ومجموعة أصحاب الهمم في الذكاء الاصطناعي أو “ديسابيليتي إن إيه آي” ({Dis}Ability in AI) ومجموعة “مسلمون في التعلم الآلي” (Muslim in ML). بالنسبة إلى أجنيو تحديداً، بدا وجود مثل هذا المجتمع حاجة ملحة.

ويقول: “كان من الصعب أن أتخيل نفسي وأنا أعيش حياة سعيدة”، وهو يفكر في حاجة المجال إلى شخص قدوة من ذوي الميول الجنسية المغايرة. ويضيف: “هناك تورينج، لكنه انتحر. وهذا أمرٌ محبط، كما يتم تجاهل حقيقة أنه كان من ذوي الميول الجنسية المغايرة”.

ورغم أن بعض أعضاء مجموعات التقارب لا يعتبرون أن هناك ترابطاً بين هوياتهم وأبحاثهم، لكن كل مجموعة منها أسست خبراتها الخاصة في موضوع معين؛ حيث أصبحت مجموعة بلاك إن إيه آي (Black in AI) المركز الفكري لكشف التمييز الخوارزمي وانتقاد المراقبة وتطوير تقنيات الذكاء الاصطناعي الكفوءة في استخدام البيانات. بينما أصبحت مجموعة كوير إن إيه آي مركزاً للاعتراض على الطرق التي تنتهك بها الخوارزميات خصوصية الأفراد وتصنفهم إلى فئات ضيقة بشكل افتراضي.

كما ساعد كل من فينكاتاسوبرامانيان وجيبرو في إطلاق مؤتمر العدالة والمساءلة والشفافية أو “فاكت” (FAccT) لإنشاء منتدى للبحث في التأثيرات الاجتماعية والسياسية للذكاء الاصطناعي. غالباً ما تصبح الأفكار ومسودات الأوراق التي تمت مناقشتها في ورش عمل مجموعات التقارب في نيور آي بي إس (NeurIPS) أساساً للأوراق المنشورة في فاكت، والتي تعرض فيه تلك الأبحاث أمام جمهور أوسع.

وعلى سبيل المثال، لم ينشر مؤتمر فاكت بحث “ظلال الجنسانية” إلا بعد أن قدمتها بولامويني في ورشة عمل بلاك إن إيه آي (Black in AI) الأولى. وبالإضافة إلى دراسة “التدقيق نحو خطوات عملية”، شجعت هذه الخطوات على إطلاق العديد من حملات كبرى للتثقيف والمناصرة والتي تهدف إلى الحد من استخدام الحكومة لأنظمة التعرف على الوجوه. وعندما حاولت أمازون تقويض شرعية بحث بولامويني وراجي، اجتمع العشرات من باحثي الذكاء الاصطناعي ومنظمات المجتمع المدني للدفاع عنهما، معتبرين أن ذلك يمثل إنذاراً لما يمكن أن يحدث لاحقاً استناداً إلى تجربة جيبرو. آتت هذه الجهود في نهاية المطاف أُكُلها في تعليق أمازون لبيع نظامها، وقد أعلنت الشركة في مايو أنه ستمدد التعليق إلى أجل غير مسمى.

كما أطلق هذا البحث سلسلة من الخطوات التنظيمية؛ حيث قامت أكثر من اثنتي عشرة مدينة بحظر استخدام الشرطة للتعرف على الوجوه، كما تفرض ماساتشوستس الآن على الشرطة الحصول على إذن قضائي قبل استخدامها. واقترحت كل من الولايات المتحدة والمفوضية الأوروبية إعداد تشريعات تنظيمية إضافية.

تقول جيبرو: “بادئ الأمر، توجّب علينا أن نتناول هذه القضايا. وفي مرحلة ما لاحقاً، أصبح ما تقوله مجموعة بلاك إن إيه آي (Black in AI) يتحول إلى موضع اهتمام. وما تقوله كل هذه المجموعات معاً يصبح في دائرة الضوء. لقد أصبح صوتنا مسموعاً الآن ولا يمكن تجاهله”.

اقرأ أيضاً: اقتراح جديد لحل مشكلة عدم قدرة الخوارزميات على التعامل مع المواقف الأخلاقية

أهمية التمويل الحكومي في إعادة الذكاء الاصطناعي إلى مساره الصحيح

بعد طرد جيبرو وميتشل، يواجه الحقل مرة أخرى معضلة الإجابة عن السؤال القديم: هل من الممكن تغيير الوضع الراهن إذا كنت تعمل لدى الشركات التقنية الكبرى؟ لا تزال جيبرو تؤمن أن العمل من الداخل مع عمالقة التكنولوجيا هو أفضل طريقة لتحديد المشكلات. لكنها تعتقد أيضاً أن الباحثين في الشركات يحتاجون إلى حماية قانونية أقوى. إذا وجدوا ممارسات تنطوي على مخاطر، فيجب أن يكونوا قادرين على مشاركة ملاحظاتهم بشكل علني دون تعريض حياتهم المهنية للخطر.

ثم هناك مسألة التمويل؛ إذ يرغب العديد من الباحثين في أن تقدم حكومة الولايات المتحدة على استثمار المزيد في دعم الجهود التي تنتقد تطوير الذكاء الاصطناعي التجاري وتعزز الرفاهية العامة. في العام الماضي، خصصت الحكومة مليار دولار لأبحاث الذكاء الاصطناعي غير المرتبطة بالأغراض الدفاعية. وحالياً، تطلب إدارة بايدن من الكونجرس استثمار 180 مليار دولار إضافية في التقنيات الناشئة مع منح أولوية قصوى لمجال الذكاء الاصطناعي.

من شأن هذا التمويل أن يساعد أشخاصاً مثل ريديت أبيبي، الأستاذة المساعدة في علوم الحاسوب بجامعة كاليفورنيا بيركلي. حملت أبيبي إلى مجال الذكاء الاصطناعي أفكاراً تنطوي على توظيفه في تعزيز العدالة الاجتماعية. ولكن عندما بدأت مرحلة الدكتوراه في جامعة كورنيل، لم يكن هناك أي أحد يركز جهوده على إجراء هذا النوع من الأبحاث.

في خريف عام 2016، عندما كانت لا تزال طالبة دكتوراه، أسست مجموعة قراءة صغيرة في جامعة كورنيل مع زميل لها في الدراسات العليا، وتهدف إلى دراسة موضوعات مثل عدم استقرار الإسكان، والوصول إلى الرعاية الصحية، وعدم المساواة. ثم شرعت في إطلاق مشروع جديد لمعرفة ما إذا كانت مهاراتها الحاسوبية يمكن أن تدعم الجهود المبذولة للتخفيف من حدة الفقر.

في النهاية، وجدت دراسة “متتبع الفقر” (Poverty Tracker)، وهي مجموعة بيانات مفصلة عن الصدمات المالية- نفقات غير متوقعة مثل الفواتير الطبية أو تذاكر وقوف السيارات- التي عانت منها أكثر من 2,000 أسرة في نيويورك. خلال العديد من المحادثات مع مؤلفي الدراسة والأخصائيين الاجتماعيين والمنظمات غير الربحية التي تخدم المجتمعات المهمشة، تعرفت أبيبي على احتياجاتهم وأخبرتهم كيف يمكنها مساعدتهم. ثم طورت نموذجاً أظهر كيفية تأثير تواتر ونوع الصدمات على الوضع الاقتصادي لأسرة ما.

واليوم، لا يزال المشروع قائماً بعد خمس سنوات من إطلاقه. وتتعاون أبيبي مع المنظمات غير الربحية لتحسين نموذجها، كما تعمل مع صانعي السياسات من خلال مختبر “سياسات كاليفورنيا” (California Policy Lab) لاستخدام النموذج كأداة لمنع التشرد. وقد توسعت مجموعة القراءة الخاصة بها لتضم اليوم 2,000 شخصاً، ومن المقرر أن تعقد مؤتمرها التأسيسي في وقت لاحق من هذا العام.

تنظر أبيبي إلى هذا المؤتمر باعتباره وسيلة لتحفيز المزيد من الباحثين لقلب معايير الذكاء الاصطناعي. وفي حين تركز مؤتمرات علوم الحاسوب التقليدية على تطوير التقنيات الحاسوبية لمجرد القيام بذلك في حد ذاته، فإن المؤتمر الجديد سينشر الأبحاث التي ترمي أولاً إلى تقديم فهم عميق لقضية اجتماعية. ورغم أن الأبحاث فيه ستكون تقنية، لكنه سيبني الركيزة اللازمة لنشوء ذكاء اصطناعي ذو أهمية وتأثير أكبر من الناحية الاجتماعية.

وتقول أبيبي: “نحن لا نناضل لتحقيق هذه التغييرات لصالح الفئات المهمشة فحسب، بل هي في الحقيقة لصالح الجميع”.

Content is protected !!