Article image
راشيدا ريتشاردسون من معهد إيه آي ناو متحدثة في مؤتمر إيمتيك ديجيتال الذي نظمته إم آي تي تكنولوجي ريفيو في مارس.
Article image راشيدا ريتشاردسون من معهد إيه آي ناو متحدثة في مؤتمر إيمتيك ديجيتال الذي نظمته إم آي تي تكنولوجي ريفيو في مارس.

قضايا منوعة حب

سألنا الخبراء عن تفسيراتهم لفشل مجلس جوجل الأخلاقي، واقتراحاتهم العملية حول ما يجب أن تفعله الشركة.

… وهكذا، انتهت هذه القصة بسرعة. فبعد فترة تربو قليلاً على الأسبوع، تراجعت جوجل عن تشكيل المجلس الاستشاري الخارجي للتكنولوجيا المتطورة (اختصاراً: أتياك ATEAC) وهو لجنة لإرشاد الشركة حول المسائل الأخلاقية المتعلقة بتطوير تكنولوجيات جديدة مثل الذكاء الاصطناعي. فقد تسبب ضم رئيسة منظمة هيريتيج “كاي كولز جيمس” إلى المجلس بإطلاق موجة حادة من الاعتراضات بسبب توجهاتها المعادية للبيئة، والمعادية لذوي الميول الجنسية المختلفة، والمعادية للمهاجرين، وأدى بما يقارب 2,500 موظف من جوجل إلى توقيع عريضة لإقالتها. ولكن بدلاً من ذلك، قررت الشركة العملاقة ببساطة أن تلغي المجلس بأكمله.

ولكن كيف تدهور الوضع بهذا الشكل؟ وهل تستطيع جوجل أن تصححه؟ للإجابة عن هذه الأسئلة، طلبنا من مجموعة من خبراء الذكاء الاصطناعي والتكنولوجيا والأخلاقيات أن يخبرونا كيف أخطأت جوجل، وما الذي عليها فعله. ولو كان هؤلاء الأشخاص أعضاء في أتياك، لربما كانت النتيجة مختلفة.

“يجب أن تكون واضحاً وشفافاً فيما يتعلق بأدوار ومسؤوليات مجلس الأخلاقيات”

راشيدا ريتشاردسون، مديرة أبحاث السياسات في معهد إيه آي ناو

من الناحية النظرية، يمكن أن تكون مجالس الأخلاقيات كبيرة النفع من حيث الحرص على سلامة منتجات الذكاء الاصطناعي وابتعادها عن التحيز. ولكن حتى يكون لهذه المجالس تأثير يذكر، يجب أن تكون مسؤولة أمام العامة، وتتمتع بسلطة إشراف فعلية.

هذا يعني أنه يجب على الشركات التقنية أن تكون مستعدة لمشاركة معاييرها في اختيار أعضاء هذه المجالس. ويجب أن تكون واضحة وشفافة فيما يتعلق بأدوار ومسؤوليات هذه المجالس، بحيث يمكن للعامة تقييم تأثيرها. وإلا، لن يكون لدينا أية معلومات حول ما إذا كانت مجالس الأخلاقيات تمثل فعلياً بوصلة أخلاقية، أو أنها مجرد واجهات شكلية. ونظراً للتأثير العالمي والمسؤولية التي تحملها الشركات الكبيرة في مجال الذكاء الاصطناعي، فإن هذا المستوى من الشفافية والمسؤولية أمر أساسي.

“يجب أن تفكر بالمعنى الحقيقي لحوكمة التكنولوجيا بشكل فعال ومنصف”

جيك ميتكالف، باحث في أخلاقيات التكنولوجيا في معهد داتا أند سوسايتي

تبين لنا مسألة أتياك والضجيج المحيط بها كم أن هذا العصر الجديد من أخلاقيات التكنولوجيا سيكون مليئاً على الأرجح بالتوتر والجدل، ومن الواضح أن جوجل لم تقرأ المشهد بشكل صحيح هذه المرة. حيث أن المجموعات البشرية المهمشة سياسياً، والمعرضة لأهواء التصنيف لتكنولوجيات الذكاء الاصطناعي والتعلم الآلي، ستتعرض على الأرجح إلى أسوأ الأذيات الأخلاقية التي يمكن أن تنتج عن أتمتة عمليات اتخاذ القرار. إن تفضيل جوجل لاختيار كاي كولز جيمس من أجل “تعدد وجهات النظر” بسبب كراهيتها الصريحة لذوي الميول الجنسية المغايرة يبين أن الشركة لا تفكر بشكل صحيح بالمعنى الحقيقي لحوكمة التكنولوجيا بشكل فعال ومنصف.

“تعني الأخلاقيات مسألتين مختلفتين يمكن أن تتضاربا من الناحية العملية. غير أن الشركات تتعامل مع المسألة الأولى بسهولة، وتشعر بالرعب إزاء الثانية”.

جيك ميتكالف

إنه أمر صعب بالنسبة للشركات، لأن الأخلاقيات تعني مسألتين مختلفتين يمكن أن تتضاربا من الناحية العملية: العمل اليومي لفهم وتخفيف العواقب (مثل تشغيل أداة لكشف التحيز أو استضافة لقاء للتصميم عن طريق الحوار)، وإطلاق الأحكام حول كيفية تصنيف المجتمع بشكل عادل (مثل اتخاذ قرار حول إحداث تغيير كبير على إنتاج أحد المنتجات بسبب ضرر فادح قد يصيب إحدى المجموعات السكانية المهمشة). تتعامل الشركات مع المسألة الأولى بسهولة، ولكنها تشعر بالرعب إزاء الثانية. ولكن إذا لم يكن هدف أخلاقيات الذكاء الاصطناعي التصدي لأتمتة الظلم، ومنع نقل التكنولوجيات الخطيرة إلى الحكومات الأوتوقراطية، والوقوف في وجه أتمتة عنف الدولة، فلا يمكننا أن نعرف هدف الشركات التكنولوجية من هذه الأخلاقيات إلى جانب كونها مجرد مبادرات فارغة. وتحت الغطاء البراق لأدوات التقارير الأخلاقية الجديدة والمتوافقة مع مقاييس أداء الشركة يوجد قلق حقيقي من تعريض الأرواح للخطر. إن التعامل مع كل هذه المسائل في نفس الوقت يمثل تحدياً للشركات من الناحية البيروقراطية، ويمثل تحدياً لأخصائيي الأخلاقيات الذين يرغبون في تحقيق انتشار أكبر للتكنولوجيات العادلة.

“يجب أن نعترف أولاً بالمسألة الهامة الحقيقية: مبادئ جوجل للذكاء الاصطناعي”

إيفان سيلنجر، بروفسور مختص بالفلسفة في معهد روتشستر للتكنولوجيا

ألغت جوجل أتياك من دون أن تعترف أولاً بالمسألة الهامة الحقيقية: مبادئ الذكاء الاصطناعي التي أعلن عنها المدير التنفيذي سوندار بيتشاي في الصيف المنصرم. وقد أخبرني الكثير من الأكاديميين الهامين وأعضاء منظمات المجتمع المدني وكبار الموظفين في الشركات التكنولوجية مراراً وتكراراً أن هذه المبادئ تبدو جيدة على الورق، لكنها مرنة بما يكفي لتفسيرها بطريقة تعفي جوجل من التأثير على أية استراتيجيات بعيدة المدى للنمو، خصوصاً لأن آليات فرض هذه المبادئ ليست محددة بشكل جيد، وفي النهاية، فإن المسألة بأكملها تبقى مسألة تنظيم ذاتي.

من المؤكد أن تحميل قيادة الشركة المسؤولية أمام مجلس أخلاقي سيكون مفيداً، ولكن بعدة شروط: (a) أن تكون المجموعة حسنة التشكيل (b) أن تعطى سلطات مؤسساتية واضحة وراسخة (بدلاً من أن يقتصر دورها على تقديم النصائح) و (c) أن تكون المجموعة نفسها خاضعة لمعايير مسؤولية شفافة حتى لا تتحول إلى أداة للالتفاف حول الأخلاقيات وتبرير انتهاكها.

“يجب تغيير المسؤولين عن اختيار هذه المجموعات”

إيلين باو، من مؤسسي بروجيكت إنكلود

تثبت هذه المحاولة الفاشلة حاجة جوجل إلى مستشارين أفضل. ولكن قد تحتاج الشركة أيضاً إلى تغيير المسؤولين عن اختيار هذه المجموعات، وربما يجب أن تقوم فرقهم الداخلية بهذا العمل أيضاً. لقد رأينا جميعاً أن النتيجة كانت مليئة بالمشاكل، غير أن المشاكل كانت موجودة في العملية أيضاً. إنه خطأ فادح ألا تبلغ المجموعة بأكملها عن الأشخاص الذين سيعملون معهم. لقد كان من الأجدى البحث داخل الشركة عن أشخاص ذوي نظرة دقيقة إلى العالم الذي نعيش فيه قبل محاولة تشكيل مجموعة خارجية.

من الجدير بالذكر أنه يجب على الناس أن يدققوا في المجموعات التي سينضمون إليها، ولجان إشراف المؤتمرات التي سيتكلمون فيها، والفرق التي سيعملون معها، بحيث يعرفون جميع التفاصيل قبل أن يلتزموا معها بشمل كامل. قد تتفاجأ بمدى التأثير على هذه المجموعات وإمكانية تغييرها بمجرد السؤال.

“يجب تشجيع التضاد الحقيقي بدلاً من تلك الشراكات الداخلية والاستعراضات الودية”.

ميج ليتا جونز، بروفسورة مساعدة في الاتصالات والثقافة والتكنولوجيا في جامعة جورجتاون

ليست المجالس الأخلاقية بالعمل العادي، ولا تتيح سوى فرصة لحوارات قليلة التكرار وعالية المستوى، والتي تقدم في أفضل حالاتها بعض المعلومات، وتمثل في أسوأها مجرد تغطية. إذا أردنا أن نؤسس للثقة في المؤسسات، بما فيها التكنولوجيات والشركات التكنولوجية ووسائل الإعلام والحكومة، يجب أن تقوم ثقافتنا السياسية الحالية على تشجيع التضاد الحقيقي، بدلاً من تلك الشراكات الداخلية والاستعراضات الودية. وقد يؤدي دعم هذا التوجه إلى تحقيق أهداف “الذكاء الاصطناعي الأخلاقي” بشكل أكثر فعالية.

“تقدم المجالس الأخلاقية في أفضل حالاتها بعض المعلومات، وتمثل في أسوأها مجرد تغطية”

ميج ليتا جونز

“يجب أن نبحث داخل الشركة ونعطي المزيد من الصلاحيات للموظفين المتضامنين مع المجموعات المستضعفة”

آنا لورين هوفمان، بروفيسورة مساعدة في مدرسة المعلومات في جامعة واشنطن

يبين لنا فشل أتياك في جوجل أن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بتصميم وتطوير وتطبيق تكنولوجيات الذكاء الاصطناعي، بل بطريقتنا في التعامل مع الأخلاقيات نفسها أيضاً. إن مشاكل الحياة، وتوزيع السلطة والنفوذ، وتحديد الأصوات التي تستحق الإصغاء، تعتبر جميعاً مسائل هامة في الأخلاق في العالم الحقيقي. ولهذا، فإن مشكلة أتياك وغيرها (مثل الاعتراضات على مشروع ميفن ومشروع دراجونفلاي وسياسات التحرش الجنسي) تثبت أن جوجل تمتلك مورداً هاماً للغاية في الكثير من موظفيها. لا شك في الحاجة إلى تنظيم فعلي وإشراف خارجي، ولكن يجب على الشركة أن تبحث داخلها وتعطي المزيد من الصلاحيات للموظفين المهمشين المستعدين لتنظيم أنفسهم والتضامن مع المجموعات المستضعفة لمواجهة العديد من المشاكل المنتشرة، مثل العنصرية والتمييز على أساس الميول الجنسية والكراهية.

“يجب ألا يكون المجلس مؤلفاً من بعض الشخصيات الهامة التي نعرفها وحسب، بل من أشخاص مختصين فعلياً بالأخلاق”

باتريك لين، مدير مجموعة الأخلاقيات والعلوم الناشئة في جامعة بوليتكنيك في كاليفورنيا

أعتقد أنه يجب على جوجل، كما تقول إحدى الأغاني، أن تنفض الغبار عن نفسها وتحاول مرة أخرى. ولكن يجب أن تكون أكثر حرصاً في تحديد أعضاء هذا المجلس، ولا يمكن أن تكون قائمة مؤلفة من “بعض الشخصيات الهامة التي نعرفها وحسب”، كما بدت النسخة الأولى من المجلس. بداية، إذا كانت هناك رغبة حقيقية بالحصول على إرشاد أخلاقي، فيحب الاعتماد على أشخاص مختصين فعلياً بالأخلاق، أي خبراء خاضوا تدريباً احترافياً في الأخلاقيات النظرية والتطبيقية، وإلا سيمثل هذا المجلس رفضاً لقيمة الخبرة والاختصاص، وهو أمر نراه في هذه الأيام بشكل يدعو للأسف، كما يحدث مثلاً في مجال العلوم الأساسية.

“تخيل أن تقوم الشركة بتشكيل مجلس لقوانين الذكاء الاصطناعي، ولكن بوجود محامٍ واحد فقط بين أعضائه”.

باتريك لين

تخيل أن تقوم الشركة بتشكيل مجلس لقوانين الذكاء الاصطناعي، ولكن بوجود محامٍ واحد فقط بين أعضائه (كما حدث في مجلس أخلاقيات الذكاء الاصطناعي بنسخته الأولى، والذي لم يحوِ سوى فيلسوف واحد). إنه نذير شؤم واضح. لا يكفي أن يعمل الشخص على مسائل ذات أهمية قانونية، فهناك الكثير من القادرين على هذا، بما في ذلك أنا شخصياً، ويمكنهم تدعيم الرأي الخبير للأكاديميين القانونيين والمحامين. ولكن حتى يكون هذا المجلس فعالاً، يجب أن يكون مؤلفاً بشكل أساسي من خبراء حقيقيين في هذا المجال.

“أظهرت الأسابيع الماضية أن التنظيم المباشر يمكن أن ينجح”

أوس كيز، طالب دكتوراه في مختبر الأنظمة البيئية للمعلومات في جامعة واشنطن

بصراحة، ليس لدي أية نصيحة لجوجل. إن جوجل تفعل بالضبط ما تفعله جميع كيانات الشركات في المجتمع، أي العمل من أجل الفائدة السياسية (والقانونية والمالية) من دون السماح لأدنى مسحة أخلاقية بالتأثير على أرباحها أو خططها الاستراتيجية. ولهذا سأوجه نصيحتي إلى الجميع باستثناء جوجل. إلى الناس خارج جوجل: اتصلوا بممثليكم في الكونجرس، واسألوهم ماذا يفعلون بخصوص تنظيم الذكاء الاصطناعي، وماذا يفعلون بخصوص مجموعات الضغط، وماذا يفعلون بخصوص تنظيم الشركات. وأنصح الأكاديميين بالاتصال بمشرفيهم، وسؤالهم عما يفعلون بخصوص تعليم طلاب الأخلاق أن الأخلاق مهمة فقط لدى تطبيقها والعيش وفقها فقط. أما بالنسبة لمن هم داخل جوجل: اتصلوا بمن هم خارج جوجل واسألوهم عن حاجاتهم. لقد أظهرت أحداث الأسابيع الأخيرة أن التنظيم المباشر يمكن أن ينجح، وأن التضامن قد يؤدي إلى نتيجة.

“على الأرجح أن أربعة اجتماعات في السنة لن تؤدي إلى أية نتيجة. نحن بحاجة إلى دخل أخلاقي رشيق”

إيرينا رايكو، مديرة برنامج أخلاقيات الإنترنت في جامعة سانتا كلارا

أعتقد أنها كانت فرصة ضائعة كبيرة. فقد أثارت لدي تساؤلاً عن الجهة المسؤولة في جوجل عن اتخاذ القرار حول مسألة الدعوة إلى الانضمام إلى هذا المجلس (وهو قرار يتطلب بنفسه وجهة نظر تدعم التعدد والتنوع). ولكن هذا الأمر يعبر عن المشكلة الأكبر هنا، وهي أن جوجل أعلنت عن تشكيل المجلس من دون أدنى توضيح لمعاييرها في اختيار المشاركين. أيضاً، كان النقاش شبه معدوم حول سبب تشكيل المجلس، والأثر المُنتظر منه، وغير ذلك. لو قدمت لنا الشركة بعض السياق، لربما كان النقاش اللاحق مختلفاً.

هناك مسائل أخرى أيضاً. فنظراً لسرعة تطور وتطبيق الذكاء الاصطناعي، فمن الأرجح أن أربعة اجتماعات (حتى بوجود مجموعة متنوعة من مستشاري أخلاقيات الذكاء الاصطناعي) في السنة لن تؤدي إلى أية نتيجة، أي إحداث تغيير كبير في مسار الأبحاث أو تطوير المنتجات مثلاً. وبما أن العمل في مجال الذكاء الاصطناعي يعتمد على نموذج التطوير الرشيق، فنحن بحاجة إلى دخل أخلاقي رشيق أيضاً.

“يجب أن تتمتع المجموعة بسلطة لرفض المشاريع”

سام جريجوري، مدير البرنامج في ويتنس

إذا كانت جوجل راغبة حقاً بإدماج احترام الأخلاقيات أو حقوق الانسان في مبادرات الذكاء الاصطناعي، يجب أن تعترف أولاً أن المجلس الاستشاري، أو حتى مجلس الحوكمة، هو مجرد جزء من صورة أكبر. يجب أن تكون الشركة واضحة منذ البداية أن المجموعة تتمتع بسلطة لترفض المشاريع وتقدم رأيها. ويجب أن تكون صريحة حول الهيكلية –والتي ننصح أن تكون مبنية على أساس قانون ومعايير حقوق الانسان- ولهذا يجب ألا تحوي أي فرد أو مجموعة بسوابق من التمييز أو الإساءات.

“يجب تجنب التعامل مع الأخلاقيات وكأنها لعبة علاقات عامة أو مشكلة تقنية”

آنا جوبين، باحثة في مختبر أخلاقيات وسياسات الصحة في المعهد السويسري الفدرالي للتكنولوجيا

إذا كانت جوجل جدية بشأن أخلاقيات الذكاء الاصطناعي، يجب أن تتجنب التعامل مع الأخلاقيات وكأنها لعبة علاقات عامة أو مشكلة تقنية، وتبادر إلى إدماجها في ممارساتها وعملياتها المتعلقة بالأعمال. وقد تكون بحاجة إلى إعادة تصميم بنى الحوكمة فيها من أجل تحسين تمثيل قوة العمل الداخلية والمجتمع ككل، وتحمل المسؤولية أمامهم. وعلى وجه الخصوص، يجب أن تركز على مصالح الأقليات والمجتمعات المستضعفة على مستوى العالم، خصوصاً من قد يتعرضون إلى التأثيرات السلبية لتكنولوجياتها.

“يجب ألا نبحث عن الخبرات التقليدية وحسب، بل عن وجهات نظر الأشخاص الذين اكتسبوا خبرة من تجاربهم الخاصة”

جوي بولامويني، مؤسسة نخبة العدالة الخوارزمية

إذا فكرنا بحوكمة الذكاء الاصطناعي، يجب ألا نبحث عن الخبرات التقليدية وحسب، بل عن وجهات نظر الأشخاص الذين اكتسبوا خبرة من تجاربهم الخاصة. كيف نُشرك الأصوات المهمشة في بناء الذكاء الاصطناعي وتشكيله؟ كيف سيكون الذكاء الاصطناعي التشاركي إذا تمركز حول وجهات نظر الأشخاص الأكثر عرضة لآثاره السلبية؟

“لا أستطيع أن أتخيل أية نصيحة لمجلس استشاري كهذا يقف في وجه متطلبات السوق”

آدم جرينفيلد

بعد تجربة أتياك، يجب على جوجل أن تعتمد في تطوير منتجاتها وخدماتها على عمليات نقد وتمحيص مجتمعية. وهو ما سيتطلب شفافية حقيقية ورقابة مستمرة. كما يجب على جوجل وغيرها من أعضاء مشروع الشراكة في الذكاء الاصطناعي تخصيص نسبة من الأرباح لتمويل أبحاث أخلاقيات ومسؤولية الذكاء الاصطناعي، دون التركيز فقط على أبحاث الذكاء الاصطناعي العادل التي تركز على النواحي التقنية وحسب.

“قد يكون من الجيد أن ورقة التين التي تستر هذا ’’التطوير الأخلاقي‘‘ قد سقطت”

آدم جرينفيلد، مؤلف الكتاب “تكنولوجيات متطرفة Radical Technologies

إن كل ما سمعناه عن هذا المجلس يدعو للخجل، بدءاً من القرار الأولي المرتجل لدعوة جيمس وصولاً إلى إلغائه بدلاً من التعامل مع عواقب هذا الاختيار. ولكن، ونظراً لمشاعري إزاء الذكاء الاصطناعي، فقد يكون من الجيد أن ورقة التين التي تستر هذا “التطوير الأخلاقي” قد سقطت. وفي المحصلة، لا أستطيع أن أتخيل أية نصيحة لمجلس استشاري كهذا، مهما كانت طريقة تشكيله، إذا كان سيقف في وجه متطلبات السوق، أو ما يمكن أن يكون ضرورياً للتنافس مع أطراف أخرى تعمل أيضاً على تطوير الذكاء الاصطناعي.

“من الرائع أن نرى ما يستطيع الموظفون الناشطون تحقيقه”

تس بوسنر، المديرة التنفيذية لمنظمة إيه آي فور أول

لا شك في أن رؤية الشركات والمنظمات والباحثين يعملون على بناء هيكليات أخلاقية للذكاء الاصطناعي أمر يبعث على السرور، حيث أن صناعة التكنولوجيا بدأت تعاني مما يشبه آلام النمو في هذه المسألة، وسيحتاج النجاح فيها إلى الوقت والتكرار.  ونعتقد أنها فرصة لدراسة الأصوات التي تستحق الإصغاء إليها، والحرص على إشراك أصوات متنوعة وأصوات من سيتعرضون بشكل مباشر إلى نتائج القرارات المتخذة. ومن الرائع أن نرى ما يستطيع الموظفون الناشطون تحقيقه من حيث التأثير وإحداث التغيير في هذه المسألة وغيرها من المسائل التكنولوجية.

المزيد من المقالات حول الآلات الذكية

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!