اشترك

الاستمرار بالحساب الحالي

Preview
 
 

تاريخ النشرة : 02-08-2022
يكتبها هذا الأسبوع: د. وسام شاهين، مدير المحتوى العلمي والتقني في مجرة
  


في 2012، عندما تلقت شيرمين ليسنر رسالة من هيئة الضرائب في هولندا
تتهمها بالاحتيال للحصول على تعويض رعاية الأطفال ودفع مبلغ 100 ألف يورو، كانت واثقة أن هناك خطأ ما في النظام وسرعان ما ستحل المشكلة. لكن بعد 7 سنوات، انتهى بها المطاف إلى الاكتئاب والاحتراق الوظيفي والانفصال عن زوجها، بل وحتى الفقر.


ففي عام 2019، كشف صحفيون أن هيئة الضرائب الهولندية اعتمدت على خوارزمية ذاتية التعلم لتوليد مؤشرات مخاطر لكل شخص يحصل على دعم رعاية الأطفال، بهدف كشف حالات الانتحال والتزوير. واعتمدت السلطات على هذه المؤشرات في توجيه تهم الاحتيال إلى آلاف الأشخاص معظمهم من ذوي الدخل المنخفض أو ينتمون لأقليات عرقية.

لم تكن ليسنر وحدها من وقع ضحية الخوارزمية، فقد شملت الفضيحة 26000 شخصاً في هولندا. تم اتهام هؤلاء بناء على تقييم خوارزمي بالاحتيال للحصول على الدعم المالي. وفي المحصلة، أدت الخوارزمية إلى انتحار البعض وإفقار البعض الآخر وفصل أكثر من 1675 من الأطفال عن أسرهم ونقلهم إلى دور رعاية الأطفال.

وعلى الرغم من أن الفضيحة قد أدت إلى سقوط الحكومة الهولندية وتغريم هيئة الضرائب في البلاد بملايين الدولارات، لكن الضحايا كانوا قد دفعوا الفاتورة بالفعل بسنوات ضاعت من عمرهم وأطفال انتُزعوا من كنفهم.

عندما تفشل الخوارزمية
قبل عامين تماماً، ومع إغلاق أبواب المدارس وإلغاء الامتحانات لكل شهادات التعليم الثانوي في بريطانيا بسبب تفشي وباء كوفيد-19، قررت الهيئة المشرفة على الامتحانات استخدام خوارزمية لحساب درجات الطلاب اعتماداً على نتائج الأعوام الدراسية الخمسة الماضية حتى تكون الدرجات "عادلة". لكن الخوارزمية أدت إلى حصول 40% من التلاميذ على درجة أقل مما توقعه لهم معلموهم. وهذا ما تسبب بموجة احتجاجات من الطلاب انتهت باعتذار الحكومة عن الخطأ والعمل على تصحيحه.

وفي الولايات المتحدة، سلطت العديد من الدراسات الضوء على مشاكل مشابهة في السنوات الماضية. على سبيل المثال، كشف باحثون من جامعة كاليفورنيا أن إحدى الخوارزميات الطبية تمنح تفضيلاً لذوي البشرة الفاتحة في برامج الرعاية الصحية. حيث نقلت الخوارزمية عملياً ذوي البشرة الفاتحة إلى مواقعَ أعلى في قائمة الانتظار لعلاجاتٍ خاصة بالحالات الصحية المُعقدة مثل مشاكل الكلية أو السّكري. كما تم فتح تحقيق بشأن الخوارزمية المُعتمَدة لتقرير الحدود الائتمانية لمستخدمي بطاقة آبل الائتمانية (آبل كارد)؛ حيث كانت هذه الخوارزمية تمنح الرجال حدوداً ائتمانية أعلى من النساء.

العملية نجحت، لكن المريض مات
هل أخطأت الخوارزمية؟ كلا؛ إذ لو سألت القائمين على تطوير هذه الخوارزميات لأكدوا لك أنها تعمل بشكل سليم وأنها، من وجهة نظر برمجية، ناجحة تماماً. أين المشكلة إذن؟
عندما تقدم خوارزمية الاقتراحات على يوتيوب أو نيتفليكس اقتراحاً لا يعجبك، لن يكون لذلك تبعات مصيرية على حياتك.
لكن خوارزميات الذكاء الاصطناعي تُستخدم اليوم، وبشكل متزايد، لاتخاذ قرارات مهمة حول حياة البشر بأدنى قدر من الإشراف والمحاسبة. وفي ظل غياب التشريعات التي تحدد المسؤولية وتضع تعاريف واضحة لمفاهيم مثل الإنصاف الخوارزمي وقابلية التفسير وجودة البيانات، وجدنا أنفسنا في مواجهة عواقب وخيمة مثل الاعتقالات الخاطئة، أو العلامات الخاطئة للطلاب، وحتى إفقار الناس.

بعبارة أخرى، الخوارزمية، سواء تلك التي تقيم جدارتك الائتمانية أو تستبعدك من قائمة المشتبه بهم أو تقترح عليك مشاهدة فيديو، هي برنامج ينفذ التعليمات البرمجية التي أدخلها الإنسان على أكمل وجه. لكن في بعض الحالات يكون تأثير فشل الخوارزمية واضحاً ومحدداً وفورياً، وفي حالات أخرى يكون التأثير خفياً وكبيراً وبعيد الأمد.

مكافحة "الفساد الخوارزمي"
في محاولة رائدة لتجنب هذا النوع من المشاكل، طرح الاتحاد الأوروبي مشروع قانون في مجال الذكاء الاصطناعي، وهو الأساس لجميع قوانين الذكاء الاصطناعي، ويحمل اسم "أيه آي آكت" (AI Act). وهو أول قانون يهدف إلى التخفيف من هذه الأضرار عن طريق تنظيم القطاع بأسره. وإذا نجح الاتحاد الأوروبي، فقد يعني هذا وضع معيار عالمي جديد للإشراف على الذكاء الاصطناعي في جميع أنحاء العالم.

يفرض مشروع القانون المقترح عمليات تدقيق إضافية على استخدامات خوارزميات الذكاء الاصطناعي "عالية الخطورة" الأكثر قدرة على إلحاق الضرر بالناس. وتتضمن هذه الفئة الأنظمة المستخدمة في تصحيح الأوراق الامتحانية، والتوظيف، ومساعدة القضاة على اتخاذ قرارات تتعلق بالقانون والعدالة. كما يضع القانون قيوداً على استخدام وكالات إنفاذ القانون لأنظمة التعرف على الوجوه في الأماكن العامة. كما يناقش المشرعون أيضاً وجوب وضع القانون لآلية تتيح للناس تقديم الشكوى والحصول على التعويضات عند التعرض للأذى بسبب أنظمة الذكاء الاصطناعي.

من ناحية أخرى، يتضمن مشروع القانون بعض المتطلبات والشروط التي يستحيل الالتزام بها حالياً من الناحية الفنية. فقد ورد في المسودة الأولى من القانون أن مجموعات البيانات التي تتدرب عليها الخوارزميات يجب أن تكون خالية من الأخطاء، وأن يُتاح للبشر إمكانية تحقيق "فهم كامل" لكيفية عمل أنظمة الذكاء الاصطناعي. ولكن مجموعات البيانات هذه هائلة الحجم، ويتطلب التحقق من خلوها من الأخطاء بالكامل من قبل البشر آلاف الساعات من العمل، على فرض إمكانية تطبيق عملية التدقيق هذه في المقام الأول. علاوة على ذلك، فإن الشبكات العصبونية الحالية بلغت درجة عالية من التعقيد إلى درجة أن مصمميها أنفسهم لا يفهمون بالكامل كيف توصلت الشبكة إلى هذه النتيجة أو تلك.

لنقارب الأمر من زاوية أخرى: لو شبهنا فشل الخوارزمية بفساد الأنظمة الإدارية! ولنسقط أساليب مكافحة الفساد الإداري لتقليل "الفساد الخوارزمي"، ستخطر لك على الفور مفاهيم: الشفافية والمساءلة والثقة. وفي حين يمكن العمل على مسألتي الشفافية والمساءلة من زاوية قانونية وفنية، فإن مسألة الثقة بالخوارزمية في اتخاذ القرارات المصيرية تستدعي تركيزاً أكبر واهتماماً دقيقاً لتجنب الوصول إلى نقطة يفقد عندها الجمهور ثقته بمخرجات الخوارزمية ويشكك في قراراتها ما يعيق تبني أنظمة الذكاء الاصطناعي على مستوى المجتمع ككل.


بعض مقالاتنا عن العلوم والتكنولوجيا هذا الأسبوع:
(منصة إم آي تي تكنولوجي ريفيو العربية)
(منصة إم آي تي تكنولوجي ريفيو العربية) 
(منصة بوبيولار ساينس - العلوم للعموم)
(منصة بوبيولار ساينس - العلوم للعموم)
Facebook
 
Twitter
 
Linkedin
 
Youtube
 
Instagram