اشترك

الاستمرار بالحساب الحالي

شارك
شارك
Article image
تسلسل زمني للأحداث التقنية التي أثارت تساؤلات أخلاقية، تم تقديمه خلال افتتاح ندوة الذكاء الاصطناعي الآن للعام 2018.
مصدر الصورة: فارون ماثور/ معهد الذكاء الاصطناعي الآن للأبحاث



الأمر أكثر صعوبة مما يظنه الناس، فالأخلاق ليست بالموضوعية الكافية التي تُجيز الاسترشاد بها عند استخدام الذكاء الاصطناعي.

2021-07-29 15:18:54

05 نوفمبر 2018
قامت إدارة شرطة مدينة نيويورك على مدى السنوات الست الماضية بتجميع قاعدة بيانات ضخمة لأسماء وتفاصيل شخصية تخص 17,500 فرد على الأقل تعتقد أنهم متورطون في عصابات إجرامية، وتم انتقاد هذه الجهود من قِبل ناشطي الحقوق المدنية بأنها -حسب زعمهم- غير دقيقة، وتتصف بالتمييز العنصري. وقد قالت شيرلين إيفل (رئيسة صندوق الدفاع القانوني للجمعية الوطنية للنهوض بالملوّنين NAACP والمستشارة الإدارية فيه) خلال ندوة "الذكاء الاصطناعي الآن" التي أقيمت في 16 أكتوبر الماضي في نيويورك: "تخيل الآن أن تقترن تقانة التعرف على الوجوه مع تطوير قاعدة بياناتٍ تفترض نظرياً أنك عضوٌ في عصابة ما". يؤكد كلٌّ من المحامين والناشطين والباحثين على الحاجة إلى الأخلاق والمساءلة في عملية تصميم وتنجيز أنظمة الذكاء الاصطناعي، إلا أن هذا الرأي غالباً ما يتجاهل سؤالين مثيرين للجدل: مَن يملك الحق في تعريف هذه الأخلاقيات؟ ومن يفترض به أن يضعها موضع التنفيذ؟ شيرلين إيفل (صندوق الدفاع القانوني للجمعية الوطنية للنهوض بالملوّنين)، تيمنيت جيبرو (جوجل)، ونيكول أوزر (الاتحاد الأميركي للحريات المدنية) في جلسة حوارية خلال ندوة الذكاء الاصطناعي الآن للعام 2018. لا يقتصر الإشكال على القصور في التعرف على الوجوه؛ إذ كشفت دراساتٌ عن كون البرمجيات الرائدة في هذا المجال أقل دقة في التعرف حين يتعلق الأمر بالأفراد والنساء من ذوي البشرة الملونة. ووفقاً لتقديرات إيفل فإن قاعدة بيانات الشرطة تتضمن بنسبة تتراوح من 95% إلى 99% منها أفراداً أميركيين من أصل أفريقي، ولاتينيين، وأميركيين من أصل آسيوي. تقول إيفل: "نحن نتحدث عن إنشاء فئة جديدة من الأشخاص (الملونين) يحملون وسوماً تشير إلى أنهم

ادخل بريدك الإلكتروني واقرأ هذا المقال مجاناً.

أو اشترك الآن واستفد من العرض الأقوى بمناسبة اليوم الوطني السعودي.
25% على الاشتراكات السنوية في مجرة.