اشترك

الاستمرار بالحساب الحالي

شارك
شارك


استخدام البيانات التاريخية لتدريب أدوات تقييم المخاطر قد يؤدي إلى تكرار الآلات لأخطاء الماضي.

2021-07-29 14:08:16

28 يناير 2019
Article image

ربما لن يكون أثر الذكاء الاصطناعي على البشر كبيراً إذا اقتصر الأمر على خوارزميات تعلم الآلة في فيسبوك أو محرك البحث جوجل. لكن في مؤتمر "البيانات من أجل حياة السود" (Data for Black Lives) الذي انعقد مؤخراً في أميركا، سلّط مختصون بالتكنولوجيا وخبراء قانونيون ونشطاء مجتمعيون الضوء على أن الأمور قد تكون مختلفة، حيث ناقشوا نظام القضاء الجنائي الأميركي. وفي نظام القضاء المذكور، يمكن للخوارزميات أن تحدد مسار حياة المرء وإمكانية إقباله على ارتكاب الجريمة. تقوم الولايات المتحدة بسجن أشخاص أكثر من أية دولة في العالم. ففي نهاية عام 2016 كان نحو 2.2 مليون شخص بالغ وراء القضبان وفي مراكز الشرطة، فضلاً عن 4.5 مليون نسمة في مؤسسات إصلاحية أخرى. أي أن 1 من كل 38 شخصاً أميركياً بالغاً يخضع لشكل من أشكال الإصلاح والتأهيل. وتحت ضغوط كبيرة لتقليل الأعداد دون المخاطرة بزيادة معدلات الجريمة، التفتت المحاكم الأميركية إلى أدوات مؤتمتة في محاولة للتعامل مع المدعى عليهم عبر نظام قانوني أعلى كفاءة وأكثر أماناً قدر الإمكان. وهنا يأتي دور الذكاء الاصطناعي. تستخدم مراكز الشرطة خوارزميات تنبؤية للتخطيط للمناطق التي يجب إرسال أعوان الشرطة إليها. وتستخدم هيئات إنفاذ القانون تقنيات التعرف على الوجه لتحديد المشتبه به. رافقت هذه الممارسات انتقادات وتساؤلات حول ما إذا كانت تحسن الإجراءات الأمنية أم أنها تكرر أوجه انعدام المساواة القائمة بالفعل. ولقد تكرر إظهار الباحثين والمدافعين عن الحقوق

أدخل بريدك الإلكتروني واقرأ المقال مجاناً

أنشئ حساباً مجاناً واقرأ مقالتين مجاناً كل شهر من أوسع تشكيلة محتوى أنتجته ألمع العقول العالمية والعربية.