نظام للتعرف المباشر على الوجوه يتعقب صغار السن من المشتبهين

4 دقائق
نظام للتعرف المباشر على الوجوه يتعقب صغار السن من المشتبهين
مصدر الصورة: إم إس تك عبر غيتي إيميدجيز
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

أسست الأرجنتين قاعدة بيانات وطنية، تتضمن الآلاف من السجلات للمشتبه بهم في ارتكاب الجرائم، مع تفاصيل مثل الأسماء وتواريخ الولادة والأرقام الوطنية. تُعرف القاعدة باسم السجل الوطني للفارّين والمعتقلين، أو كونارك (CONARC) اختصاراً، وقد تم تأسيسها عام 2009 في إطار محاولة عامة لتحسين التعامل مع الجرائم الخطيرة.

ولكن قاعدة البيانات هذه تعاني من عدة مشاكل؛ ففي البداية، لا تتجاوز قاعدة البيانات هذه مجرد كونها ملف جدول عادي من البيانات النصية غير محميّ بكلمة مرور، ويمكن العثور عليها عبر محرك البحث جوجل، وتحميلها من قبل أي شخص كان. كما تتضمن هذه البيانات مجموعة كبيرة من الجرائم التي لا تعد ذات أهمية بالغة، مثل السرقات الصغيرة، في حين أن بعضها الآخر غير محدد على الإطلاق.

غير أن الأمر الأكثر إثارة للقلق هو عمر أصغر هؤلاء المجرمين، والمعروف ضمن قاعدة البيانات هذه باسم M.G وحسب، ويضم سجله “جرائم خبيثة ضد الأشخاص، نجم عنها إصابات خطيرة”. ولد M.G على ما يبدو في 17 أكتوبر 2016، أي أن عمره لا يتجاوز السنوات الأربع.

والآن، وجد تحقيق جديد من منظمة هيومان رايتس ووتش (مراقبة حقوق الإنسان) أن الأطفال يُضافون بانتظام إلى كونارك، بل وإن كونارك تستخدم لتغذية نظام تعرف مباشر على الوجوه في بوينس آيرس، وهو نظام قامت حكومة المدينة بتركيبه. وهو ما يجعل من هذا النظام، على الأرجح، أول نظام من نوعه يُستخدم لتعقب مشتبهين من الأطفال.

تقول هي جونغ هان، وهي مستشارة لحقوق الأطفال في هيومان رايتس ووتش، وقائدة هذا البحث: “إنه أمر مثير للاشمئزاز”.

بدأت بوينس آيرس بتجربة التعرف المباشر على الوجوه لأول مرة في 24 أبريل، 2019؛ حيث تم تنجيز النظام من دون أية استشارات أو اعتبار لوجهة النظر الشعبية، وأثار معارضة فورية ضده. وفي أكتوبر، قامت منظمة وطنية للحقوق المدنية برفع دعوى قضائية للاعتراض عليه. واستجابة لهذه الدعوى، قامت الحكومة بوضع مشروع قانون جديد، وهو الآن يمر في القنوات التشريعية المعتادة، ويسمح باستخدام التعرف على الوجوه في الأماكن العامة.

صُمم النظام بحيث يتصل مع كونارك منذ البداية. وعلى الرغم من أن كونارك نفسها لا تتضمن أي صور للمشبوهين، إلا أنها مدموجة مع صور بطاقات الهوية الشخصية من السجل الوطني. يستخدم البرنامج صور وجوه المشبوهين لمسح وجوه المارة باستخدام كاميرات محطات قطار الأنفاق في الزمن الحقيقي للبحث عن التطابقات. وما أن يلتقط النظام أحد المشبوهين، حتى يقوم بإنذار الشرطة لكي تعتقله.

وقد تسبب النظام منذ تشغيله في العديد من عمليات الاعتقال الخاطئة (محتوى الروابط باللغة الإسبانية)، التي لا تمتلك الشرطة أي بروتوكول مُعتمد أو طريقة معتمدة للتعامل معها. وعلى سبيل المثال، اعتُقل رجل نتيجة خطأ وقع في تحديد هويته، وسُجن لمدة ستة أيام، وكان على وشك أن يُنقل إلى سجن مشدد الحراسة قبل أن يتمكن أخيراً من إثبات هويته. وقيل لرجل آخر أنه يجب أن يتوقع أن يلتقطه النظام بشكل خاطئ مرات عديدة في المستقبل، على الرغم من أنه أثبت أنه ليس الشخص الذي تبحث عنه الشرطة. ولمساعدته على تجاوز هذه المشكلة، مُنح وثيقة يمكنه إبرازها لأي ضابط يمكن أن يوقفه لاحقاً.

تقول هان: “يبدو أنه ليس هناك أي آلية لتصحيح الأخطاء، سواء في الخوارزمية أو في قاعدة البيانات. وهو ما يشير إلى أن هذه الحكومة حصلت على تكنولوجيا لا تفهمها بشكل جيد من حيث مضامينها الفنية أو تداعياتها على حقوق الإنسان”.

هذه الأسباب وحدها كافية لإثارة القلق، ولكن إضافة الأطفال إلى هذه المعادلة يجعل من الأمور أسوأ بكثير. وعلى الرغم من أن الحكومة نفت بشكل علني وجود القاصرين في كونارك، فقد وجدت هيومان رايتس ووتش 166 طفلاً على الأقل ضمن نسخ متنوعة من قاعدة البيانات ما بين مايو 2017 ومايو 2020. وخلافاً للطفل M.G، فإن معظمهم معرّفون بالاسم الكامل، وهو أمر مخالف للقانون؛ ففي القانون الدولي لحقوق الإنسان، يجب حماية خصوصية الأطفال المتهمين بجرائم أثناء الإجراءات القانونية.

وأيضاً خلافاً للطفل M.G، كان معظم القاصرين بعمر 16 أو 17 سنة عندما سُجلوا في قاعدة البيانات، على الرغم من الوجود الغامض لبعض الأطفال من عمر سنة إلى ثلاث سنوات! يبدو أن الأخطاء المتعلقة بسجلات الأطفال لا تقتصر فقط على الأعمار، فهناك أخطاء طباعية فاضحة، وتفاصيل متضاربة، وفي بعض الأحيان، عدة أرقام وطنية مرتبطة بنفس الشخص. ونظراً للتغير الجسدي السريع للأطفال مقارنة مع البالغين، فإن صور بطاقات الهوية الشخصية قد تكون غير معبرة بشكل صحيح عنهم.

إضافة إلى ذلك، فإن أنظمة التعرف على الوجوه -حتى في ظروف مخبرية مثالية- مشهورة بضعفها في التعامل مع الأطفال، لأنها دُربت واختُبرت بشكل أساسي باستخدام صور للبالغين. وليس نظام بوينس آيرس بحالة مختلفة؛ فوفقاً لوثائق رسمية (محتوى الرابط باللغة الإسبانية)، تم اختبار النظام على وجوه موظفي حكومة المدينة قبل اعتماده رسمياً، وهم جميعاً بطبيعة الحال من البالغين. وتشير اختبارات حكومية سابقة للخوارزمية -التي يُعتقد أن هذا النظام يستخدمها- إلى أن أداءه يصبح أسوأ بستة أضعاف عند التعرف على صور الأطفال (بأعمار 10 إلى 16 سنة) مقارنة بالبالغين (24 إلى 40 سنة).

بسبب كل هذه العوامل، يجد الأطفال أنفسهم في خطر كبير بسبب ارتكاب الأخطاء في تحديد الهوية والاعتقال، وهو ما يمكن أن يؤدي إلى فتح سجلات إجرامية لا أساس لها من الصحة، ما يمكن أن يؤثر لاحقاً على فرص التعليم والتوظيف. بل يمكن حتى أن يؤثر على سلوكهم.

تقول هان: “إن تأثير أنظمة التعرف على الوجوه على حرية التعبير أكثر وضوحاً وشدة في حالة الأطفال. ويمكن أن نتخيل بسهولة أن الطفل الذي اعتُقل بالخطأ سيمارس رقابة ذاتية شديدة على نفسه، ويصبح حذراً للغاية حول سلوكه بين الآخرين. وما زال من المبكر محاولة تحديد الآثار النفسية بعيدة الأمد، وتأثير هذه المشكلة على نظرتهم إلى العالم وعلى عقليتهم أيضاً”.

وعلى الرغم من أن بوينس آيرس هي أول مدينة اكتشفت فيها هان استخدام التعرف المباشر على الوجوه لتعقب الأطفال، فإنها تشعر بالقلق من وجود حالات أخرى غير معروفة؛ ففي يناير، أعلنت لندن أنها ستقوم بإدماج التعرف المباشر على الوجوه في عملياتها الشرطية. وبعد ذلك بعدة أيام، قالت موسكو إنها أطلقت نظاماً مشابهاً في جميع أنحاء المدينة.

وعلى الرغم من أنه ليس من المؤكد ما إذا كانت هذه الأنظمة تتعقب الأطفال بشكل نشط، فإن تأثيراتها عليهم بدأت تظهر؛ ففي الفيلم الوثائقي: التحيز البرمجي (Coded Bias)، الذي صدر هذا العام، اعتقلت شرطة لندن صبياً بعد أن أخطأ نظام التعرف المباشر على الوجوه في تحديد هويته. وليس من الواضح ما إذا كانت الشرطة تبحث فعلياً عن قاصر أو بالغ.

وحتى هؤلاء الذين لا يتعرضون للاعتقال، يفقدون الحق في الخصوصية، كما تقول هان: “يمر جميع الأطفال أمام كاميرات التعرف على الوجوه فقط حتى يستطيعوا استخدام قطار الأنفاق”.

من السهل أن ننسى في خضم الجدل حول هذه الأنظمة أن الأطفال يحتاجون إلى عناية خاصة. ولكن، وكما تضيف هان، ليس هذا السبب الوحيد الذي يثير القلق: “إن مجرد إخضاع الطفل لهذه المراقبة المشددة أمرٌ خطير، ومن الصعب تحديد كامل الآثار الاجتماعية والمتعلقة بحقوق الإنسان لهذه التكنولوجيا”. وباختصار، فإن ما يضر بالأطفال سيضر بالجميع في نهاية المطاف.