يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
دعوة أممية لوقف استخدام تكنولوجيا الذكاء الاصطناعي التي "تهدد" حقوق البشر
دعت مفوضة الأمم المتحدة السامية لحقوق الإنسان، ميشيل باشيليت، يوم أمس لوقف استخدام تقنيات الذكاء الاصطناعي التي قد تمثل خطورة كبيرة على حقوق الإنسان. وقالت باشيليت، في بيان، إنه ينبغي على الدول أن تحظر علناً تطبيقات الذكاء الاصطناعي التي لا تتفق مع القانون الدولي لحقوق الإنسان.
وتشمل التطبيقات التي يجب حظرها وفقاً لباشيليت أنظمة الحكومات "للتقييم الاجتماعي" التي تحكم على الناس بناء على سلوكهم، بالإضافة إلى أدوات معينة مبنية على الذكاء الاصطناعي تصنف الناس تبعا لمجموعات كالعرق أو النوع. واعتبرت باشيليت أن التكنولوجيات القائمة على الذكاء الاصطناعي قد تكون "قوة من أجل الخير"، لكنها قد تحمل "آثارا سلبية أو حتى كارثية إن استخدمت دون اعتبار كاف لكيفية تأثيرها على حقوق الإنسان".
ولم تدع باشيليت لحظر صريح لتكنولوجيا التعرف على الوجوه، لكنها قالت إنه ينبغي على الحكومات وقف فحص سمات الناس بشكل مباشر حتى يمكنها أن تتأكد من دقة التكنولوجيا ومن أنها لن تميز بينهم وتفي بمعايير محددة لحماية الخصوصية والبيانات.
الرابط
ولاية أسترالية تختبر أداة ذكاء اصطناعي مصممة للتنبؤ بحوادث العنف المنزلي ومنعها
تستعد شرطة ولاية كوينزلاند الأسترالية لبدء تجربة نظام ذكاء اصطناعي لتحديد مرتكبي جرائم العنف المنزلي الخطرين للغاية. وينوي الضباط استخدام البيانات لـ "طرق الأبواب" قبل أن تتصاعد الأزمات بشكل خطير. وتستخدم الأداة الجديدة بيانات من النظام الحاسوبي (Qprime) الخاص بالشرطة، لاستحداث طريقة لتقييم المخاطر التي يمثلها جميع مرتكبي جرائم العنف المنزلي والعائلي المحتملين. وقد تم تطوير الخوارزمية منذ حوالي ثلاث سنوات وستبدأ التجارب العملية في بعض دوائر الشرطة قبل نهاية العام الجاري.
وأوضح رئيس الشرطة بالإنابة بن مارتين: "لن ننتظر مكالمة هاتفية حتى تصل حادثة العنف المنزلي والعائلي إلى نقطة الأزمة. بدلاً من ذلك، ومع هذه المجموعة من الجناة الذين تخبرنا أدواتنا التحليلية التنبؤية أنه من المرجح أن يرتكبوا المزيد من حوادث العنف المنزلي، فإننا نطرق الأبواب بشكل استباقي دون أي استدعاء للخدمة".
وكانت العديد من القضايا البارزة في مجال العنف المنزلي والعائلي قد اتبعت أنماطاً مألوفة ومتوقعة من التصعيد، وهو ما عرض الشرطة لانتقادات بسبب إخفاقها في التعرف على هذه الأنماط والتدخل في الوقت المناسب. ويقول مارتين إن النظام الجديد سيمثل تحولاً نحو المزيد من السياسات الشرطية الوقائية، ولكن لن يمكن استخدامه كدليل في المحكمة.
بيد أن النشطاء المدافعون عن الخصوصية يشيرون إلى أن إحدى أكبر المخاوف المتعلقة بهذه التقنية هي إمكانية إنشاء "حلقة مفرغة" تعزز التحيز في البيانات التاريخية، بدلاً من مواجهتها، لاسيما في قضايا العنف المنزلي المعقدة. ويؤكدون على أن أي نموذج ذكاء اصطناعي "يجب أن يكون شفافاً" ويخضع لتقييم مستقل.
ولمواجهة هذه المخاوف يقول مارتين إن الشرطة طورت أداة مراقبة لمعالجة التحيز داخل النموذج، مضيفاً أنه بالنسبة إلى البرنامج التجريبي، أزالت الشرطة البيانات الأولية التي تتعلق مباشرة بالعرق والموقع الجغرافي قبل تدريب النموذج. كما أوضح أن الشرطة شاركت أيضاً في مشروع بحثي حول التخفيف من التحيز في مثل هذه الأنظمة، وهو ما من شأنه أن يضع إطاراً حول مراقبة النماذج وإدارتها قبل نشرها. وتابع أن "هذا النموذج لا يستهدف استبدال التقدير المهني للضباط، وإنما سيُستخدم للمساعدة في الوصول إلى قرارات أكثر استنارة من خلال تجميع البيانات النمطية والموضوعية".
الرابط (إنجليزي)
هل يمكننا التحكم في استخدام "الروبوتات القاتلة"؟
ثمة اعتقاد في الثقافة الشعبية بأن التقدم التكنولوجي سيدفعنا في نهاية المطاف نحو تطوير "روبوتات قاتلة"، تتمتع بقدرة على التفكير المستقل -على غرار سلسلة أفلام تيرميناتور (Terminator)- وفي مرحلة ما، ستثور هذه الروبوتات ضد البشر. تغذي هذه المخاوف تقارير إعلامية متزايدة بشأن محاولات تقوم بها بعض الدول لتطوير أنظمة أسلحة ذاتية التشغيل "تختار الأهداف وتستخدم القوة ضدها دون تدخل بشري".
وتثير الوتيرة السريعة للتطور التكنولوجي أسئلة ملحة حول ما إذا كان من المقبول قانونياً وأخلاقياً تفويض المسؤوليات الحاسمة من البشر إلى الآلات. وهل ستتمكن الخوارزميات من التمييز بين المدنيين والمقاتلين؟ وإذا ارتكب نظام سلاح ذاتي التشغيل جرائم حرب، فهل يمكن معرفة من المسؤول؟ وماذا يحدث إذا تم اختراق مثل هذا النظام أو انحرف عن الأهداف المحددة له؟
للوهلة الأولى، قد تبدو هذه الأسئلة سابقة لأوانها. ومع ذلك، فإن هذه القضية لم تعد مصدر قلق مستقبلي فقط. فالجيوش في جميع أنحاء العالم تعمل حالياً على تطوير واختبار واستخدام "الذكاء الاصطناعي المُسلح"، بالإضافة إلى دمج ميزات مؤتمتة وذاتية التشغيل في الأنظمة الدفاعية والذخائر الموجهة وحتى المركبات التي تعمل تحت الماء.
وتُظهر الطرق التي تُستخدم بها أنظمة الدفاع الجوي، على سبيل المثال، أنه أصبح من الطبيعي بشكل متزايد تفويض المهام -مثل قرارات الاستهداف- بعيداً عن الرقابة البشرية. بيد أن تضاؤل السيطرة البشرية على أنظمة الأسلحة لا يمثل فقط مشكلة أخلاقية، ولكنه أيضاً مصدر قلق أمني، نظراً لعدم القدرة على التنبؤ بقدرات الذكاء الاصطناعي وقضايا معالجة البيانات.
كما تراقب الدول الرائدة في مجال الذكاء الاصطناعي عن كثب القدرات التكنولوجية لبعضها البعض وتسعى إلى تطويرها، ما يشجع المنافسة الاستراتيجية في مجال الذكاء الاصطناعي العسكري. وثمة دول، مثل الصين وروسيا، تعلن صراحة نواياها لاستخدام الذكاء الاصطناعي والأتمتة بشكل متزايد في قواتها الدفاعية.
وفي ظل عدم وجود قواعد دولية لإدارة هذه المخاطر والتخفيف منها، اكتسبت هذه القضية مكانة بارزة في الأمم المتحدة. ومنذ عام 2014، يجتمع الخبراء في جنيف لمناقشة التحديات التي تفرضها أنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS). وفي عام 2019، اعتمدت الأطراف الموقعة على اتفاقية الأسلحة التقليدية المعينة (CCW) أحد عشر مبدأ توجيهياً بشأن أنظمة الأسلحة الفتاكة ذاتية التشغيل، إلا أنها لا تزال مبادئ عامة ولا تتمتع بمركز قانوني.
وتدفع مجموعة من الدول -بما فيها النمسا والبرازيل والفلبين- من أجل إقرار اتفاق ملزم قانوناً يحظر استخدام وتطوير هذا النوع من الأسلحة، بينما تجادل دول أخرى -مثل المملكة المتحدة والولايات المتحدة وروسيا- بأن القانون الإنساني الدولي القائم كافي لتدارك المخاطر في الوقت المناسب.
الرابط (إنجليزي)
|