Article image

مصدر الصورة: مارتن بيورك – أنسبلاش
Article image
مصدر الصورة: مارتن بيورك – أنسبلاش

الآلات الذكية حب

التعلم الآلي يكشف عن مستويات تثير القلق من المضايقات والإساءات ونشر الكراهية ضد النساء والأقليات في تويتر.

قد يتحول تويتر إلى مكان يفوح بسموم الحقد. ففي السنوات الأخيرة، أدى انتشار التحريض على الكراهية والمضايقة على الموقع إلى جعله مكاناً يمثل تجربة سيئة للكثيرين، خصوصاً النساء والأقليات. ولكن ليس من السهل كشف هذه الإساءات وإيقافها آلياً بشكل دقيق وموثوق؛ وذلك لأن الآلات ما تزال ضعيفة في مسألة التجاوب بشكل جيد مع التواصل البشري، على الرغم من كل التطورات الجديدة. وعلى سبيل المثال، قد يجد الذكاء الاصطناعي صعوبة بالغة في كشف الرسائل المسيئة إذا كانت مكتوبة بصيغة تهكمية أو مموهة ببعض الكلمات الإيجابية.

وقد اعتمدت دراسة جديدة على أحدث أساليب التعلم الآلي في محاولة لرسم صورة أكثر دقة عن مستوى المضايقات على تويتر وانتشارها، وقد أكد التحليل ما كان يشتبه فيه الكثيرون من قبل، وهو أن الصحافيين والسياسيين من النساء والأقليات يتعرضون إلى مقدار هائل من الإساءات على المنصة.

وقد أُجريت الدراسة بالتعاون بين منظمة العفو الدولية والشركة الكندية إيليمينت إيه آي، وتظهر أن السياسيات والصحافيات أفريقيات الأصل يتعرَّضن للذكر في تغريدات مسيئة أو “مثيرة للمشاكل” بنسبة 84% أكثر من قريناتهن من النساء من العرق الأبيض.

يقول جوليان كورنيبيسي (مدير الأبحاث في إيليمينت إيه آي في لندن، وهو مكتب يركز على التطبيقات الإنسانية للتعلم الآلي): “إنه أمر مثير للغضب ببساطة، فهؤلاء النساء يمثلن جزءاً هاماً من المجتمع”.

استخدم باحثو إيليمينت إيه آي أولاً أداة تعلم آلي شبيهة بما يستخدم لتصنيف البريد الإلكتروني المزعج، وذلك لكشف التغريدات المسيئة. ومن ثم قاموا بإعطاء مجموعة من المتطوعين مزيجاً من التغريدات المصنَّفة التي لم يروها من قبل، وذلك بغرض تصنيفها. وتم استخدام التغريدات المصنفة على أنها مسيئة لتدريب شبكة تعلم عميق؛ وكانت النتيجة أن النظام استطاع تصنيف الإساءة بدقة عالية، وفقاً لكورنيبيسي.

وقد ركز المشروع على التغريدات المرسلة إلى السياسيات والصحافيات، وتضمَّنت الدراسة 6,500 متطوع من 150 بلداً ساعدوا على تصنيف 228,000 تغريدة مرسلة إلى 778 من السياسيات والصحافيات في المملكة المتحدة والولايات المتحدة في 2017.

وتضمن البحث دراسة التغريدات المرسلة إلى عضوات من البرلمان البريطاني والكونجرس ومجلس الشيوخ الأميركي، إضافة إلى صحافيات من منشورات مثل دايلي ميل، وجال ديم، وذا جارديان، وبينك نيوز، وذا سن في المملكة المتحدة، ونيويورك تايمز في الولايات المتحدة.

واكتشفت الدراسة إرسال 1.1 مليون تغريدة مسيئة إلى 778 امرأة في هذه الفترة، وهو ما يكافئ تغريدة واحدة كل 30 ثانية، كما وجدت الدراسة أيضاً أن 7.1% من مجمل التغريدات الموجهة إلى هذه النساء كانت مسيئة. وقد قام الباحثون المشرفون على الدراسة أيضاً بإطلاق أداة تسمى ترول باترول، لاختبار ما إذا كانت تغريدة ما تعتبر مصدر مضايقة أو إساءة.

وعلى الرغم من أن التعلم العميق يمثل تطوراً كبيراً بالنسبة للطرائق المستخدمة حالياً لتحديد الإساءات، إلا أن الباحثين يحذرون من أن التعلم الآلي أو الذكاء الاصطناعي لن يكون كافياً لكشف التحريض على الكراهية طوال الوقت، حيث يقول كورنيبيسي إن الأداة تعمل في أغلب الأحيان بشكل يضاهي المراقبين البشر، ولكنها أيضاً عرضة للخطأ، “وما زال الإشراف البشري إلى حد ما مطلوباً في المستقبل المنظور”.

ولطالما تعرضت شركة تويتر للانتقادات الحادة لعدم اتخاذ إجراءات إضافية لمراقبة منصتها، وتقول ميلينا مارين (التي عملت على المشروع في منظمة العفو الدولية) إن على الشركة أن تكون شفافة على الأقل فيما يتعلق بأساليبها المستخدمة للمراقبة، وتقول: “إن برنامج ترول باترول لا يهدف إلى مراقبة تويتر أو إجباره على إزالة شيء من المحتوى”. ولكنها تحذر قائلة: “يجب على شركة تويتر أن تبدأ بإظهار الشفافية حول كيفية استخدامها التعلم الآلي لكشف الإساءات، ونشر المعلومات التقنية حول خوارزمياتها التي تعتمد عليها”.

واستجابة للتقرير، أشارت فيهايا جاد (المسؤولة القانونية في تويتير) إلى مشكلة كشف الإساءات وتحديدها، كما تقول في تصريح: “لا بد من الإشارة إلى أن مفهوم المحتوى المثير للمشاكل والمستخدم في تصنيف المحتوى ما زال في حاجة إلى المزيد من النقاش، ونحن نعمل بجد على بناء قواعد يمكن تطبيقها بشكل شامل، وبدأنا باستشارة العموم في إطار هذه العملية”.

المزيد من المقالات حول الآلات الذكية

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!