X
Article image

Article image

الآلات الذكية حب

ما زالت الفيديوهات المصطنعة الخبيثة محدودة الانتشار، ما يمنح الشركات التكنولوجية العملاقة فرصة لمنع تزييف المعلومات لاحقاً. ولكنه لن يصلح فيضان الأخبار المزيفة الذي نعاني منه الآن.

هناك فرصة نادرة أمام شركات التكنولوجيا حتى تتعامل مع المواد “عميقة التزييف” – وهي مقاطع الفيديو والصوت التي قام الذكاء الاصطناعي بتشكيلها – قبل أن تصبح مشكلة واسعة الانتشار، وذلك وفقاً للناشط في مجال حقوق الإنسان سام جريجوري.

ولكنه يحذر بأن هذه الشركات ما زالت مقصّرة إلى حد بعيد في مواجهة مشكلة أخرى أكثر انتشاراً وأفدح ضرراً، وهي المعلومات المزيفة الأقل دقة، أو كما يقول التعبير: “ضحلة التزييف”.

يعمل جريجوري كمدير للبرامج في ويتنس، والتي تركز على استخدام الفيديو فيما يتعلق بحقوق الإنسان، إما من قبل الناشطين والضحايا لكشف المعاملة السيئة، أو من قبل السلطات لقمع الحركات المناوئة. تحدث جريجوري مؤخراً في إيمتيك ديجيتال، وهو حدث تنظمه إم آي تي تكنولوجي ريفيو، وقد قال إن التزييف الضحل الذي نراه حالياً يمثل “هدوء ما قبل العاصفة”.

قال جريجوري: “لم تصبح الوسائل الإعلامية ذات المحتوى المصطنع واسعة الانتشار من حيث الاستخدام بعد، حيث أن أدواتها لم تصبح قابلة للنقل، ولم تتحول بعد إلى منتجات تجارية”. ويكمل جريجوري قائلاً إن هذه اللحظة تمثل فرصة فريدة بالنسبة لمبتكري التزييف العميق لتأسيس وسائل لمحاربته قبل أن تتمكن أطراف خبيثة من استخدام هذه التكنولوجيا على نطاق واسع: “يمكننا أن نكون مبادرين ومرنيين في التعامل مع هذا الخطر الذي يهدد الجميع ويمثل مشكلة بالنسبة للنظام البيئي للمعلومات. يمكننا أن نستعد منذ الآن بدلاً من أن نصاب بالذعر”.

ولكن، وعلى الرغم من أن التزييف العميق ما زال نوعاً ما في بدايته وبعيداً عن الاستخدام العام، يوجد فيض كبير من تزييف المعلومات، وهي مسألة لم تجد حلاً حتى الآن. لا تعتمد المعلومات المزيفة الحالية على الذكاء الاصطناعي أو التكنولوجيات المعقدة عموماً، بل تقوم في أغلب الأحيان على حيل بسيطة مثل تغيير تنصيف وعنونة المحتوى للإساءة إلى الناشطين أو نشر المعلومات المغلوطة، وهي حيلة يمكن أن تكون مدمرة التأثير، وقد تصل أحياناً إلى العنف والقتل، كما حدث في ميانمار.

قال جريجوري: “ما أعنيه بالتزييف العميق عشرات الآلاف من مقاطع الفيديو التي تم نشرها بنية خبيثة على مستوى العالم، والتي أنتِجت بدون الاعتماد على ذكاء اصطناعي معقد، بل تم في أغلب الأحيان تغيير توصيفها وإعادة تحميلها، بحيث تدعي مثلاً أن حدثاً ما وقع في مكان آخر”. وعلى سبيل المثال، فقد استُخدم مقطع فيديو لشخص يتعرض للحرق حياً مرات متعددة، ونسب إلى أطراف في ساحل العاج، وجنوب السودان، وكينيا وبورما، “وساهم في إشعال العنف في كل مرة”.

من التهديدات الأخرى تزايد انتشار الفكرة القائلة بأنه لا يمكننا أن نثق بأي شيء نراه، وهي كما قال جريجوري “خاطئة ببساطة في أغلب الأحيان”. ويمثل انتشار هذه الفكرة “خبراً ساراً بالنسبة لكل أصحاب السلطة والقمع في أنحاء العالم”. وأضاف: “إن الرواية التي تتسم بالتحذير والرعب لا تفعل شيئاً سوى تعزيز الأخطار الحقيقية التي نواجهها، أي إمكانية الإنكار وانهيار الثقة”.

يشغل مارك لاتونيرو منصب مسؤول حقوق الإنسان في داتا أند سوسايتي، وهي مؤسسة لا ربحية مكرسة لتطبيقات البيانات، وهو يوافق على الفكرة القائلة بأنه يجب على شركات التكنولوجيا أن تبذل المزيد من الجهود لمواجهة هذه المشاكل. ويقول إنه على الرغم من أن مايكروسوفت وجوجل وتويتر وغيرها قامت بتوظيف أشخاص مختصين بالتركيز على حقوق الإنسان، فيجب على هذه الشركات أن تفعل أكثر من ذلك قبل تطبيق هذه التكنولوجيا، لا بعده.

قال لاتونيرو: “الآن، حان الوقت بالنسبة للشركات والباحثين وغيرهم لبناء صلات وثيقة مع المجتمع المدني، والمكاتب الحكومية المختلفة التي يمكن أن تصل المنتجات إليها. يجب عليهم أن يتواصلوا مع الناس الأقرب إلى هذه المسائل في هذه البلدان، وبناء هذه التحالفات بأسرع وقت ممكن. وعندما يقع خطب ما –وهو ما سيحدث لا محالة- سيكون لدينا أساس من التعاون وتبادل المعرفة الضروري لحل هذه المشاكل”.

المزيد من المقالات حول الآلات الذكية

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!