Article image
مصدر الصورة: فيسبوك



صممت مقاطع الفيديو هذه للمساعدة على تحسين أداء الذكاء الاصطناعي، حيث إن حتى أفضل الطرق ما تزال أقل دقة من اللازم.

2020-06-15 10:07:39

15 يونيو 2020

ضربت المواد عميقة التزييف وتراً حساساً لدى العامة والباحثين على حد سواء؛ حيث إن هذه الصور التي يُولدها الذكاء الاصطناعي، والتي يظهر فيها الناس وهم يقولون أو يفعلون شيئاً غير حقيقي، تثير نوعاً مميزاً من الريبة والاضطراب.

ومع انتشار أدوات تشكيل المزيفات العميقة على نطاق واسع، وسهولة استخدامها نسبياً، أصبح الكثيرون قلقين من أنها ستُستخدم لنشر المعلومات المزيفة بشكل خطير. والآن، وعلى سبيل المثال، يمكن أن يظهر السياسيون وهم يقولون أشياء لم يقولوها، أو يشاركون في أوضاع لا علاقة لهم بها.

على الأقل، هذا ما يُخشى منه. بالنسبة للعين البشرية، فإن المزيفات البشرية ما زالت سهلة الكشف في الواقع. وفقاً لتقرير من شركة الأمن السيبراني ديب تريس لابز في أكتوبر 2019 -الذي ما زال الأكثر شمولية حتى تاريخه- لم تُستخدم المزيفات العميقة في أية حملة تزييف معلومات. غير أن ذات التقرير يفيد أيضاً بأن عدد المزيفات العميقة المنشورة على الإنترنت كان يزداد بسرعة، حيث ظهر منها ما يصل إلى 15,000 في الأشهر السبعة الماضية. ومن المرجح أن يكون هذا الرقم قد ازداد إلى درجة كبيرة الآن.

تشعر شركات التواصل الاجتماعي بالقلق من اكتساح المزيفات العميقة لمواقعها في القريب العاجل. ولكن كشفها آلياً مسألة صعبة. وللتعامل مع هذه المشكلة، تريد فيسبوك أن تستخدم الذكاء الاصطناعي لمكافحة المزيفات التي وُلدت باستخدام الذكاء الاصطناعي. ولتدريب أنظمة الذكاء الاصطناعي على كشف مقاطع الفيديو التي تم التلاعب بها، أطلقت الشركة أضخم مجموعة من المزيفات العميقة، التي تضم أكثر من 100,000 مقطع فيديو، تم إنتاجها بالاستعانة بما يصل إلى 3,426 ممثلاً ومجموعة من الأساليب الحالية لتبديل الوجوه.

يقول مايك شروبفر، رئيس قسم التكنولوجيا في فيسبوك: “لا تمثل المزيفات العميقة حالياً مشكلة كبيرة. ولكنني تعلمت في السنوات القليلة الماضية درساً عصيباً، وهو ألا أسمح لنفسي أن أقع ضحية مفاجأة غير محسوبة. أريد أن نكون مستعدين تماماً للأشياء السيئة التي يمكن ألا تحدث، بدلاً من ألا نكون مستعدين للأشياء السيئة التي يمكن لها أن تحدث”.

أعلنت فيسبوك أيضاً عن الفائز بالتحدي الذي أطلقته لكشف التزييف العميق، حيث قدم 2,114 مشاركاً حوالي 35,000 نموذج مدرب على قاعدة بياناتها. قدم سيليم سيفيربيكوف، وهو مهندس تعلم آلي في شركة المسح ماب بوكس، أفضل نموذج في المسابقة؛ حيث تمكن من كشف التزييف العميق في مقاطع الفيديو بدقة 65% عند اختباره على مجموعة من 10,000 لم تُرَ من قبل، بما فيها مجموعة مختلطة من مقاطع جديدة أنتجتها فيسبوك، وأخرى مأخوذة عن الإنترنت.

ولزيادة صعوبة التحدي، تضمنت مجموعة التدريب ومجموعة الاختبار مقاطع قد تتسبب في إرباك نظام الكشف، مثل الأشخاص الذين يعطون دروساً تدريبية في التبرج، ومقاطع عُدلت بإضافة نصوص وأشكال فوق وجوه المتحدثين، أو تغيير الدقة أو توجه التصوير في المقطع، أو إبطائه.

وبدلاً من الاعتماد على الأساليب التي تعتمد على الأدلة، مثل البحث عن البصمات الرقمية التي تركتها عملية التزييف في بيكسلات الفيديو، فقد اعتمدت أفضل خمسة نماذج فيما يبدو- على كشف التزييف العميق عن طريق البحث عن “شيء خاطئ المنظر” في الفيديو، تماماً كما يفعل البشر.

لتحقيق هذا، استخدم جميع الفائزين نوعاً جديداً من الشبكات العصبونية الالتفافية (CNN) التي طورها باحثو جوجل في السنة الماضية، والتي تسمى أيضاً بالشبكات الفعالة. عادة ما تُستخدم الشبكات العصبونية الالتفافية لتحليل الصور، وهي تحقق نتائج جيدة في كشف الوجوه أو التعرف على الأشياء. غير أن تحسين دقتها حتى تتجاوز عتبة معينة يمكن أن يحتاج إلى الكثير من عمليات التعديل الإضافية. تؤمن الشبكات الفعالة وسيلة ذات هيكلية أكثر وضوحاً للتعديل، ما يزيد من سهولة تطوير النماذج الدقيقة. ولكن، ما السبب الفعلي الذي يجعلها تتفوق في الأداء على الشبكات العصبونية الأخرى في هذه المهمة؟ يقول سيفيربيكوف إن هذا السبب ليس واضحاً تماماً.

لا تخطط فيسبوك لاستخدام أي من النماذج الفائزة على موقعها؛ حيث إن 65% ليست بالدقة الكافية للاستخدام العملي. حققت بعض النماذج دقة تتجاوز 80% مع بيانات التدريب، ولكنها تراجعت عند استخدامها مع مقاطع جديدة. يقول سيفيربيكوف إن تعميم العمل إلى المقاطع الجديدة -التي يمكن أن تتضمن وجوهاً مختلفة استُبدلت باستخدام أساليب مختلفة- هو المرحلة الأكثر صعوبة في التحدي.

ويعتقد أنه يمكن تحسين دقة الكشف بالتركيز على الانتقال بين اللقطات الإفرادية في الفيديو، وتتبعها مع الوقت. يقول سيفيربيكوف: “يوجد شيء من الارتعاش بين اللقطات الإفرادية في الفيديو، حتى في المزيفات العميقة عالية الجودة”. وقد أثبت البشر براعتهم في كشف هذا الخلل، خصوصاً في الوجوه. ولكن التقاط هذه الدلالات آلياً سيتطلب بيانات أكثر ضخامة وتنوعاً، واستطاعة حاسوبية أعلى بكثير. حاول سيفيربيكوف أن يتتبع هذه الانتقالات بين اللقطات، ولكنه لم ينجح. ويقول: “لقد أصيب المعالج بالاختناق في تلك المحاولة”.

تقترح فيسبوك أنه يمكن تحسين كشف المزيفات العميقة أيضاً باستخدام أساليب تتجاوز تحليل الصورة أو الفيديو نفسه، مثل تقييم سياقه أو مصدره.

يشغل سام جريجوري منصب مدير مشروع ويتنيس، وهو مشروع لدعم ناشطي حقوق الإنسان في استخدامهم لتكنولوجيات الفيديو، وقد عبر عن ترحيبه باستثمار منصات التواصل الاجتماعي لمواردها في كشف التزييف العميق. يعتبر برنامج ويتنيس جزءاً من مشروع (Partnership on AI) ، الذي قدم الاستشارة لفيسبوك حول مجموعة البيانات. يتفق جريجوري مع شروبفر على ضرورة الاستعداد لأسوأ الاحتمالات. ويقول: “لم تصل المزيفات العميقة إلى مرحلة الخطر بعد، ولكن هذه الأدوات تمثل إضافة خبيثة للغاية إلى العنف على أساس الجنس وتزييف المعلومات”. وعلى سبيل المثال، وجد تقرير ديب تريس لابز أن 96% من المزيفات العميقة كانت عبارة عن مواد إباحية تم إنتاجها من دون موافقة، وذلك بتركيب وجوه أشخاص آخرين على أجساد المؤدين في الأفلام الإباحية. 

عندما يتمكن الملايين من إنتاج ومشاركة الفيديوهات، ستصبح الثقة فيما نراه أكثر أهمية من ذي قبل. تنتشر الأخبار المزيفة عبر فيسبوك مثل النار في الهشيم، وبالتالي فإن مجرد احتمال وجود مزيفات عميقة يزيد من الشكوك، ما قد يؤدي إلى الطعن في مصداقية المقاطع الحقيقية والمزيفة على حد سواء.

إضافة إلى ذلك، فإن الكشف الآلي قد يصبح قريباً خيارنا الوحيد. يقول سيفيربيكوف: “في المستقبل، سنرى مزيفات عميقة لا يستطيع البشر كشفها”.