Article image
مصدر الصورة: إم إس تك


هذا القسم يأتيكم بالتعاون مع:


إنَّ مُجرَّد فكرة وجود الوسائط المُصنَّعة عن طريق الذكاء الاصطناعي تدفع الناس إلى عدم تصديق المحتوى حتى عندما يكون حقيقياً.

كان هذا في أواخر عام 2018، لم يكن شعب الغابون قد رأى رئيسه، علي بونجو، على الملأ منذ أشهر. وبدأ البعض يشكُّ في أنه مريض، أو حتى مَيت، وأن الحكومة تتستر على الأمر. ولوضع حدٍّ لهذه التكهنات، أعلنت الحكومة أن الرئيس بانجو قد تعرض لنوبة قلبية لكنه ما زال في صحة جيدة. وبعد هذا التصريح بقليل، بثت الحكومة فيديو له يلقي فيه خطاباً لمناسبة العام الجديد كما جرت العادة.

وبدلاً من تخفيف حدّة التوتُّر، أعطى هذا الفيديو مَفعولاً عكسياً تماماً؛ حيث شكَّك الكثيرون -ممن اعتقدوا أن الرئيس بدا غريباً في المقطع المصوَّر- في صحة الفيديو، ورأوا أنه عميق التزييف، بمعنى أنه مقطع وسائط مُزوَّر أو مُعدَّل بمساعدة الذكاء الاصطناعي. وقد غذَّى هذا الاعتقاد شكوكَهم، وقَوِيَ اعتقادُهم في أنَّ الحكومة تُخفي أمراً ما. وبعد ذلك بأسبوع واحد، قام الجيش بمحاولة انقلاب فاشلة، مُشيراً إلى الفيديو على أنه جزء من دوافعه.

ورغم أن التحليل الجنائي اللاحق لم يتوصَّل أبداً إلى وجود أي تعديل أو تلاعُب في الفيديو، إلا أنَّ هذه النتائج لم تُغيِّر من الأمر شيئاً؛ حيث إن مجرد فكرة التزييف العميق قد كانت كافية لتسريع تدهور الأوضاع المتأزِّمة أصلاً في البلاد.

وفي هذه الفترة التي تسبق الانتخابات الرئاسية الأميركية عام 2020، أدت تقنية التزييف العميق -التي تُصبح مُقنِعة بشكل متزايد- إلى ظهور مخاوف من مدى إمكانية تأثير الوسائط المُزيَّفة على الآراء السياسية. بيد أنَّ تقريراً حديثاً من ديب ترايس لابس -وهي شركة أمن سيبراني تركِّز على كشف هذا النوع من الخداع- لم يكتشف وجود أية حالة استخدام فعلي للمواد عميقة التزييف في حملات التضليل، لكن تأثيرها الأكبر يكمن في إدراك الجميع أنه يمكن استخدامها لهذه الغاية.

يقول هنري أجدر، وهو أحد مؤلفي التقرير: “تُشكِّل المواد عميقة التزييف خطراً فعلياً على السياسة من حيث إمكانية إظهارها للوسائط المُزيَّفة على أنها حقيقية، لكن في هذه المرحلة يكمن التهديد المُباشر في إمكانية التذرُّع بالتزييف العميق لجعل المحتوى الحقيقي يبدو مُزيَّفاً”. ويُضيف: “إن الضجة والتغطية الإعلامية المثيرة والتي تتكهن بالتأثير السياسي للمواد عميقة التزييف قد طَغت على الحالات الحقيقية، حيث يكون لهذه المواد تأثيرٌ فعلي”.

التوثيق لم يعد دليلاً كافياً
قام نشطاء حقوق الإنسان وخبراء تزييف الحقائق بدقِّ ناقوس الخطر بشأن هذه التهديدات المُنفصلة والمُتشابكة في آنٍ معاً منذ ظهور التزييف العميق على الساحة. وخلال العامين الماضيين، ركَّز صانعو السياسات والشركات التقنية الأميركية بشكل شبه حصري على المشكلة الأولى التي ذكرها أجدر، ألا وهي مدى السهولة التي يمكن بها لهذه التقنية أن تجعل الأشياء المُزيَّفة تبدو كأنها حقيقية. لكن في الواقع فإن المشكلة الثانية هي مصدر القلق الفعلي عند الخبراء، وعلى الرغم من أن إنتاج المواد عميقة التزييف يغدو أسهل بشكلٍ مُتسارع، فإن التشكيك في مصداقية أمرِ ما لا يتطلب أية مهارة تقنية.

يقول أفيف أوفاديا، وهو خبير في تزييف الحقائق ويدير حالياً منطمة ثوتفول تكنولوجي بروجكت غير الربحية: “كان هذا الأمر منذ البداية هو مصدر قلقي الأكبر في هذا المجال”.

يمكن إذن لتقويض الثقة في وسائل الإعلام أن يؤدي إلى عواقب وخيمة، وخصوصاً في البيئات السياسية الهشة. وإن سام جريجوري، وهو مدير البرنامج في منظمة ويتنس غير الربحية التي تساعد الناس على توثيق انتهاكات حقوق الإنسان، يُقدِّم مثالاً على ذلك، ففي البرازيل -التي عانت طويلاً من عنف الشرطة- يتخوَّف المواطنون والنشطاء من أن أي فيديو يصورونه لشرطي يقتل مدنياً لن يكون كافياً بعد الآن لإطلاق تحقيق في الأمر. يقول جريجوري إن هذا الخوف من إمكانية رفض دليل حقيقي على أساس أنه مُزيَّف قد أصبح موضوعاً متكرراً في ورشات العمل التي يستضيفها في شتى أنحاء العالم.

ويضيف:”إنه مرحلة متطورة من الادعاء أن أمراً ما هو (أخبار مزيفة)؛ فهو يضع سلاحاً فتَّاكاً بيَد النافذين، وذلك بقولهم: (إنه تزييف عميق) رداً على أي وسيلة يحاول الأشخاص الضعفاء استخدامَها لكشف الفساد وانتهاكات حقوق الإنسان”.

إثبات أنَّ الحقيقيَ حقيقيٌّ فعلاً والمُزيَّفَ مُزيَّفٌ فعلاً
سيتطلَّب حل هذه المشاكل فهماً لكلا النوعين من التهديدات. يقول أوفايدا: “على مستوى عالٍ، نرغب في إثبات أنَّ الشيء الحقيقي حقيقيٌّ فعلاً، وأنَّ المُزيَّف مُزيَّفٌ حقاً، بأسهل طريقةٍ ممكنة”.

وفي الأشهر الأخيرة، ركَّزت العديد من مجموعات البحث وشركات التقنية مثل فيسبوك وجوجل، على تطوير أدوات الكشف عن المُحتوى المُزيَّف، مثل قواعد بيانات لتدريب خوارزميات الكشف، والدمغات المميَّزة التي يمكن دمجها في ملفات الصور الرقمية لكشف أي تلاعب بها. كما تعمل العديد من الشركات الناشئة على تطوير أساليب بناء الثقة باستخدام تطبيقات تجارية تقوم بعملية التأكد من الصور والفيديوهات لحظة التقاطها، من أجل تشكيل قاعدة مُقارَنة مع نسخٍ أخرى منها قد تنتشر لاحقاً. ويرى جريجوري أنه ينبغي على عمالقة التقنية أن يدمجوا التحقُّق بنوعيه مباشرةً في منصاتهم لجعله متاحاً على أوسع نطاق.

لكن تحتاج الشركات التقنية أيضاً إلى توظيف مُراقبي محتوى من البشر، كما على المؤسسات الإعلامية أن تُدرِّب الصحفيين ومُدققي الحقائق على كلا الأمرين: الكشف والتحقُّق معاً. كما أن بإمكان التقارير من أرض الواقع أن تؤكِّد ما إذا كان أحد الفيديوهات يعكس الحقيقة أم لا، مضيفةً بذلك طبقة مُهمّة من أجل التمييز بين الفروق الدقيقة. يقول بريت باريس، وهو خبير بدراسات المعلومات نشر مؤخراً تقريراً عن المُزيَّفات العميقة:”لا تستطيع النماذج التقنية أن تُفسِّر مُحتوى الفيديو المُزيَّف ضمن سياقات ثقافية، كما لا تستطيع تخيُّل كيفية إعادة وضعها في سياقاتٍ محددة”.

وكمثال على كلامه، يشير باريس إلى المقطعَين المُعدَّلَين لكلٍ من نانسي بيلوسي وجيم أكوستا، اللذَيْن انتشرا على نطاق واسع خلال السنة الماضية. لقد سُمّي المقطعان باسم “التزييف الرخيص” بدلاً من التزييف العميق؛ حيث إنه تم التلاعب ببساطة في سرعة عرض الفيديو بهدف تضليل المشاهدين. يقول باريس:”لا يمكن كشف هذا النوع من التزييف باستخدام الأدوات التقنية المُستخدمة للكشف عن التزييف العميق”. وبدلاً من ذلك، كان يتوجَّب على الصحفيين دَحض هذه الفيديوهات؛ مما يعني أن على الناس أن يثقوا في هؤلاء الصحفيين.

وفي المحصلة، يتَّفق جميع الخبراء على أنه يقع على عاتق الجمهور توعية نفسه بشكل أكبر حول موضوع الوسائط والتلاعب بها. يقول أوفاديا: “هناك فرقٌ بين إثبات أن شيئاً حقيقياً هو حقيقي فعلاً وبين أن يكون الجمهور مُقتنعاً بهذا الأمر”. ويضيف أنه ينبغي على الناس إدراك أن تزوير المحتوى وبث الشك في مصداقيته هما تكتيكان يمكن استخدامهما بشكل مُتعمَّد لزرع الارتباك.

كما يُحذِّر جريجوري من خطورة إلقاء عبءٍ كبير على كاهل متابعي الأخبار؛ إذ يجب على الباحثين والمنصات والصحفيين أن يبذلوا ما في وسعهم للمساعدة في توضيح ما هو حقيقي وما هو مزيف قبل وصول الأخبار إلى الجمهور.

ويقول أوفاديا إن الهدف النهائي ليس في غرسِ الشك في كل شيء، وإنما في بناء “بنية تحتية مُحصَّنة ثقافياً واجتماعياً” لتحييد مخاطر التزييف العميق. ويُضيف مُتسائِلاً: “ما الذي ينبغي علينا تجنُّبه؟ من المُهم التشكيك في الدليل، لكن ما تريده [الجهات الفاعلة في تزييف الحقائق] فعلاً هو ليس أن تُشكِّك أكثر، بل أن تُشكِّك في كل شيء”.

ويضيف:”هذا هو نقيضُ ما نسعى إليه”.


شارك



مراسلة الذكاء الاصطناعي، إم آي تي تكنولوجي ريفيو