X
Article image
مصدر الصورة: مؤتمر الرؤية الحاسوبية والتعرف على الأنماط
Article image

مصدر الصورة: مؤتمر الرؤية الحاسوبية والتعرف على الأنماط

تكنولوجيا الأعمال حب

لا تمتلك هذه الشركات الثلاثة خطة واضحة للتعامل مع الفيديوهات عميقة التزييف، فهل سنشهد بعض الفضائح أو حتى الطرائف في الانتخابات المقبلة؟

يبدو أن الشركات الثلاثة الكبرى في عالم الإنترنت، أي فيسبوك وجوجل وتويتر، لا تمتلك خطة واضحة للتعامل مع الفيديوهات عميقة التزييف قبل الانتخابات الرئاسية الأميركية في العام القادم، وذلك وفقاً لرئيس لجنة الاستخبارات في الكونجرس.

آخر المستجدات
قال آدم شيف -وهو ديمقراطي من كاليفورنيا- مؤخراً إن الشركات الثلاثة “بدأت تفكر بجدية في التحديات التي تمثلها المواد الإعلامية التي يتم التلاعب بها باستخدام الذكاء الاصطناعي، أو ما يعرف بالمواد عميقة التزييف، ولكن هناك الكثير مما يجب فعله إذا كانت هذه الشركات تريد الاستعداد فعلياً للأثر الفوضوي الذي يمكن أن تحدثه هذه التكنولوجيا في الانتخابات المقبلة”.

لا داعي للذعر
حافظوا على هدوئكم ولا داعي للخوف، فهناك في الواقع بعض الأساليب الجديدة التي يمكن أن تكشف الفيديوهات التي تم تلفيقها باستخدام الذكاء الاصطناعي.

تبديل الوجوه
يعتمد التزييف العميق على التطورات الجديدة في التعلم الآلي من أجل استبدال الوجوه آلياً في الفيديوهات أو تنفيذ خدع أخرى ذات مظهر واقعي للغاية. ويمكن تحميل بعض الأدوات البسيطة للتزييف العميق من الويب، ويمكنك أن تجد على الإنترنت الكثير من الأمثلة المدهشة حول التزييف العميق.

مصدر القلق
ظهر التلاعب بالصور منذ فترة طويلة، ولكن الذكاء الاصطناعي يسهّل من إمكانية التلاعب بالصور باحترافية عالية. وخلال الانتخابات، يمكن استخدام مادة عميقة التزييف للتأثير على الناخبين في اللحظات الأخيرة؛ ففي مايو 2019، تم تعديل مقطع فيديو لنانسي بيلوسي بحيث تظهر وكأنها تلفظ الكلمات بطريقة غير سليمة في خطابها، وقد انتشر بسرعة على وسائل التواصل الاجتماعي.

لعبة القط والفأر
حالياً، توجد بعض الوسائل لكشف التزييف العميق؛ حيث إن إغماض العينين بطريقة غير منتظمة يعتبر إشارة دالة على التلاعب بالفيديو مثلاً. ولكن هذه المسألة أشبه بسباق التسلح الذي لا ينتهي، فبعد اكتشاف وسيلة لكشف التزييف، يمكن تدريب خوارزمية الذكاء الاصطناعي لمعالجة المشكلة التي تؤدي إلى الكشف عن التزييف، وهكذا دواليك.

طريقة أفضل
نشر بعض خبراء التحليل الرقمي الجنائي بحثاً جديداً في يونيو عن طريقة أفضل، وتعتمد على تدريب الخوارزمية حتى تتعرف على حركات الوجه والرأس لشخص معين؛ بحيث تكتشف ما إذا كان الوجه قد رُكّب على رأس وجسد شخص آخر. ولكن هذه الطريقة لا تعمل إلا إذا تم تدريب النظام على شخص معين، وبالتالي، يمكن على الأقل استخدامها للحفاظ على المرشحين الرئاسيين.

الأسلحة المخفية
قدمت جوجل جزءاً من التمويل لهذا البحث، ولهذا، من الممكن أن هذه الشركات تلتزم بالصمت إزاء أساليبها حول كشف التزييف العميق. فإذا كنت تريد أن تحافظ على أفضليتك في وجه المزيفين، فمن الذكاء ألا تكشف عن أوراقك.

المزيد من المقالات حول تكنولوجيا الأعمال

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!