يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
تقنية التزييف العميق تُزامن شفاه الممثلين في الأفلام المدبلجة
أطلقت شركة فلوليس (Flawless) التكنولوجية الناشئة، أداة ذكاء اصطناعي جديدة يمكنها جعل عملية دبلجة الأفلام أكثر سلاسة، من خلال استخدام أحدث تقنيات التزييف العميق. وتقول الشركة إن أداة تروسينك (TrueSync) التي طورتها هي "أول نظام في العالم" يستخدم الذكاء الاصطناعي لإجراء مزامنة دقيقة تماماً لحركة الشفاه بلغات متعددة.
وتؤكد الشركة -التي تتخذ من لندن مقراً لها- أن صناع الأفلام ومالكي المحتوى بات بإمكانهم الآن ترجمة الأفلام بصرياً من اللغات أجنبية إلى اللغة الأم لأي جمهور. وتعرض فلوليس على موقعها الإلكتروني عدد من مقاطع الفيديو التي تظهر كيف يمكنها جعل شفاه الممثل تتطابق مع أي لغة مختلفة عن لغته الأصلية بشكل شبه متقن.
وتقول فلوليس إن هذه "الأداة التي تعمل باستخدام الشبكات العصبونية" تمتلك محركاً للحفاظ على الأداء يلتقط كل الفروق الدقيقة والمشاعر التي تظهر في المواد الأصلية، دون تشتيت انتباه المشاهد بشفاه الممثل التي لا تتطابق مع الصوت الصادر منها، وذلك عن طريق ضبط وجوه الممثلين في الأفلام بحيث تتطابق حركات أفواههم وعضلات وجوههم مع لغة الدبلجة.
وعلى الرغم من أن هذه التقنية ستتيح لك إمكانية ألا تختار ظهور الترجمة على الأفلام دون الاضطرار إلى مشاهدة الدبلجة المشتتة للانتباه، إلا أنها في المقابل قد تشكل مبعث قلق كبير حول المستقبل الذي ينتظرنا، لأنه إذا كان بإمكانك مطابقة شفاه شخص ما تماماً مع أي حوار وبأي لغة، فقد يصبح من المستحيل مستقبلاً التمييز بين مقاطع الفيديو الحقيقية والمزيفة.
الرابط (إنجليزي)
اقرأ مقالاتنا ومصطلحاتنا حول الموضوع:
- ما معنى مصطلح التزييف العميق؟ الرابط
- مالك وي تشات يظن أن التزييف العميق مصدر محتمل للفائدة. الرابط
- إبداع الميمات: بين استثمار التزييف العميق ومجابهة مساوئه. الرابط
الإيغور: الصين تختبر برامج التعرف على المشاعر على الأقلية المسلمة
كشفت بي بي سي أن السلطات الصينية اختبرت تقنية ذكاء اصطناعي على أقلية الإيغور المسلمة في أقسام الشرطة بإقليم شينجيانغ بهدف الكشف عن المشاعر. وادعى مهندس برمجيات أنه قام بتركيب مثل هذه الأنظمة في مراكز الشرطة في الاقليم.
وأوضح المهندس الصيني دوره في تركيب الكاميرات في أقسام الشرطة قائلا "وضعنا كاميرات الكشف عن المشاعر على بعد 3 أمتار من كل شخص. وتشبه هذه الكاميرات أجهزة الكشف عن الكذب لكنها تستخدم تكنولوجيا أكثر تقدما بكثير". كما قدم دليلاً على كيفية تدريب نظام الذكاء الاصطناعي على اكتشاف وتحليل التغييرات الدقيقة في تعابير الوجه ومسام الجلد.
وتشير الإحصاءات إلى أن الصين تملك نصف كاميرات المراقبة الموجودة في العالم، والتي تقدر بما يقرب من 800 مليون كاميرا. كما أنها تملك عددا كبيرا من المدن الذكية، مثل تشونغتشينغ، حيث دُمج الذكاء الاصطناعي في أسس البيئة الحضرية.
وأخبر الصحفي الاستقصائي، هو ليو، المقيم في تشونغتشينغ، بي بي سي عن تجربته الخاصة قائلاً: "بمجرد مغادرتك للمنزل وركوب المصعد، تلتقط الكاميرا صورتك. هناك كاميرات في كل مكان". وأضاف "عندما أغادر المنزل للذهاب إلى مكان ما، أتصل بسيارة أجرة، وتقوم شركة سيارات الأجرة بتحميل البيانات إلى الحكومة. وقد أذهب بعد ذلك إلى مقهى لمقابلة عدد قليل من الأصدقاء وتعرف السلطات موقعي من خلال كاميرات المقهى". وأردف "كانت هناك مناسبات التقيت ببعض الأصدقاء وبعد فترة وجيزة اتصل بي شخص من الحكومة. لقد حذروني ،" لا تقابل هذا الشخص، لا تفعل هذا وذاك ".
وأكد ليو "في وجود الذكاء الاصطناعي ليس لدينا مكان نختبئ فيه".
الرابط
اقرأ مقالاتنا في العمق حول الموضوع:
- آبل تقول إن مسلمي الإيغور الصينيين تعرضوا للاستهداف في آخر حملة اختراق ضد أجهزة آيفون. الرابط
- الصين تستخدم عيناتٍ من الحمض النووي في إعادة رسم الوجوه. الرابط
- المواطنون الصينيون يتم مسح وجوههم ضوئياً الآن عند الحصول على خدمات جديدة للهاتف المحمول. الرابط
تقرير صادم: قادة الأعمال غير مهتمين بالاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي
أظهر تقرير جديد أنه في الوقت الذي تسعى فيه العديد من الشركات إلى نشر أشكال مختلفة من أنظمة الذكاء الاصطناعي، فإنها لا تولي اهتماماً يذكر بالآثار الأخلاقية المترتبة على المشاكل التي يحتمل أن تنشأ نتيجة نشر هذه الأنظمة.
وأوضح تقرير "حالة الذكاء الاصطناعي المسؤول" -الذي أصدرته كل من شركة فيكو (FICO) لتحليل البيانات وكورينيوم لأبحاث السوق- أن قادة الأعمال لا يبذلون سوى القليل من الجهد لضمان أن تكون أنظمة الذكاء الاصطناعي التي يستخدمونها نزيهة وآمنة للاستخدام على نطاق واسع. وذلك على الرغم من ظهور مئات الأمثلة على الطرق الكارثية التي تم استخدام تقنيات الذكاء الاصطناعي بها، وأبرزها تحيز أنظمة التعرف على الوجوه ضد ذوي البشرة الملونة.
وعرض التقرير نتائج استطلاع للرأي تم إجراؤه خلال شهري فبراير ومارس الماضيين، على 100 من قادة قطاع الخدمات المالية الذين يركزون على الذكاء الاصطناعي، و20 مسؤول تنفيذي بكبرى الشركات في الولايات المتحدة وأميركا اللاتينية وأوروبا والشرق الأوسط وأفريقيا ومنطقة آسيا والمحيط الهادئ.
ولم يتمكن ما يقرب من 70% من المشاركين في الاستطلاع من شرح كيفية اتخاذ نماذج الذكاء الاصطناعي للقرارات أو التنبؤات، فيما قال 35% منهم فقط إن مؤسساتهم بذلت جهداً لاستخدام الذكاء الاصطناعي بطريقة شفافة وخاضعة للمساءلة.
بالإضافة إلى ذلك، قال 22% فقط إن مؤسساتهم أنشأت مجلساً أخلاقياً للذكاء الاصطناعي يمكنه اتخاذ قرارات بشأن عدالة التكنولوجيا التي يستخدمونها، بينما قال الـ 78% الأخرون إن شركاتهم "غير مجهزة بشكل جيد للتأكد من الآثار الأخلاقية لاستخدام أنظمة الذكاء الاصطناعي الجديدة".
ويظهر التقرير أيضاً أن الشركات تمارس ضغوطاً متزايدة على الموظفين لنشر أنظمة الذكاء الاصطناعي بسرعة بغض النظر عن الأخلاقيات المتعلقة بكيفية استخدامها، حيث قال 78% من المشاركين إنهم يواجهون مشاكل في الحصول على دعم تنفيذي لإعطاء الأولوية لأخلاقيات الذكاء الاصطناعي وممارسات الذكاء الاصطناعي المسؤولة.
وعند سؤالهم عن المعايير والعمليات المطبقة للتحكم في استخدام الذكاء الاصطناعي، قال 38% منهم إن لديهم خطوات للكشف عن تحيز البيانات والتخفيف من حدته، فيما قال 6% فقط إنهم يفعلون ذلك من خلال ضمان التنوع في فرق تطوير الذكاء الاصطناعي.
|