4 أنواع محتوى يمكن التلاعب بها بالذكاء الاصطناعي وأساليب كشفه ومنعه

3 دقائق
4 أنواع محتوى يمكن التلاعب بها بالذكاء الاصطناعي وأساليب كشفه ومنعه
حقوق الصورة: shutterstock.com/Wright Studio
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

يتلاعب الكثيرون بمجموعة واسعة من أنواع المحتوى عبر الذكاء الاصطناعي بهدف التسلية أو إيذاء الآخرين وخداعهم، ولحسن الحظ توجد نقاط ضعف في المحتوى المولّد عبر الذكاء الاصطناعي تمكّننا من كشف هذا التلاعب ومنعه. وفيما يلي بعض الأمثلة عن أنواع المحتوى التي يمكن التلاعب بها باستخدام الذكاء الاصطناعي.

أنواع المحتوى التي يمكن التلاعب بها بالذكاء الاصطناعي وأساليب كشفه

من أبرز أنواع المحتوى التي يتلاعب بها الذكاء الاصطناعي النصوص والصور والصوت والفيديو:

التلاعب بالنصوص بواسطة الذكاء الاصطناعي وطرق كشفه ومنعه

يولّد الذكاء الاصطناعي النصوص ويحررها، خاصة عبر بوتات المحادثة، وتشمل النصوص المقالات والأخبار والشروحات والروايات، وذلك بطريقة لا يمكن تمييزها عن النصوص التي يكتبها البشر. بالإضافة إلى ذلك، يسهل على الذكاء الاصطناعي تعديل النصوص لأنه يتفاعل مع اللغة الطبيعية ويعالجها.

من المهم الكشف عن النصوص التي يولّدها الذكاء الاصطناعي لأنها قد تحتوي على معلومات خاطئة أو مضللة تهدف إلى خداع القارئ، وذلك ممكن باستخدام أدوات مثل “غرفة اختبار نموذج اللغة العملاقة” (GLTR) التي طوّرتها إم أي تي وجامعة هارفارد، وهي تستغل فكرة أن مولدات النصوص بالذكاء الاصطناعي تعتمد على الأنماط الإحصائية في النص، بدلاً من المعاني الفعلية للكلمات والجمل.

من هذه الأدوات أيضاً جي بي تي زيرو (GPTZero) التي تكشف النصوص المولدة بالذكاء الاصطناعي بطريقتين عبر قياس مدى التعقيد والاختلاف في الجمل، فالنص الذي يحتوي على تراكيب معقدة وجمل متنوعة بين القصيرة والطويلة مكتوب من قِبل الإنسان، أمّا إذا كان النص بسيطاً وقليل التعقيد، وجمله قصيرة فمن المرجح أنه قد أُنشئ بواسطة الذكاء الاصطناعي. تفقد هذه الأدوات فاعليتها إذا خضعت النصوص لتعديل طفيف من قِبل البشر.

اقرأ أيضاً: كيف يمكن كشف النصوص التي يولّدها الذكاء الاصطناعي؟

الصور

سهّل ظهور أنظمة الذكاء الاصطناعي التي تولِّد الصور على أي شخص تعديل صورة أو فيديو بنتائج واقعية إلى درجة تسبب الارتباك، فهي تعدّل الصور وتحسّنها، وتعدّل الإضاءة، وتزيل العيوب، وتُضيف تأثيرات، بالإضافة إلى إنشاء صور واقعية من الصفر. 

يمكن الكشف عن الصور التي يولّدها الذكاء الاصطناعي أو يتلاعب بها بعدة طرق بسهولة، وذلك إمّا باستخدام أدوات مخصصة لذلك مثل منصة “المجمّع” (Assembler) التي أطلقتها جوجل لمساعدة طلائع المتعاملين مع الأحداث من صحفيين ومدققي حقائق على التحقق السريع من الصور. ومن هذه الأدوات أيضاً الأداة التي تقدّمها «سينسيتي أيه آي» (Sensity AI).

بالإضافة إلى ذلك، يمكن للمختصين المتمرسين أو حتى غير الخبراء، كشف هذه الصور بالبحث عن عدة أشياء مثل التحقق من وجود الصورة وحقيقتها من مصدرها بين وسائل الإعلام، والبحث عن التشوهات في الخلفية أو المظهر العام للخلفية. 

سيصبح من الممكن مستقبلاً أيضاً حماية الصور من التعديل عليها بالذكاء الاصطناعي، وذلك بالاعتماد على أدوات مثل فوتوغارد التي تطوّرها إم آي تي من خلال إجراء تعديلات بسيطة وغير مرئية للعين البشرية على الصور، ولكنها تمنع التلاعب بها إذا حاول أحد استخدام تطبيق تعديل يعتمد على أحد نماذج الذكاء الاصطناعي التوليدية

اقرأ ايضاً: كيف تستطيع تطبيقات كشف التزييف العميق تمييز الصور المعدَّلة عن غيرها؟

الفيديو 

يمكن للذكاء الاصطناعي التلاعب بمقاطع الفيديو وتعديلها بعدة طرق مثل تحرير اللقطات وإزالة الأجسام غير المرغوب فيها وتحسين الجودة وإضافة تأثيرات بصرية، أو حتى إنشاء مقاطع فيديو جديدة.

يساعد بعض الأدوات على كشف التزييف العميق هذا مثل أداة فيك كاتشر (FakeCatcher) التي كانت تطوّرها شركة إنتل، وتكشف محتوى التزييف العميق في الوقت الحقيقي، وتعرض النتائج في أجزاء من الثانية بمعدل دقة يصل إلى 96%.

تعمل أدوات كشف التزييف العميق في البحث عن صفات في مقاطع الفيديو تميّز البشر مثل لون العروق التي يتدفق فيها الدم، وتعرض النتائج في أجزاء من الثانية بمعدل دقة يصل إلى 96%.

يمكن للمشاهدين أيضاً كشف فيديوهات التزييف العميق من خلال البحث عن حركات غير طبيعية للعين، وعدم تطابق اللون والإضاءة وتباين جودة الصوت، والشكل الغريب للجسم أو حركته، وحركات الوجه الاصطناعية، والمواضع غير الطبيعية لملامح الوجه والشكل العام للجسم.

الصوت

على نحو مماثل، يمكن توليد أصوات بشرية مماثلة للحقيقية، أو تعديلها عبر الذكاء الاصطناعي، وذلك باستخدام أدوات تحويل النص إلى صوت، وتنقية الصوت، وتوليد الموسيقى

يمكن التلاعب بالأصوات عبر الذكاء الاصطناعي بتكنولوجيا استنساخ الصوت أو التزييف العميق للصوت التي تستخدم الذكاء الاصطناعي لتوليد نسخة من صوت الشخص. يكون المحتوى مرئياً بالصوت والصورة ولا يمكن تمييزه تقريباً عن الحقيقي.

يُكشَف عن هذه الأصوات، بالإضافة إلى الفيديوهات عبر بروتوكول الإنترنت سي 2 بي أيه (C2PA)، الذي يعتمد على التشفير لترميز تفاصيل حول منشأ المحتوى المرئي والصوتي، ويكشف أن المحتوى من إنشاء الذكاء الاصطناعي أم البشر.

هذه بعض الأمثلة عن الأنواع المختلفة للمحتوى التي يمكن التلاعب بها بواسطة الذكاء الاصطناعي وكيفية كشف هذا التلاعب، وما زالت الأبحاث مستمرة لإيجاد طرق تمنع التلاعب من البداية.