بعد حادثة تايلور سويفت: ما الطرق المتوفرة حالياً لمكافحة الصور المزيفة بالذكاء الاصطناعي؟

6 دقيقة
مصدر الصورة: سارة روجرز/ إم آي تي تي آر | غيتي
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

مؤخراً، شهدت شبكة الإنترنت انتشاراً سريعاً وواسع النطاق لمجموعة من الصور الإباحية الفاضحة للفنانة الأميركية تايلور سويفت، نجمة البوب الشهيرة على مستوى العالم. وقد شاهد الملايين من الأشخاص هذه المزيّفات العميقة الإباحية لسويفت، التي أُنتِجَت رغماً عنها، على منصة التواصل الاجتماعي إكس (X)، المعروفة سابقاً باسم “تويتر”. وقد اتخذت منصة إكس منذ ذلك الحين خطوات حازمة في حظر جميع عمليات البحث عن تايلور سويفت في محاولة للسيطرة على المشكلة.

لكن هذه الظاهرة ليست جديدة، فالمزيفات العميقة موجودة منذ أعوام عدة. لكن نهضة الذكاء الاصطناعي التوليدي جعلت إنتاج المزيفات العميقة الإباحية، والتحرش بالناس جنسياً من خلال الصور ومقاطع الفيديو المُوَلّدَة باستخدام الذكاء الاصطناعي، أسهل من ذي قبل.

بالمقارنة بين جميع أنواع الأضرار المتعلقة بالذكاء الاصطناعي التوليدي، نجد أن المزيفات العميقة المُوَلَّدة دون موافقة المعنيين بمحتواها تؤثر على أكبر عدد من الناس، إذ تمثل النساء الشريحة الأكثر استهدافاً، كما يقول خبير الذكاء الاصطناعي المتخصص بالذكاء الاصطناعي التوليدي والوسائط الاصطناعية، هنري أجدر.

لكن الأمل ما زال موجوداً، لحسن الحظ. فثمة أدوات وقوانين جديدة يمكن أن تزيد صعوبة استغلال صور الآخرين، كما يمكن أن تساعدنا على محاسبة الجناة.

وإليكم فيما يلي ثلاثة أساليب يمكن أن تساعدنا على مكافحة المزيفات العميقة المُوَلَّدة دون موافقة.

العلامات المائية

تعمل منصات التواصل الاجتماعي على تدقيق المنشورات التي يحمّلها المستخدمون على مواقعها، وإزالة المحتوى الذي يتعارض مع سياساتها. لكن هذه العملية بدائية في أحسن الأحوال، وتعجز عن التقاط نسبة كبيرة من المحتوى المسيء، كما تبين حالة انتشار المواد التي تتعلق بسويفت على منصة إكس. كما أنه من الصعب أن نميز بين المحتوى الأصيل والمحتوى الذي ولده الذكاء الاصطناعي.

تمثل العلامات المائية أحد الحلول التقنية المطروحة لمواجهة هذه المشكلة. تخبّئ العلامات المائية إشارة خفية ضمن الصور، بحيث تساعد أجهزة الكمبيوتر على كشفها بوصفها صوراً ولدها الذكاء الاصطناعي. على سبيل المثال، طورت شركة جوجل نظاماً باسم سينث آي دي (SynthID)، ويستخدم هذا النظام الشبكات العصبونية من أجل تعديل بعض البيكسلات في الصور لإضافة علامة مائية لا يمكن للعين المجردة أن تراها. وقد صُممت هذه العلامة المائية لتكون قابلة للكشف حتى لو تعرضت الصورة للتعديل، أو أُخِذت لقطة شاشة لها. من الناحية النظرية، يمكن لهذه الأدوات أن تساعد الشركات على تحسين قدرتها على مراقبة المحتوى، وزيادة سرعتها في كشف المحتوى المزيف، بما في ذلك المزيفات العميقة المُولَّدة دون موافقة الأشخاص المعنيين بمحتواها.

الإيجابيات: يمكن للعلامات المائية أن تكون أداة مفيدة تجعل كشف المحتوى المُولَّد بالذكاء الاصطناعي، وكشف المنشورات المسيئة التي تجب إزالتها عملية أسهل وأسرع. ويمكن أن يؤدي دمج العلامات المائية في الصور كافة على نحو افتراضي أيضاً إلى جعل عملية إنتاج المزيفات العميقة دون موافقة الأشخاص المعنيين بمحتواها أصعب على المسيئين في المقام الأول، كما تقول الباحثة في شركة الذكاء الاصطناعي الناشئة هاغينغ فيس (Hugging Face) التي تدرس التحيّز في أنظمة الذكاء الاصطناعي، ساشا لوتشيوني.

السلبيات: ما زالت هذه الأنظمة في المرحلة التجريبية، كما أنها غير منتشرة على نطاق واسع. وما زال أي مسيء عنيد قادراً على التلاعب بها. كما أن الشركات لم تبدأ تطبيق هذه التكنولوجيا على الصور كلها من دون استثناء. على سبيل المثال، فإن وضع العلامة المائية في الصور المُولّدة باستخدام مولد الصور الذي يعمل بالذكاء الاصطناعي من جوجل، إيماجين (Imagen)، ما زال اختيارياً بالنسبة إلى المستخدمين حتى الآن. تسهم هذه العوامل جميعاً في الحد من فائدة العلامات المائية في مكافحة المزيفات العميقة الإباحية.

اقرأ أيضاً: جوجل ديب مايند تطلق أداة لإضافة العلامات المائية إلى الصور المولدة بالذكاء الاصطناعي

الدروع الواقية

في الوقت الحالي، تمثل الصور التي ننشرها عبر الإنترنت كافة مجالاً مفتوحاً لأي شخص يرغب في استخدامها لإنتاج مزيفات عميقة. وبما أن أحدث أنظمة الذكاء الاصطناعي لتوليد الصور بلغ مرحلة عالية من التطور، فإن صعوبة إثبات زيف المحتوى المولد بالذكاء الاصطناعي تتزايد يوماً بعد يوم.

لكن بعض الأدوات الدفاعية الجديدة يتيح للأفراد حماية صورهم من الاستغلال عن طريق الذكاء الاصطناعي، وذلك بجعلها تبدو ملتوية أو مشوشة بالنسبة إلى أنظمة الذكاء الاصطناعي.

تحمل إحدى هذه الأدوات اسم فوتوغارد (PhotoGuard)، وقد طورها باحثون في معهد ماساتشوستس للتكنولوجيا (إم آي تي). تعمل هذه الأداة عمل درع واقٍ، وذلك من خلال تغيير بعض البيكسلات في الصور وفق أساليب غير مرئية بالنسبة إلى العين البشرية. وعندما يستخدم شخص ما تطبيق ذكاء اصطناعي، مثل مولد الصور ستيبل ديفيوجن (Stable Diffusion)، للتلاعب بصورة عولجت باستخدام فوتوغارد، ستبدو النتيجة غير واقعية. وتعمل فوكس (Fawkes)، وهي أداة مماثلة طورها باحثون في جامعة شيكاغو، على تغطية الصور بإشارات خفية تزيد صعوبة التعرف على الوجوه فيها باستخدام أنظمة التعرف على الوجوه.

ثمة أداة أخرى جديدة تسمى نايتشيد (Nightshade)، تساعد الأفراد على مكافحة استخدام صورهم في أنظمة الذكاء الاصطناعي. طور باحثون في جامعة شيكاغو هذه الأداة، إذ تضيف طبقة خفية على الصور من أجل “تسميمها“. وقد طُوِرت هذه الأداة من أجل حماية الفنانين من الشركات التكنولوجية التي تجمع صورهم المحمية بموجب حقوق التأليف والنشر من دون موافقتهم. لكن، يمكن استخدامها نظرياً على أي صورة لا يريد صاحبها أن ينتهي بها المطاف بين الصور التي تجمعها أنظمة الذكاء الاصطناعي. وعندما تحصل الشركات التكنولوجية على مواد التدريب عبر الإنترنت دون موافقة أصحابها، ستؤدي هذه الصور “المسمومة” إلى إفساد نموذج الذكاء الاصطناعي. فقد تتحول صور القطط إلى صور للكلاب، وقد تتحول صور تايلو سويفت أيضاً إلى صور للكلاب.

الإيجابيات: تجعل هذه الأدوات استغلال صورنا لإنتاج محتوى مسيء أصعب بالنسبة إلى الذين يتقصدون الإساءة. وتقدم لنا بعض الأمل في توفير الحماية للأفراد ضد استغلال الصور باستخدام الذكاء الاصطناعي، خصوصاً إذا بدأت تطبيقات المواعدة العاطفية وشركات التواصل الاجتماعي تطبيقها على نحو افتراضي، على حد تعبير أجدر.

تقول لوتشيوني: “يجب أن نلجأ جميعاً إلى استخدام نايتشيد من أجل كل صورة ننشرها عبر الإنترنت”.

السلبيات: تستطيع هذه الدروع الواقية توفير الحماية ضد أحدث جيل من نماذج الذكاء الاصطناعي. لكن لا توجد أي ضمانة على أن الإصدارات المستقبلية ستعجز عن الالتفاف على آليات الحماية هذه. كما أن هذه الآليات لا تصلح للصور الموجودة من قبل على الإنترنت، وتطبيقها أصعب بالنسبة إلى صور المشاهير، لأنهم لا يتحكمون في تحديد صورهم التي يجري تحميلها عبر الإنترنت.

تقول مديرة شركة باريتي كونسلتينغ (Parity Consulting) للاستشارات والتدقيق الأخلاقي للذكاء الاصطناعي، رومان تشاودوري: “سيتحول الأمر إلى ما يشبه لعبة هائلة بين القط والفأر”.

اقرأ أيضاً: كيف يمكنك كشف فيديوهات التزييف العميق بسهولة؟

القوانين

لا تستطيع الحلول التقنية القضاء على المشكلة بالكامل. ولن نتوصل إلى تغيير دائم إلا من خلال قوانين أكثر صرامة، كما تقول لوتشيوني.

أضافت المزيفات العميقة الواسعة الانتشار لتايلور سويفت زخماً جديداً إلى الجهود الرامية إلى تشديد الإجراءات ضد المزيفات العميقة الإباحية. فقد وصف البيت الأبيض هذه الحادثة بأنها “مروعة”، وحثَّ الكونغرس على اتخاذ الإجراءات التشريعية اللازمة بسرعة. اتبعت الولايات المتحدة في تنظيم هذه التكنولوجيا، حتى الآن، أسلوباً مجزَّأً يعتمد على الإجراءات التي تتخذها كل ولاية على حدة. على سبيل المثال، حظرت ولايتا كاليفورنيا وفيرجينيا إنتاج المزيفات العميقة الإباحية دون موافقة المعنيين بمحتواها. كما حظرت ولايتا نيويورك وفيرجينيا توزيع هذا النوع من المحتوى.

غير أننا قد نشهد أخيراً إجراءات على المستوى الفيدرالي. فقد أعيد طرح مشروع قانون جديد ويحظى بدعم الحزبين الرئيسيين في الكونغرس الأميركي لتصنيف نشر الصور العارية المزيفة ضمن فئة الجرائم الفيدرالية. كما دفعت فضيحة تتعلق بمزيفات عميقة إباحية في مدرسة ثانوية في ولاية نيوجيرسي بالمشرّعين أيضاً إلى الرد من خلال مشروع قانون يحمل اسم “قانون منع المزيفات العميقة للصور الحميمة”. ومن المحتمل أن تؤدي الضجة التي أثارتها قضية سويفت حول هذه المشكلة إلى اجتذاب المزيد من الدعم من كلا الحزبين الرئيسيين في الكونغرس.

إضافة إلى هذا، يسعى المشرعون في أنحاء العالم كافة إلى فرض قوانين أكثر صرامة بشأن هذه التكنولوجيا. فقانون السلامة على الإنترنت (أو قانون سلامة التصفح الإلكتروني)، الذي أقرّته المملكة المتحدة العام الماضي، يحظر نشر المواد الإباحية العميقة التزييف، لكنه لا يحظر إنتاجها. ويمكن أن يتعرض المخالفون لعقوبات تصل إلى السجن ستة أشهر.

أما في الاتحاد الأوروبي، فتركز مجموعة من مشاريع القوانين الجديدة على معالجة المشكلة من زاوية مختلفة. فقانون الذكاء الاصطناعي الشامل يفرض على منتجي المزيفات العميقة أن يصرّحوا بوضوح بأن هذه المواد مُوَلَّدة باستخدام الذكاء الاصطناعي، كما سيفرض قانون الخدمات الرقمية على الشركات التكنولوجية إزالة المحتوى المسيء بسرعة أكبر.

اقرأ أيضاً: مخاطر التزييف العميق: تطبيق يستبدل وجوه النساء بنقرة زر

أما قانون المزيفات العميقة الصيني، الذي دخل حيز التنفيذ في 2023، فيذهب إلى أبعد من ذلك. في الصين، يتعين على منتجي المزيفات العميقة اتخاذ الخطوات اللازمة لمنع استخدام خدماتهم لأغراض مخالفة للقانون أو ضارة، وطلب موافقة المستخدمين قبل تحويل صورهم إلى مزيفات عميقة، والتحقق من هويات هؤلاء الأشخاص، وتزويد المحتوى المُولَّد باستخدام الذكاء الاصطناعي بعلامة مميزة.

الإيجابيات: ستوفر القوانين ملاذاً للضحايا، وتحمّل منتجي المزيفات العميقة الإباحية دون موافقة المعنيين بمحتواها المسؤولية عن أفعالهم، وتخلق رادعاً فعالاً. كما سترسل رسالة حاسمة بأن إنتاج المزيفات العميقة الإباحية دون موافقة أمر غير مقبول. ويقول أجدر إنه يمكن إحداث أثر حقيقي من خلال القوانين وحملات التوعية العامة التي توضح أن الأشخاص الذين ينتجون هذا النوع من المزيفات الإباحية، مرتكبو جرائم جنسية قد لا يُحمد عقباها. ويقول: “سيؤدي هذا إلى تغيير الموقف غير المبالي الذي يتخذه بعض الأشخاص إزاء هذا النوع من المحتوى، إذ يعتبرونه غير ضار أو ليس شكلاً من أشكال الاعتداء الجنسي”.

السلبيات: يقول أجدر إنه سيكون من الصعب تطبيق هذا النوع من القوانين. بالنظر إلى التقنيات الحالية، سيكون من الصعب على الضحايا تحديد هوية الأشخاص المعتدين وجمع الأدلة ضدهم. كما أنه من المحتمل أن يكون الشخص الذي ينتج المزيفات العميقة موجوداً ضمن ولاية قضائية مختلفة، ما يزيد صعوبة ملاحقته قضائياً.