الذكاء الاصطناعي في قفص الاتهام: تلاعب بصور الناس وانتهاك للخصوصية

3 دقائق
نماذج الذكاء الاصطناعي في قفص الاتهام: بين صور لأشخاص حقيقيين وانتهاك لقوانين الملكية الفكرية
ستيفاني آرنيت. إم آي تي تي آر. غيتي إيميدجيز
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

وفقاً لبحث جديد، يمكن تلقيم النماذج المعروفة لتوليد الصور بتعليمات تنص على إنتاج صور أشخاص حقيقيين يمكن التعرف عليهم، ما يمكن أن يمثل خطراً على خصوصيتهم. ويبين هذا البحث أيضاً إمكانية أن يُطلب من أنظمة الذكاء الاصطناعي هذه تقديم نسخ مطابقة للصور الطبية أو الأعمال الفنية المحمية بحقوق النشر. ويمكن لهذا الاكتشاف أن يدعم قضية الفنانين الذين يخوضون حالياً معركة قضائية مع شركات الذكاء الاصطناعي بسبب انتهاكها موادَّ يملكون حقوق نشرها.

توليد صور مطابقة لصور أصلية باستخدام نماذج الذكاء الاصطناعي

وقد حصل الباحثون، الذين يعملون في شركات جوجل (Google) وديب مايند (DeepMind) وجامعة كاليفورنيا في بيركلي والمعهد السويسري الفدرالي للتكنولوجيا في زيورخ وجامعة برينستون، على نتائجهم بتلقيم نموذج ستيبل ديفيوجن (Stable Diffusion) ونموذج إيماجين (Imagen) من جوجل تعليمات للحصول على هذه الصور، مثل تلقيمها اسم شخص معين عدة مرات. وبعد ذلك، درسوا مدى التطابق بين هذه الصور المولدة والصور الأصلية الموجودة في قاعدة بيانات النموذج. وقد تمكنت مجموعة الباحثين من استخلاص أكثر من 100 صورة مطابقة لصور موجودة في مجموعة التدريب الخاصة بالذكاء الاصطناعي.

اقرأ أيضاً: آيدا: برنامج ذكاء اصطناعي سيصمم لك الأزياء في المستقبل

لقد تم تدريب هذه النماذج المخصصة لتوليد الصور على مجموعات بيانات ضخمة مؤلفة من صور وتوصيفات نصية تم تجميعها من الإنترنت. ويعمل أحدث جيل من هذه التكنولوجيا على أخذ صور من مجموعة البيانات وتغييرها بالتدريج على مستوى البيكسل، إلى أن تتحول إلى مجموعة عشوائية من البيكسلات. وبعد ذلك، يقوم نموذج الذكاء الاصطناعي بتطبيق العملية بصورة معاكسة لتحويل مجموعة البيكسلات العشوائية تلك إلى صورة جديدة.

اقرأ أيضاً: هل ستغير النماذج اللغوية الكبيرة شكل الشركات كما فعلت الأجهزة الذكية قبل عقد؟

خطر تسريب المعلومات الحساسة

تمكن الباحثون في هذه الورقة البحثية لأول مرة من إثبات قدرة نماذج الذكاء الاصطناعي على تذكر الصور الموجودة في مجموعات التدريب الخاصة بها، وفقاً لما قاله طالب درجة الدكتوراة في جامعة كاين نورماندي في فرنسا، ريان ويبستر، الذي درس مسألة الخصوصية في نماذج أخرى لتوليد الصور، ولكنه لم يشارك في هذا البحث. ويمكن أن تكون لهذه النتيجة آثار على الشركات الناشئة الراغبة باستخدام نماذج الذكاء الاصطناعي التوليدية في الرعاية الصحية، لأنها تبين أن هذه الأنظمة تنطوي على خطر تسريب المعلومات الخاصة الحساسة. ولم تستجب الشركات أوبن أيه آي (OpenAI) وجوجل وستابيليتي أيه آي (Stability.AI) لطلبنا بالتعليق على الأمر.

اقرأ أيضاً: كيف يمكن التوصل إلى ذكاء اصطناعي غير منحاز؟ وما تأثير انحيازه على أماكن تطبيقاته؟

أما طالب الدكتوراة في جامعة كاليفورنيا في بيركلي، إريك والاس، وهو أحد أعضاء مجموعة الدراسة، فيقول إنهم يأملون بتنبيه الجميع إلى مشكلات الخصوصية التي قد تعانيها نماذج الذكاء الاصطناعي هذه قبل أن يتم إطلاقها على نطاق واسع في مجالات حساسة، مثل الطب.

"يرغب الكثيرون في تجربة تطبيق هذه الأنواع من الطرق التوليدية على البيانات الحساسة، وعملنا هو بالتأكيد التحذير من أن هذه الفكرة لن تكون سديدة، إلا إذا توفرت إجراءات مشددة للحماية من انتهاك الخصوصية".

أيضاً، تُسبب قدرة هذه النماذج الكبيرة على استرجاع الصور من قواعد بياناتها وإعادة إنتاجها نزاعاً حاداً بين شركات الذكاء الاصطناعي والفنانين، وتواجه ستابيليتي أيه آي قضيتَين أمام المحاكم من مجموعة من الفنانين ومنصة غيتي إيميدجيز (Getty Images)، إذ يقولون إن الشركة جمعت موادهم المحمية بحقوق النشر وعالجتها بصورة غير قانونية.

انتهاك حقوق النشر

يمكن أن تمثل نتائج الباحثين عنصراً داعماً لقضية الفنانين الذين يتهمون شركات الذكاء الاصطناعي بانتهاك حقوق النشر، وإذا تمكن الفنانون الذين استُخدمت أعمالهم في تدريب ستيبل ديفيوجن من إثبات أن النموذج نسخ أعمالهم دون موافقتهم، فقد تضطر الشركة إلى دفع تعويضات لهم.

يقول الأستاذ المساعد المختص بعلوم الحاسوب في جامعة كاليفورنيا في مدينة إرفين، والذي لم يشارك في البحث، سمير سنغ، إن النتائج مهمة وظهرت في الوقت المناسب. ويضيف قائلاً: "إنها مهمة للتوعية العامة، وتحفيز مناقشة مسائل الأمان والحماية في هذه النماذج الكبيرة".

تبين الورقة البحثية أنه يمكن تحديد ما إذا كانت نماذج الذكاء الاصطناعي قد نسخت الصور، وقياس درجة تشابه الصور التي نسختها مع الصور الأصلية، ويوضح سنغ أن هاتين المسألتين في غاية الأهمية على المدى البعيد.

اقرأ أيضاً: كيف غيّر «تشات جي بي تي» نظرة العالم إلى الذكاء الاصطناعي؟

نموذج ستيبل ديفيوجن مفتوح المصدر، وبالتالي يمكن لأي شخص دراسته وتحليله. أما نموذج إيماجين فهو مغلق، ولكن شركة جوجل منحت الباحثين صلاحية الدخول إليه. يقول سنغ إن هذا العمل مثال رائع على أهمية منح الباحثين صلاحيات الدخول إلى هذا النماذج لتحليلها، ويقول إن الشركات يجب أن تكون على المستوى نفسه من الشفافية فيما يتعلق بالنماذج الأخرى، مثل تشات جي بي تي من أوبن أيه آي.

ولكن، وعلى الرغم من تميز هذه النتائج، فمن الضروري لفت النظر إلى بعض النقاط. فالصور التي تمكن الباحثون من استخلاصها ظهرت في بيانات التدريب عدة مرات، أو كانت غريبة إلى حد كبير مقارنة بالصور الأخرى في مجموعة البيانات، وفقاً للأستاذ المساعد المختص في علوم الحاسوب في المعهد السويسري الفدرالي للتكنولوجيا في زيورخ، فلوريان تريمر، وهو أحد أعضاء المجموعة.

اقرأ أيضاً: كيف سيحدث بوت الدردشة تشات جي بي تي ثورة في مجال الأعمال؟

ويقول تريمر أيضاً إن احتمال تذكر النموذج للصور يزداد إلى حد كبير بالنسبة للأشخاص ذوي المظهر المميز أو الأسماء المميزة.

كما لم يتمكن الباحثون من استخلاص الكثير من الصور المطابقة لصور أشخاص من نموذج الذكاء الاصطناعي، إذ لم تتعدَ نسبتها الواحد بالمليون، كما يقول ويبستر.

ولكن تريمر يقول إن ذلك لا يزال مثيراً للقلق: "آمل حقاً ألا يستخف أي شخص بهذه النتائج لمجرد أن النسبة المئوية تبدو مهملة". ويضيف قائلاً: "إن أي نسبة مئوية تفوق الصفر تستوجب الاهتمام الكامل".