Article image
مصدر الصورة: إم إس تك عبر أنسبلاش



يتوافر عدد متزايد من الأدوات اليوم التي تتيح لك منع استخدام صورك الشخصية في تدريب أنظمة التعرف على الوجوه.

2021-05-18 07:21:52

15 مايو 2021

قد يبدو تحميل الصور الشخصية على الإنترنت بمنزلة استهتار بالخصوصية؛ إذ ينطوي على تساؤلات من قبيل: من سيتمكن من الوصول إليها؟ وماذا سيفعلون بها؟ وما هي خوارزميات التعلم الآلي التي ستستفيد منها في عملية التدريب؟

قامت شركة كليرفيو بالفعل بتزويد وكالات إنفاذ القانون الأميركية بأداة تعرف على الوجوه تم تدريبها على صور ملايين الأشخاص التي تم جمعها من صفحات الويب العامة على الإنترنت. لكن من المحتمل أن يكون ذلك مجرد البداية؛ ففي الوقت الحاضر، يمكن لأي شخص يتمتع بمهارات البرمجة الأساسية تطوير برنامج تعرف على الوجوه؛ ما يعني أن هناك احتمالية أكثر من أي وقت مضى لإساءة استخدام هذه التكنولوجيا في كل شيء، بدءاً من التحرش الجنسي والتمييز العنصري وصولاً إلى القمع السياسي والاضطهاد الديني.

يبذل عدد من الباحثين في مجال الذكاء الاصطناعي جهوداً للوقوف في وجه هذه المخاطر، من خلال تطوير أساليب تضمن عدم قدرة أنظمة الذكاء الاصطناعي على التعلم من البيانات الشخصية. يتم تقديم اثنين من أحدث هذه الأساليب هذا الأسبوع في المؤتمر الدولي لتمثيلات التعلم (ICLR)، وهو أحد أبرز المؤتمرات في مجال الذكاء الاصطناعي.

تقول إميلي وينجر من جامعة شيكاغو، التي طورت مع زملائها في الصيف الماضي واحدة من الأدوات الأولى في هذا المجال، والتي تسمى فوكس (Fawkes): “لا أحب أن يأخذ الناس مني أشياء لا يفترض بهم امتلاكها، أعتقد أن الكثير منا كان يراوده هذا الشعور في نفس الوقت”.

لا يعتبر “تسمم البيانات” فكرة جديدة؛ فمن شأن إجراءات من قبيل حذف البيانات التي تمتلكها الشركات عنك، أو التلويث المتعمد لمجموعات البيانات من خلال إدخال أمثلة مزيفة، أن تجعل من الصعب على الشركات تدريب نماذج تعلم آلي دقيقة. لكن حتى تكون هذه الجهود مؤثرة، فإنها تتطلب عادةً عملاً جماعياً يشارك فيه مئات أو آلاف الأشخاص. ما يميز التقنيات الجديدة هو أنه يتم تطبيقها على صور شخص واحد.

يقول دانيال ما من جامعة ديكن في أستراليا: “يمكن للفرد استخدام هذه التكنولوجيا وكأنها مفتاح لقفل بياناته، إنها تمثل خط دفاع جديد على جبهة حماية الحقوق الرقمية للناس في عصر الذكاء الاصطناعي”.

الاختباء أمام أنظار الملأ

تتبع معظم الأدوات الجديدة -بما في ذلك فوكس- نفس النهج الأساسي؛ إذ تقوم بإجراء تغييرات طفيفة على الصورة بحيث يصعب ملاحظتها بالعين البشرية ولكنها تفشِل أنظمة الذكاء الاصطناعي وتدفعها للخطأ في التعرف على الشخص أو الشيء الذي تراه في الصورة. تشبه هذه التقنية إلى حد بعيد أحد أنواع الهجمات التنافسية، حيث يمكن أن تؤدي تعديلات طفيفة في بيانات الإدخال إلى دفع نماذج التعلم العميق إلى ارتكاب أخطاء كبيرة.

وعلى سبيل المثال، عند تطبيق تقنية فوكس على مجموعة من صور السيلفي، فإنها ستدخل تعديلات على مستوى البكسل إلى الصور تمنع أحدث أنظمة التعرف على الوجوه من تحديد هوية الشخص الظاهر في الصور. وعلى عكس الطرق السابقة المستخدمة في هذه المهمة، مثل ارتداء قناع وجه لخداع الذكاء الاصطناعي، فإن هذه التقنية تبقي الصور وكأنها دون تعديل بالنسبة للبشر.

اختبرت فينجر وزملاؤها أداتهم على العديد من الأنظمة التجارية المستخدمة على نطاق واسع في التعرف على الوجوه، بما في ذلك إيه دبليو إس ريكوجنيشين (AWS Rekognition) من أمازون ومايكروسوفت آزور وفيس ++، التي طورتها شركة ميجفي تكنولوجي الصينية. وفي تجربة صغيرة على مجموعة بيانات مكونة من 50 صورة، كانت فوكس فعالة بنسبة 100% ضد جميع الأنظمة السابقة؛ حيث منعت النماذج المدربة على الصور المعدلة للأشخاص من التعرف لاحقاً على صور هؤلاء الأشخاص في صور جديدة. لقد نجحت صور التدريب المعدلة في منع تلك الأنظمة من تشكيل تمثيل دقيق لوجوه هؤلاء الأشخاص.

تم تحميل فوكس بالفعل ما يقرب من نصف مليون مرة من موقع المشروع. وقام أحد المستخدمين بإنشاء إصدار منها متاح عبر الإنترنت؛ ما يسهل على الأشخاص استخدامها (على الرغم من أن فينجر لا تقدم ضمانات لاستخدام جهات خارجية للشيفرة، محذرةً: “أنت لا تعرف ما يحدث لبياناتك أثناء قيام هذا الشخص بمعالجتها”). ورغم أنه لا يوجد تطبيق هاتف لأداة فوكس حتى الآن، ولكن لا يوجد ما يمنع أي شخص من إنشاء تطبيق، كما تقول فينجر.

ربما تنجح فوكس في منع أنظمة جديدة من التعرف عليك في الصور، مثل نظام جديد من كليرفيرو، لكنها لن تستطيع إفشال الأنظمة الحالية التي تم تدريبها بالفعل على صورك غير المعدلة سابقاً باستخدام هذه التقنية. ومع ذلك، فإنها تخضع لتحسينات متواصلة. وتعتقد فينجر أن الأداة التي طورتها فاليريا شيريبانوفا وزملاؤها من جامعة ماريلاند، أحد الفرق المشاركة في (ICLR) هذا الأسبوع، قد تتعامل مع هذه المشكلة.

تسمى هذه الأداة لو-كي (LowKey)، وتتمتع بميزات إضافية عن فوكس من خلال تطبيق التعديلات على الصور بناءً على نوع أقوى من الهجمات التنافسية، الذي ينجح أيضاً في خداع النماذج التجارية التي تم تدريبها مسبقًا. وتتوافر نسخة من لو-كي عبر الإنترنت، شأنها شأن فوكس.

أضاف ما وزملاؤه تطويرات أهم حتى؛ إذ يستطيع أسلوبهم، الذي يحول الصور إلى ما يسمونه “أمثلة لا يمكن تعلمها“، أن يدفع الذكاء الاصطناعي إلى تجاهل صورك السيلفي تماماً بشكل فعال. تقول فينجر: “أعتقد أنه أمر رائع، فوكس تدرب نموذجاً ليتعلم شيئاً خاطئاً عنك، وهذه الأداة تدرب نموذجاً حتى لا يتعلم أي شيء عنك”.

تحويل الصور إلى أمثلة لا يمكن تعلمها

يتم تحويل صوري التي تم جمعها من صفحات الويب (أعلى) إلى أمثلة لا يمكن تعلمها (أسفل) وسيتجاهلها أي نظام تعرف على الوجوه. (التعديل من إنتاج دانيال ما وسارة مونازام عرفاني وزملائهم).

بخلاف فوكس والأدوات المماثلة، فإن “الأمثلة التي لا يمكن تعلمها” لا تستند إلى الهجمات التنافسية. بدلاً من إدخال تغييرات على الصورة لتدفع الذكاء الاصطناعي إلى ارتكاب خطأ، يضيف فريق ما تغييرات طفيفة تخدع الذكاء الاصطناعي وتدفعه لتجاهل الصورة أثناء التدريب. وعند عرض الصورة المعدلة على النظام لاحقاً، فإن تقييمه لمحتواها سيكون مجرد تخمين عشوائي.

قد تثبت “الأمثلة التي لا يمكن تعلمها” فعالية أكبر من الهجمات التنافسية؛ حيث لا يمكن تدريب الأنظمة عليها. كلما ازداد عدد الأمثلة التنافسية التي يراها نظام الذكاء الاصطناعي، امتلك قدرة أكبر على التعرف عليها بشكل أفضل. ولكن بما أن ما وزملاؤه منعوا الذكاء الاصطناعي من التدرب على الصور في المقام الأول، فإنهم يقولون إن ذلك لن يحدث مع “الأمثلة التي لا يمكن تعلمها”.

ومع ذلك، تقر فينجر بأنها معركة لم تحسم بعد؛ فقد لاحظ فريقها مؤخراً أنه لم يعد من الممكن خداع خدمة التعرف على الوجوه من مايكروسوفت آزور باستخدام بعض صورهم. وتقول: “أصبحت فجأة بطريقة ما مقاومة للصور المموهة التي قمنا بتوليدها، لا نعرف ما سبب ذلك بالضبط”.

ربما تكون مايكروسوفت قد غيرت خوارزميتها، أو ربما يكون نظامها للذكاء الاصطناعي قد رأى الكثير من الصور التي أنتجها أشخاص يستخدمون فوكس لدرجة أنه تعلم كيفية التعرف عليها. وأياً كان التفسير، أصدر فريق فينجر تحديثاً لأداتهم الأسبوع الماضي ينجح في خداع نظام آزور من جديد. وتقول: “إنه سباق تسلح آخر يشبه لعبة القط والفأر”.

بالنسبة لفينجر، ما يحدث في هذا المجال يمثل قصة الإنترنت. وتضيف: “تستفيد شركات مثل كليرفيو مما تعتبره بيانات متاحة مجاناً وتستخدمها للقيام بكل ما تريد”.

قد تساعد اللوائح التنظيمية على المدى الطويل، لكن ذلك لن يمنع الشركات من استغلال الثغرات. وتقول: “سيكون هناك دائماً انفصال بين ما هو مقبول قانونياً وما يريده الناس بالفعل، ويتجسد دور أدوات مثل فوكس في سدّ هذه الفجوة”.

وتختم بالقول: “فلنعمل على منح الناس بعضاً من قوة المواجهة التي لم يمتلكوها من قبل”.