$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6907 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(20092)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "44.206.227.65"
  ["user_header"]=>
  object(stdClass)#7074 (41) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(162) "/%d9%83%d8%b4%d9%81-%d8%a7%d9%84%d9%88%d8%ac%d9%88%d9%87-%d8%a7%d9%84%d8%ad%d9%82%d9%8a%d9%82%d9%8a%d8%a9-%d9%85%d9%86-%d8%a7%d9%84%d9%85%d8%b2%d9%8a%d9%81%d8%a9/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86b6df7a09093b7e-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "44.206.227.65"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.20" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(13) "44.206.227.65" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "49560" ["REDIRECT_URL"]=> string(58) "/كشف-الوجوه-الحقيقية-من-المزيفة/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711621073.032315) ["REQUEST_TIME"]=> int(1711621073) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7073 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7072 (2) { ["content_id"]=> int(20092) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

لماذا يشكك الباحثون بنماذج التعلم العميق؟

4 دقائق
كشف الوجوه الحقيقية من المزيفة
مصدر الصورة: إم إس تيك/ بيكسلز، موقع THISPERSONDOESNOTEXIST.COM
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

إذا دخلت على موقع الويب This Person Does Not Exist (هذا الشخص غير موجود)، فسيعرض عليك وجهاً بشرياً يكاد يصل إلى مستوى الكمال في الواقعية، ولكنه مزيف تماماً. وفي كل مرة تقوم فيها بإعادة تحميل الصفحة، ستقوم الشبكة العصبونية للموقع بتوليد وجه آخر، ووجه آخر، مراراً وتكراراً. ويعتمد إنتاج هذا التتابع اللانهائي من الوجوه التي ركبها الذكاء الاصطناعي على شبكة عصبونية توليدية تنافسية (جان GAN)، وهي نوع من أنظمة الذكاء الاصطناعي التي تتعلم كيفية إنتاج أمثلة واقعية ومزيفة بشكل مشابه للبيانات التي تدربت عليها. 

غير أن هذه الوجوه المولَّدة بهذه الطريقة، التي بدأت تظهر في الأفلام المنتجة حاسوبياً والإعلانات، قد لا تكون فريدة إلى الدرجة التي توحي بها. ففي بحث يحمل عنوان: هذا الشخص موجود (على الأرجح)، يبين الباحثون أن الكثير من الوجوه التي تنتجها أنظمة جان تحمل شبهاً كبيراً بالأشخاص الحقيقيين الموجودين في بيانات التدريب. ويمكن استخدام الوجوه المزيفة عملياً لكشف الوجوه الحقيقية التي تدربت أنظمة جان عليها، ما يجعل كشف هويات هؤلاء الأشخاص ممكناً. يمثل هذا العمل أحدث حلقة من سلسلة من الدراسات التي تشكك في الفكرة الشائعة التي تقول إن الشبكات العصبونية “صناديق سوداء” لا تكشف أي شيء عما يجري داخلها.

ولكشف بيانات التدريب المخفية، استخدم ريان ويبستر وزملاؤه بجامعة كاين نورماندي في فرنسا طريقة اختراق تسمى اختراق العضوية، لتحديد ما إذا كانت بيانات معينة قد استُخدمت في تدريب نموذج شبكة عصبونية. عادة ما تعتمد طرق الاختراق هذه على فروق ضئيلة بين طريقة معاملة النموذج للبيانات التي تدرب عليها -والتي رآها بالتالي آلاف المرات- وطريقة معاملته للبيانات الجديدة.

وعلى سبيل المثال، قد يتعرف النموذج على صورة لم يرها سابقاً بثقة، ولكنه سيكون أقل ثقة بقليل مما سيكون عليه في حالة صورة تدرب عليها. يستطيع نموذج اختراق ثانٍ تعلم كشف هذه العلامات الفارقة في سلوك النموذج الأول واستخدامها لتحديد ما إذا كانت بعض البيانات، مثل صورة معينة، جزءاً من بيانات التدريب أم لا. 

يمكن أن تؤدي أساليب الاختراق هذه إلى تسريبات أمنية. وعلى سبيل المثال، قد تؤدي معرفة استخدام بيانات شخص ما لتدريب نموذج متعلق بمرض معين إلى كشف إصابة هذا الشخص بذلك المرض.

قام فريق ويبستر بتعميم هذه الفكرة، فبدلاً من تحديد الصور المستخدمة في تدريب نظام جان بالضبط، عدّلوا الطريقة لتحديد الصور الموجودة ضمن مجموعة التدريب، التي لا تظهر بشكل مطابق تماماً، بل تبدو كأنها لنفس الشخص؛ أي الوجوه التي تحمل نفس الهوية. ولتحقيق هذا، قام الباحثون في البداية بتوليد بعض الوجوه باستخدام جان، ومن ثم استخدموا نظام ذكاء اصطناعي منفصل للتعرف على الوجوه لتحديد ما إذا كانت أي من هذه الوجوه تطابق هوية أي من الوجوه الموجودة في بيانات التدريب.

وكانت النتائج مذهلة. ففي الكثير من الحالات، وجد الفريق عدة صور لأشخاص حقيقيين ضمن بيانات التدريب تبدو مطابقة لوجوه مزيفة مولدة من قبل نظام جان، ما يعني كشف هوية الأفراد الذين تدرب النظام على وجوههم.

توليد الوجوه عبر نظام جان
يبين العمود الأيسر في كل كتلة الوجوه التي ولدها نظام جان. هذه الوجوه تليها ثلاث صور لأشخاص حقيقيين موجودين في بيانات التدريب.
مصدر الصورة: جامعة كاين نورماندي

يثير هذا العمل بعض المخاوف الجدية حول الخصوصية. يقول جان كاوتز، نائب رئيس أبحاث التعلم والإحساس في إنفيديا: “يوجد لدى أوساط الذكاء الاصطناعي إحساس خاطئ بالأمان لدى مشاركة نماذج الشبكات العصبونية المدربة بالتعلم العميق”. 

من الناحية النظرية، يمكن تطبيق هذه الطريقة على بيانات فردية أخرى، مثل بيانات القياسات الحيوية أو البيانات الطبية. ولكن، ومن جهة أخرى، يشير ويبستر إلى أنه يمكن أيضاً استخدام هذه الطريقة من قبل الأفراد للتحقق من استخدام بياناتهم لتدريب أنظمة الذكاء الاصطناعي دون موافقتهم.

ويستطيع الفنانون معرفة ما إذا كانت أعمالهم قد استخدمت لتدريب نظام جان في أداة تجارية، كما يقول: “يمكننا استخدام هذه الطريقة لمصلحتنا للحصول على أدلة على انتهاك حقوق الملكية الفكرية”.

يمكن استخدام هذه العملية أيضاً للتأكد من عدم كشف جان عن أي معلومات خاصة في المقام الأول. فقد يستطيع نظام جان التحقق ما إذا كانت ابتكاراته تشبه أمثلة حقيقية في بيانات التدريب قبل إطلاقها باستخدام نفس التقنية التي طورها الباحثون.

غير أن هذا يفترض طبعاً إمكانية الحصول على بيانات التدريب، كما يقول كاوتز. ولهذا، توصل بالاشتراك مع زملائه في إنفيديا إلى طريقة مختلفة لكشف البيانات الخاصة، بما فيها صور الوجوه وأجسام أخرى، والبيانات الطبية، وغيرها، بحيث لا تتطلب الوصول إلى بيانات التدريب على الإطلاق.

وبدلاً من ذلك، قاموا بتطوير خوارزمية يمكن أن تعيد تشكيل البيانات التي استخدمها النموذج المدرب، وذلك بعكس الخطوات التي ينفذها النموذج في أثناء معالجة هذه البيانات. ولنأخذ كمثال شبكة عصبونية مدربة على التعرف على الصور، فحتى تحدد محتوى صورة معينة، يجب أن تمررها عبر عدة طبقات من العصبونات الاصطناعية. وتقوم كل طبقة باستخلاص مستويات مختلفة من المعلومات، بدءاً من الحواف إلى الأشكال وصولاً إلى ملامح أكثر تحديداً.  

وقد وجد فريق كاوتز أنه يمكن مقاطعة النموذج في أثناء تنفيذ هذه الخطوات وعكس اتجاه العمل، وذلك لإعادة تركيب صورة مدخلة بالاعتماد على البيانات الموجودة داخل النموذج. وقاموا بتجربة هذه الطريقة على مجموعة متنوعة من نماذج التعرف على الصور وأنظمة جان. وفي واحد من هذه الاختبارات، بينوا إمكانية إعادة تشكيل صور إيماج نت بدقة، وهي واحدة من أفضل قواعد البيانات المخصصة للتعرف على الصور.

صور مركبة باستخدام نموذج مدرب على إيماج نت
صور إيماج نت (في الأعلى) بجانب صور مركبة من هذه الصور باستخدام نموذج مدرب على إيماج نت (في الأسفل) ويعمل بشكل عكسي.
مصدر الصورة: إنفيديا

وكما في العمل الذي قدمه ويبستر، فإن الصور المركبة من جديد تشبه الصور الحقيقية إلى حد كبير. يقول كاوتز: “لقد تفاجأنا بجودة الصور النهائية”.

يقول الباحثون إن هذا النوع من الاختراق ليس مجرد فكرة نظرية. فقد بدأت الهواتف الذكية وغيرها من الأجهزة الصغيرة بالاعتماد على الذكاء الاصطناعي بشكل متزايد. ونظراً لقيود الطاقة والذاكرة، فإن النماذج الموجودة على الأجهزة نفسها تكون في بعض الأحيان مُعالَجة جزئياً، ويتم إرسالها إلى السحابة للخضوع إلى المعالجة النهائية، وذلك وفق عملية تعرف باسم الحوسبة المجزأة. ويفترض معظم الباحثين أن الحوسبة المجزأة لن تكشف أي بيانات خاصة من هاتف الشخص، لأنها لا تشارك سوى النموذج نفسه. ولكن طريقة الاختراق الخاصة به تبين خطأ هذه الفكرة.

يعمل كاوتز وزملاؤه حالياً على ابتكار طريقة لمنع النماذج من تسريب البيانات الخاصة. ويقول إنهم كانوا يسعون إلى فهم المخاطر للتقليل من الثغرات.

وعلى الرغم من التباين الكبير في الطرق بينه وبين ويبستر، فإنه يعتقد أن العملين يكملان بعضهما بشكل جيد. فقد بين فريق ويبستر أن البيانات الخاصة يمكن أن تكون موجودة في خرج النموذج، على حين بين فريق كاوتز أنه يمكن كشف البيانات الخاصة بتشغيل النموذج بشكل عكسي، ما يكشف بيانات الدخل. يقول كاوتز: “إن دراسة كلا الاتجاهين أمر مهم للتوصل إلى تصور أفضل حول كيفية منع الاختراقات”.

Content is protected !!