content_cookies111:string(1886) "{"id":66933,"content_cookies":null,"user_header":{"SERVER_SOFTWARE":"Apache\/2.4.52 (Debian)","REQUEST_URI":"\/%D8%A3%D8%AF%D8%A7%D8%A9-%D8%AA%D8%AD%D9%85%D9%8A-%D8%B5%D9%88%D8%B1-%D9%85%D9%86-%D8%AA%D9%84%D8%A7%D8%B9%D8%A8-%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A\/","REDIRECT_STATUS":"200","HTTP_X_FORWARDED_PROTO":"https","HTTP_CONNECTION":"upgrade","HTTP_HOST":"technologyreview.ae","HTTP_CF_CONNECTING_IP":"3.214.184.223","HTTP_CF_IPCOUNTRY":"US","HTTP_ACCEPT_ENCODING":"gzip","HTTP_CF_RAY":"80bdcfe35c420603-IAD","HTTP_CF_VISITOR":"{\\\"scheme\\\":\\\"https\\\"}","HTTP_USER_AGENT":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)","HTTP_ACCEPT":"text\/html,application\/xhtml+xml,application\/xml;q=0.9,*\/*;q=0.8","HTTP_ACCEPT_LANGUAGE":"en-US,en;q=0.5","HTTP_CDN_LOOP":"cloudflare","PATH":"\/usr\/local\/sbin:\/usr\/local\/bin:\/usr\/sbin:\/usr\/bin:\/sbin:\/bin","SERVER_SIGNATURE":"Apache\/2.4.52 (Debian) Server at technologyreview.ae Port 80<\/address>\n","SERVER_NAME":"technologyreview.ae","SERVER_ADDR":"172.18.0.9","SERVER_PORT":"80","REMOTE_ADDR":"3.214.184.223","DOCUMENT_ROOT":"\/var\/www\/html","REQUEST_SCHEME":"http","CONTEXT_PREFIX":"","CONTEXT_DOCUMENT_ROOT":"\/var\/www\/html","SERVER_ADMIN":"webmaster@localhost","SCRIPT_FILENAME":"\/var\/www\/html\/index.php","REMOTE_PORT":"49022","REDIRECT_URL":"\/\u0623\u062f\u0627\u0629-\u062a\u062d\u0645\u064a-\u0635\u0648\u0631-\u0645\u0646-\u062a\u0644\u0627\u0639\u0628-\u0630\u0643\u0627\u0621-\u0627\u0635\u0637\u0646\u0627\u0639\u064a\/","GATEWAY_INTERFACE":"CGI\/1.1","SERVER_PROTOCOL":"HTTP\/1.1","REQUEST_METHOD":"GET","QUERY_STRING":"","SCRIPT_NAME":"\/index.php","PHP_SELF":"\/index.php","REQUEST_TIME_FLOAT":1695587707.648249,"REQUEST_TIME":1695587707,"argv":[],"argc":0,"HTTPS":"on"},"user_ip":"3.214.184.223","user_agent":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)"}"
تُدخل أداة فوتو غارد التي طورّها الباحثون في معهد ماساتشوستس للتكنولوجيا تعديلات على الصور لا تمكن ملاحظتها ولكنها تمنع أنظمة الذكاء الاصطناعي من التلاعب بها.
هذه الميزة مخصصة للمشتركين يمكنهم مشاركة المواضيع بحد اقصى 10 مواد من كافة مواقع مجرة
هل تتذكّر الصور الشخصية التي نشرتها؟ لا يوجد حالياً ما يمنع أي شخص من تحميلها وتعديلها باستخدام أنظمة الذكاء الاصطناعي التوليدية ذات الإمكانات الهائلة. والأسوأ من ذلك، قد يكون إثبات أن الصورة الناتجة عن عملية التعديل هذه مزيفة مستحيلاً بفضل تطوّر هذه الأنظمة.
لكن الخبر السار هو أن الباحثين في معهد ماساتشوستس للتكنولوجيا طوّروا أداة جديدة يمكن أن تقي من ذلك.
فوتو غارد : أداة لمنع التلاعب بالصور(PhotoGuard)
تؤدي هذه الأداة التي تحمل اسم فوتو غارد (PhotoGuard) دور درع واقٍ من خلال إجراء تعديلات بسيطة وغير مرئية للعين البشرية على الصور، ولكنها تمنع التلاعب بها. إذا حاول أحد استخدام تطبيق تعديل يعتمد على أحد نماذج الذكاء الاصطناعي التوليدية، مثل ستيبل ديفيوجن (Stable Diffusion)، للتلاعب بصورة "محمية" بهذه الأداة، فستبدو الصور المعدّلة غير واقعية أو مشوهة.
سجل في نشرة الخوارزمية
ابق مواكباً لأحدث أخبار وتطبيقات الذكاء الاصطناعي في قطاعك، وتأثيراته المستقبلية على مجال عملك.
تم الإشتراك بنجاح !هناك خطأ ما, حاول مجدداً
يقول الباحث في مرحلة الدكتوراة في معهد ماساتشوستس للتكنولوجيا، هادي سلمان، الذي أسهم في تطوير الأداة الجديدة، إنه حالياً "يمكن لأي شخص التقاط صور للآخرين وتعديلها كما يشاء، ووضعهم في مواقف سيئة للغاية وابتزازهم". قُدّمت الأداة الجديدة في المؤتمر الدولي للتعلم الآلي الذي أقيم في أواخر شهر يوليو/ تموز 2023.
قال سلمان إن أداة فوتو غارد هي "محاولة لحل مشكلة التلاعب بالصور على نحو ضار باستخدام نماذج الذكاء الاصطناعي". على سبيل المثال، يمكن استخدام الأداة الجديدة لمنع تحويل صور النساء الشخصية إلى مواد إباحية مزيّفة دون موافقتهن.
لم تكن الحاجة إلى إيجاد طرق لكشف التلاعب المدعوم بالذكاء الاصطناعي ومنعه ملحّة كما هي اليوم، وذلك لأن أدوات الذكاء الاصطناعي التوليدية جعلت هذا التلاعب أسرع وأسهل من أي وقت مضى. التزمت شركات الذكاء الاصطناعي الرائدة مثل أوبن أيه آي وجوجل وميتا من خلال تعهّد طوعي مع البيت الأبيض بتطوير مثل هذه الأساليب في محاولة لمنع الاحتيال والخداع. أداة فوتو غارد هي تقنية تكميلية لتقنية أخرى هي الوسم بالعلامات المائية؛ إذ تهدف الأولى إلى منع استخدام أدوات الذكاء الاصطناعي من التلاعب بالصور، بينما يعتمد الوسم بالعلامات المائية على استخدام إشارات غير مرئية مماثلة تتيح للأشخاص اكتشاف المحتوى الذي أنشأه الذكاء الاصطناعي بمجرد إنشائه.
استخدم فريق معهد ماساتشوستس للتكنولوجيا طريقتين مختلفتين لمنع تعديل الصور باستخدام نموذج توليد الصور المفتوح المصدر، ستيبل ديفيوجن.
تحمل الطريقة الأولى اسم هجوم المُرمِّز؛ حيث تضيف أداة فوتو غارد إشارات لا يمكن إدراكها إلى الصور، يفسّرها نموذج الذكاء الاصطناعي على أنها أشياء أخرى. على سبيل المثال، يمكن أن تدفع هذه الإشارات نموذج الذكاء الاصطناعي إلى تصنيف صورة لمقدّم البرامج، تريفر نواه، على أنها كتلة من اللون الرمادي الصافي، ونتيجة لذلك فإن أي محاولة لاستخدام نموذج ستيبل ديفيوجن لتعديل الصورة ستبدو نتائجها غير مقنعة.
الآلية الثانية الأكثر فعالية هي هجوم البعثرة، تُعطّل هذه الآلية طريقة توليد نماذج الذكاء الاصطناعي للصور من خلال ترميزها بإشارات سرية تغيّر طريقة معالجة النماذج لها. استطاع الفريق، من خلال إضافة هذه الإشارات إلى صورة نواه، التلاعب بنموذج ستيبل ديفيوجن ودفعه لتجاهل الأمر النصيّ وتوليد الصورة التي أرادها الباحثون. بالنتيجة، ستظهر أي صورة لنواه رمادية اللون إذا أُجري عليها تعديل باستخدام الذكاء الاصطناعي.
يقول أستاذ علوم الكمبيوتر في جامعة شيكاغو، بن جاو، الذي طور طريقة وقائية مشابهة تحمل اسم غليز (Glaze) يمكن للفنانين استخدامها لمنع نماذج الذكاء الاصطناعي من استخدام أعمالهم، إن الأداة الجديدة "نتجت عن الحاجة الملموسة لتطوير طريقة فعالة والإمكانات الحالية".
تقول عالمة الأبحاث في شركة ميتا، إميلي وينغر، التي عملت أيضاً على تطوير أداة غليز وطوّرت طرقاً للوقاية من تكنولوجيا التعرّف على الوجه، إن الأدوات مثل فوتو غارد تغيّر الاعتبارات الاقتصادية لدى المهاجمين وما يحفزهم؛ لأنها تصعّب استخدام الذكاء الاصطناعي بطرق ضارة.
تضيف وينغر قائلة: "كلما زادت العقبات، قل عدد من يرغبون في تجاوزها أو يقدرون عليه".
يقول جاو إن التحدي يتمثل في تطبيق التقنية الجديدة على نماذج الذكاء الاصطناعي الأخرى، إذ أصدر الباحثون نسخة تجريبية من الأداة على الإنترنت تسمح للأشخاص بحماية صورهم، لكنها تعمل حالياً بكفاءة على نموذج ستيبل ديفيوجن فقط.
تقول الباحثة في مرحلة الدكتوراة في جامعة ميريلاند، فاليريا شيريبانوفا، التي طوّرت تقنيات لحماية مستخدمي مواقع التواصل الاجتماعي من تكنولوجيا التعرّف على الوجه، إنه على الرغم من أن أداة فوتو غارد تجعل التلاعب بالصور الجديدة صعباً، فهي لا توفر حماية تامّة ضد تكنولوجيا التزييف العميق، لأن الصور القديمة للمستخدمين قد تبقى متاحة وتمكن إساءة استخدامها، كما أن هناك أكثر من طريقة لإنتاج الصور المزيفة.
ويقول الأستاذ في معهد ماساتشوستس للتكنولوجيا الذي أسهم في تطوير أداة فوتو غارد، ألكساندر مادري، إنه نظرياً يمكن للناس استخدام هذه الأداة لحماية صورهم قبل تحميلها على الإنترنت، لكنه يضيف إن النهج الأكثر فعالية هو أن تطبّقها شركات التكنولوجيا على الصور التي يحمّلها الناس على منصاتها تلقائياً.
مع ذلك، هذه المسألة هي بمثابة سباق تسلّح؛ إذ إنه على الرغم من تعهّد هذه الشركات بتحسين أساليب الحماية، فهي تعمل أيضاً على تطوير نماذج الذكاء الاصطناعي الجديدة الأكثر كفاءة بسرعة هائلة، وقد تتمكن النماذج الجديدة من تجاوز أي إجراءات حماية جديدة.
يقول سلمان إن أفضل سيناريو هو أن توفّر الشركات التي تطوّر نماذج الذكاء الاصطناعي طرقاً لحماية الصور قابلة للتطبيق على نماذج الذكاء الاصطناعي المحدّثة جميعها.
يقول الخبير في الذكاء الاصطناعي التوليدي وتكنولوجيا التزييف العميق، هنري آيدر، إن تطوير شركات الذكاء الاصطناعي طرقاً لحماية الصور من أساليب التلاعب المعتمدة على الذكاء الاصطناعي هو خيار قابل للتطبيق أكثر من محاولة استخدام أساليب غير موثوقة لكشف التلاعب المعتمد على الذكاء الاصطناعي.
يضيف آيدر قائلاً إنه "يجب على أي منصة للتواصل الاجتماعي أو شركة للذكاء الاصطناعي أن تفكّر في حماية المستخدمين من أن يقعوا ضحية إنشاء المواد الإباحية [من دون موافقتهم] أو أن تُستنسخ وجوههم لإنشاء المحتوى التشهيريّ".
ميليسا هيكيلا من كبار مراسلي مجلة إم آي تي تكنولوجي ريفيو، حيث تغطي مواضيع الذكاء الاصطناعي وتأثيره على المجتمع. كتبت سابقاً عن السياسات العامة وسياسة الذكاء الاصطناعي في صحيفة "بوليتيكو" (POLITICO). عملت أيضاً في مجلة "ذي إيكونومست" (The Economist) … المزيد وكانت مذيعة أخبار. صنّفتها مجلة فوربس كواحدة من بين 30 شخصية تقل أعمارهم عن 30 عاماً في قائمة المبدعين في وسائل الإعلام الأوروبية في عام 2020.
أصبح الذكاء الاصطناعي أكثر براعة في اجتياز الاختبارات المصممة لقياس القدرات الإبداعية عند البشر، ففي دراسة نُشِرت في مجلة ساينتيفيك ريبورتس (Scientific Reports) مؤخراً، حققت بوتات الدردشة التي تعمل بالذكاء الاصطناعي متوسط درجات أعلى من البشر في مهمة الاستخدامات البديلة (Alternate Uses Task)، وهي اختبار شائع الاستخدام لقياس هذه القدرات.
نستخدم ملفات تعريف الارتباط لتحسين تجربتك، استمرار استخدامك للموقع يعني موافقتك على ذلك. سياسة الخصوصيةأوافقX
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.