content_cookies111:string(1892) "{"id":61586,"content_cookies":null,"user_header":{"SERVER_SOFTWARE":"Apache\/2.4.52 (Debian)","REQUEST_URI":"\/%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D9%88%D8%A7%D9%84%D9%85%D9%84%D9%83%D9%8A%D8%A9-%D8%A7%D9%84%D9%81%D9%83%D8%B1%D9%8A%D8%A9\/","REDIRECT_STATUS":"200","HTTP_X_FORWARDED_PROTO":"https","HTTP_CONNECTION":"upgrade","HTTP_HOST":"technologyreview.ae","HTTP_CF_CONNECTING_IP":"44.200.101.84","HTTP_CF_IPCOUNTRY":"US","HTTP_ACCEPT_ENCODING":"gzip","HTTP_CF_RAY":"80e5dbc8ff81829e-IAD","HTTP_CF_VISITOR":"{\\\"scheme\\\":\\\"https\\\"}","HTTP_USER_AGENT":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)","HTTP_ACCEPT":"text\/html,application\/xhtml+xml,application\/xml;q=0.9,*\/*;q=0.8","HTTP_ACCEPT_LANGUAGE":"en-US,en;q=0.5","HTTP_CDN_LOOP":"cloudflare","PATH":"\/usr\/local\/sbin:\/usr\/local\/bin:\/usr\/sbin:\/usr\/bin:\/sbin:\/bin","SERVER_SIGNATURE":"Apache\/2.4.52 (Debian) Server at technologyreview.ae Port 80<\/address>\n","SERVER_NAME":"technologyreview.ae","SERVER_ADDR":"172.18.0.9","SERVER_PORT":"80","REMOTE_ADDR":"44.200.101.84","DOCUMENT_ROOT":"\/var\/www\/html","REQUEST_SCHEME":"http","CONTEXT_PREFIX":"","CONTEXT_DOCUMENT_ROOT":"\/var\/www\/html","SERVER_ADMIN":"webmaster@localhost","SCRIPT_FILENAME":"\/var\/www\/html\/index.php","REMOTE_PORT":"57284","REDIRECT_URL":"\/\u0627\u0644\u0630\u0643\u0627\u0621-\u0627\u0644\u0627\u0635\u0637\u0646\u0627\u0639\u064a-\u0648\u0627\u0644\u0645\u0644\u0643\u064a\u0629-\u0627\u0644\u0641\u0643\u0631\u064a\u0629\/","GATEWAY_INTERFACE":"CGI\/1.1","SERVER_PROTOCOL":"HTTP\/1.1","REQUEST_METHOD":"GET","QUERY_STRING":"","SCRIPT_NAME":"\/index.php","PHP_SELF":"\/index.php","REQUEST_TIME_FLOAT":1696007625.349375,"REQUEST_TIME":1696007625,"argv":[],"argc":0,"HTTPS":"on"},"user_ip":"44.200.101.84","user_agent":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)"}"
هذه الميزة مخصصة للمشتركين يمكنهم مشاركة المواضيع بحد اقصى 10 مواد من كافة مواقع مجرة
وفقاً لبحث جديد، يمكن تلقيم النماذج المعروفة لتوليد الصور بتعليمات تنص على إنتاج صور أشخاص حقيقيين يمكن التعرف عليهم، ما يمكن أن يمثل خطراً على خصوصيتهم. ويبين هذا البحث أيضاً إمكانية أن يُطلب من أنظمة الذكاء الاصطناعي هذه تقديم نسخ مطابقة للصور الطبية أو الأعمال الفنية المحمية بحقوق النشر. ويمكن لهذا الاكتشاف أن يدعم قضية الفنانين الذين يخوضون حالياً معركة قضائية مع شركات الذكاء الاصطناعي بسبب انتهاكها موادَّ يملكون حقوق نشرها.
توليد صور مطابقة لصور أصلية باستخدام نماذج الذكاء الاصطناعي
وقد حصل الباحثون، الذين يعملون في شركات جوجل (Google) وديب مايند (DeepMind) وجامعة كاليفورنيا في بيركلي والمعهد السويسري الفدرالي للتكنولوجيا في زيورخ وجامعة برينستون، على نتائجهم بتلقيم نموذج ستيبل ديفيوجن (Stable Diffusion) ونموذج إيماجين (Imagen) من جوجل تعليمات للحصول على هذه الصور، مثل تلقيمها اسم شخص معين عدة مرات. وبعد ذلك، درسوا مدى التطابق بين هذه الصور المولدة والصور الأصلية الموجودة في قاعدة بيانات النموذج. وقد تمكنت مجموعة الباحثين من استخلاص أكثر من 100 صورة مطابقة لصور موجودة في مجموعة التدريب الخاصة بالذكاء الاصطناعي.
ابق مواكباً لأحدث أخبار وتطبيقات الذكاء الاصطناعي في قطاعك، وتأثيراته المستقبلية على مجال عملك.
تم الإشتراك بنجاح !هناك خطأ ما, حاول مجدداً
لقد تم تدريب هذه النماذج المخصصة لتوليد الصور على مجموعات بيانات ضخمة مؤلفة من صور وتوصيفات نصية تم تجميعها من الإنترنت. ويعمل أحدث جيل من هذه التكنولوجيا على أخذ صور من مجموعة البيانات وتغييرها بالتدريج على مستوى البيكسل، إلى أن تتحول إلى مجموعة عشوائية من البيكسلات. وبعد ذلك، يقوم نموذج الذكاء الاصطناعي بتطبيق العملية بصورة معاكسة لتحويل مجموعة البيكسلات العشوائية تلك إلى صورة جديدة.
تمكن الباحثون في هذه الورقة البحثية لأول مرة من إثبات قدرة نماذج الذكاء الاصطناعي على تذكر الصور الموجودة في مجموعات التدريب الخاصة بها، وفقاً لما قاله طالب درجة الدكتوراة في جامعة كاين نورماندي في فرنسا، ريان ويبستر، الذي درس مسألة الخصوصية في نماذج أخرى لتوليد الصور، ولكنه لم يشارك في هذا البحث. ويمكن أن تكون لهذه النتيجة آثار على الشركات الناشئة الراغبة باستخدام نماذج الذكاء الاصطناعي التوليدية في الرعاية الصحية، لأنها تبين أن هذه الأنظمة تنطوي على خطر تسريب المعلومات الخاصة الحساسة. ولم تستجب الشركات أوبن أيه آي (OpenAI) وجوجل وستابيليتي أيه آي (Stability.AI) لطلبنا بالتعليق على الأمر.
أما طالب الدكتوراة في جامعة كاليفورنيا في بيركلي، إريك والاس، وهو أحد أعضاء مجموعة الدراسة، فيقول إنهم يأملون بتنبيه الجميع إلى مشكلات الخصوصية التي قد تعانيها نماذج الذكاء الاصطناعي هذه قبل أن يتم إطلاقها على نطاق واسع في مجالات حساسة، مثل الطب.
"يرغب الكثيرون في تجربة تطبيق هذه الأنواع من الطرق التوليدية على البيانات الحساسة، وعملنا هو بالتأكيد التحذير من أن هذه الفكرة لن تكون سديدة، إلا إذا توفرت إجراءات مشددة للحماية من انتهاك الخصوصية".
أيضاً، تُسبب قدرة هذه النماذج الكبيرة على استرجاع الصور من قواعد بياناتها وإعادة إنتاجها نزاعاً حاداً بين شركات الذكاء الاصطناعي والفنانين، وتواجه ستابيليتي أيه آي قضيتَين أمام المحاكم من مجموعة من الفنانين ومنصة غيتي إيميدجيز (Getty Images)، إذ يقولون إن الشركة جمعت موادهم المحمية بحقوق النشر وعالجتها بصورة غير قانونية.
انتهاك حقوق النشر
يمكن أن تمثل نتائج الباحثين عنصراً داعماً لقضية الفنانين الذين يتهمون شركات الذكاء الاصطناعي بانتهاك حقوق النشر، وإذا تمكن الفنانون الذين استُخدمت أعمالهم في تدريب ستيبل ديفيوجن من إثبات أن النموذج نسخ أعمالهم دون موافقتهم، فقد تضطر الشركة إلى دفع تعويضات لهم.
يقول الأستاذ المساعد المختص بعلوم الحاسوب في جامعة كاليفورنيا في مدينة إرفين، والذي لم يشارك في البحث، سمير سنغ، إن النتائج مهمة وظهرت في الوقت المناسب. ويضيف قائلاً: "إنها مهمة للتوعية العامة، وتحفيز مناقشة مسائل الأمان والحماية في هذه النماذج الكبيرة".
تبين الورقة البحثية أنه يمكن تحديد ما إذا كانت نماذج الذكاء الاصطناعي قد نسخت الصور، وقياس درجة تشابه الصور التي نسختها مع الصور الأصلية، ويوضح سنغ أن هاتين المسألتين في غاية الأهمية على المدى البعيد.
نموذج ستيبل ديفيوجن مفتوح المصدر، وبالتالي يمكن لأي شخص دراسته وتحليله. أما نموذج إيماجين فهو مغلق، ولكن شركة جوجل منحت الباحثين صلاحية الدخول إليه. يقول سنغ إن هذا العمل مثال رائع على أهمية منح الباحثين صلاحيات الدخول إلى هذا النماذج لتحليلها، ويقول إن الشركات يجب أن تكون على المستوى نفسه من الشفافية فيما يتعلق بالنماذج الأخرى، مثل تشات جي بي تي من أوبن أيه آي.
ولكن، وعلى الرغم من تميز هذه النتائج، فمن الضروري لفت النظر إلى بعض النقاط. فالصور التي تمكن الباحثون من استخلاصها ظهرت في بيانات التدريب عدة مرات، أو كانت غريبة إلى حد كبير مقارنة بالصور الأخرى في مجموعة البيانات، وفقاً للأستاذ المساعد المختص في علوم الحاسوب في المعهد السويسري الفدرالي للتكنولوجيا في زيورخ، فلوريان تريمر، وهو أحد أعضاء المجموعة.
ويقول تريمر أيضاً إن احتمال تذكر النموذج للصور يزداد إلى حد كبير بالنسبة للأشخاص ذوي المظهر المميز أو الأسماء المميزة.
كما لم يتمكن الباحثون من استخلاص الكثير من الصور المطابقة لصور أشخاص من نموذج الذكاء الاصطناعي، إذ لم تتعدَ نسبتها الواحد بالمليون، كما يقول ويبستر.
ولكن تريمر يقول إن ذلك لا يزال مثيراً للقلق: "آمل حقاً ألا يستخف أي شخص بهذه النتائج لمجرد أن النسبة المئوية تبدو مهملة". ويضيف قائلاً: "إن أي نسبة مئوية تفوق الصفر تستوجب الاهتمام الكامل".
ميليسا هيكيلا من كبار مراسلي مجلة إم آي تي تكنولوجي ريفيو، حيث تغطي مواضيع الذكاء الاصطناعي وتأثيره على المجتمع. كتبت سابقاً عن السياسات العامة وسياسة الذكاء الاصطناعي في صحيفة "بوليتيكو" (POLITICO). عملت أيضاً في مجلة "ذي إيكونومست" (The Economist) … المزيد وكانت مذيعة أخبار. صنّفتها مجلة فوربس كواحدة من بين 30 شخصية تقل أعمارهم عن 30 عاماً في قائمة المبدعين في وسائل الإعلام الأوروبية في عام 2020.
يستخدم البشر الذكاء الاصطناعي لخداع بعضهم بعضاً بطرق مختلفة؛ منها التزييف العميق والمعلومات المضللة وعمليات الاحتيال المتطورة، كما يعمد العلماء باستمرار إلى
تستغرق عملية إصلاح وتحسين الصور الفوتوغرافية القديمة أو التالفة وإعادتها إلى حالتها الأصلية أو المحسنة وقتاً طويلاً، وتتطلب مستوى عالياً من الخبرة.
نستخدم ملفات تعريف الارتباط لتحسين تجربتك، استمرار استخدامك للموقع يعني موافقتك على ذلك. سياسة الخصوصيةأوافقX
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.