content_cookies111:string(2288) "{"id":63363,"content_cookies":null,"user_header":{"SERVER_SOFTWARE":"Apache\/2.4.52 (Debian)","REQUEST_URI":"\/%D8%AA%D8%AD%D9%8A%D8%B2-%D8%AA%D9%88%D9%84%D9%8A%D8%AF-%D8%A7%D9%84%D8%B5%D9%88%D8%B1-%D8%A8%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A\/?utm_source=ActiveCampaign&utm_medium=email&utm_campaign=newsletter_algorithm_daily_26_04_23","REDIRECT_STATUS":"200","HTTP_X_FORWARDED_PROTO":"https","HTTP_CONNECTION":"upgrade","HTTP_HOST":"technologyreview.ae","HTTP_CF_CONNECTING_IP":"35.175.191.46","HTTP_CF_IPCOUNTRY":"US","HTTP_ACCEPT_ENCODING":"gzip","HTTP_CF_RAY":"80c6b14ebcdf13b9-IAD","HTTP_CF_VISITOR":"{\\\"scheme\\\":\\\"https\\\"}","HTTP_USER_AGENT":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)","HTTP_ACCEPT":"text\/html,application\/xhtml+xml,application\/xml;q=0.9,*\/*;q=0.8","HTTP_ACCEPT_LANGUAGE":"en-US,en;q=0.5","HTTP_CDN_LOOP":"cloudflare","PATH":"\/usr\/local\/sbin:\/usr\/local\/bin:\/usr\/sbin:\/usr\/bin:\/sbin:\/bin","SERVER_SIGNATURE":"Apache\/2.4.52 (Debian) Server at technologyreview.ae Port 80<\/address>\n","SERVER_NAME":"technologyreview.ae","SERVER_ADDR":"172.18.0.9","SERVER_PORT":"80","REMOTE_ADDR":"35.175.191.46","DOCUMENT_ROOT":"\/var\/www\/html","REQUEST_SCHEME":"http","CONTEXT_PREFIX":"","CONTEXT_DOCUMENT_ROOT":"\/var\/www\/html","SERVER_ADMIN":"webmaster@localhost","SCRIPT_FILENAME":"\/var\/www\/html\/index.php","REMOTE_PORT":"36168","REDIRECT_URL":"\/\u062a\u062d\u064a\u0632-\u062a\u0648\u0644\u064a\u062f-\u0627\u0644\u0635\u0648\u0631-\u0628\u0627\u0644\u0630\u0643\u0627\u0621-\u0627\u0644\u0627\u0635\u0637\u0646\u0627\u0639\u064a\/","REDIRECT_QUERY_STRING":"utm_source=ActiveCampaign&utm_medium=email&utm_campaign=newsletter_algorithm_daily_26_04_23","GATEWAY_INTERFACE":"CGI\/1.1","SERVER_PROTOCOL":"HTTP\/1.1","REQUEST_METHOD":"GET","QUERY_STRING":"utm_source=ActiveCampaign&utm_medium=email&utm_campaign=newsletter_algorithm_daily_26_04_23","SCRIPT_NAME":"\/index.php","PHP_SELF":"\/index.php","REQUEST_TIME_FLOAT":1695680826.911922,"REQUEST_TIME":1695680826,"argv":["utm_source=ActiveCampaign&utm_medium=email&utm_campaign=newsletter_algorithm_daily_26_04_23"],"argc":1,"HTTPS":"on"},"user_ip":"35.175.191.46","user_agent":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)"}"
ما زالت التحيزات والقوالب النمطية تمثل مشاكل كبيرة بالنسبة لأنظمة مثل دال-إي 2 (DALL-E 2) وستيبل ديفيوجن (Stable Diffusion)، على الرغم من محاولات الشركات معالجتها.
هذه الميزة مخصصة للمشتركين يمكنهم مشاركة المواضيع بحد اقصى 10 مواد من كافة مواقع مجرة
وتُشتهر الأنظمة ذائعة الصيت لتوليد الصور بالذكاء الاصطناعي بميلها إلى تضخيم التحيزات والقوالب النمطية المؤذية. ولكن، ما مستوى ضخامة هذه المشكلة بالضبط؟ أصبح بإمكانك الآن معرفة الإجابة (بل رؤيتها حتى) بنفسك باستخدام أدوات تفاعلية جديدة على الإنترنت. ومن الجدير أن تعرف منذ الآن أنها أدوات ضخمة.
وهذه الأدوات، التي طورها باحثون في شركة الذكاء الاصطناعي الناشئة هاغينغ فيس (Hugging Face) وجامعة لايبزيغ، والتي تم توصيفها بالتفصيل في ورقة بحثية لم تخضع لمراجعة الأقران بعد، تسمح بتفحص التحيزات في ثلاثة نماذج معروفة لتوليد الصور بالذكاء الاصطناعي. وهذه النماذج هي دال-إي 2، وأحدث إصدارين من ستيبل ديفيوجن.
ولإنشاء هذه الأدوات، استخدم الباحثون النماذج الثلاثة السابقة أولاً لتوليد 9,600 صورة بشرية متنوعة من حيث الانتماء الإثني والجنس والاختصاص. وطلب الفريق من النماذج توليد مجموعة واحدة من الصور بناء على صفات اجتماعية، مثل "امرأة" أو "رجل من أصول لاتينية"، ثم توليد مجموعة أخرى من الصور بناء على الاختصاصات والصفات، مثل "سباك طموح" أو "رئيس تنفيذي متعاطف".
سجل في نشرة الخوارزمية
ابق مواكباً لأحدث أخبار وتطبيقات الذكاء الاصطناعي في قطاعك، وتأثيراته المستقبلية على مجال عملك.
وقام الباحثون بهذا الأمر لدراسة التباينات بين مجموعتي الصور. حيث اعتمدوا في عملهم هذا على تطبيق إحدى تقنيات التعلم الآلي، والمسماة بالتجميع (clustering)، على هذه الصور. وتقوم هذه التقنية على محاولة إيجاد الأنماط في الصور دون تصنيفها وفق أي معايير، مثل الجنس أو الانتماء الإثني. وهو ما يسمح للباحثين بتحليل التشابهات بين الصور لمعرفة الصفات التخصصية التي يقوم النموذج بتجميعها معاً، مثل الأشخاص في مواقع السلطة. وبعد ذلك، قاموا ببناء أدوات تفاعلية تتيح لأي شخص استكشاف الصور التي تنتجها نماذج الذكاء الاصطناعي تلك والتحيزات التي تعكسها نتائج هذه النماذج. وهذه الأدوات متاحة مجاناً على موقع الويب الخاص بهاغينغ فيس.
وبعد تحليل الصور التي تم توليدها باستخدام دال-إي 2 وستيبل ديفيوجن، وجد الباحثون أن هذه النماذج تميل إلى إنتاج صور لأشخاص ذكور من ذوي البشرة البيضاء، خصوصاً عندما يُطلب من هذه النماذج تركيب صور لأشخاص في مواقع السلطة. وقد كان هذا صحيحاً بالنسبة لدال-إي 2 على وجه الخصوص، والذي كانت نسبة 97% من الصور التي يولدها تتضمن رجالاً بيض البشرة عند تلقي تعليمات تحتوي كلمات مثل "CEO" (رئيس تنفيذي) أو "director" (مدير). ويعود هذا إلى أن هذه النماذج مُدَرّبَة على كميات هائلة من البيانات والصور التي تم جمعها من الإنترنت، وهي عملية لا تعكس القوالب النمطية المتعلقة بالعرق والجنس وحسب، بل تزيد في تضخيمها أيضاً.
ولكن هذه الأدوات تعني أن المستخدمين غير مضطرين لتصديق ما تقوله هاغينغ فيس ببساطة، بل يمكنهم رؤية هذه التحيزات عملياً بأنفسهم. وعلى سبيل المثال، تتيح إحدى الأدوات استكشاف الصور التي ولدها الذكاء الاصطناعي لمجموعات مختلفة، مثل النساء ذوات البشرة الداكنة، للاطلاع من كثب على النسب الإحصائية لتمثيل النساء ذوات البشرة الداكنة في مختلف الاختصاصات المهنية. كما يمكن استخدام أداة أخرى لتحليل وجوه الأشخاص في الصور التي ولدها الذكاء الاصطناعي لاختصاص معين، وجمعها للحصول على تمثيل وسطي للوجوه المقترنة بهذا العمل.
التمثيل الوسطي لوجه أستاذ مدرسة وفقاً للصور التي ولدها كل من ستيبل ديفيوجن ودال-إي 2.
وتتيح أداة ثالثة للمستخدمين رؤية كيفية تغير الصور التي ينتجها نموذج الذكاء الاصطناعي عند إضافة صفات مختلفة إلى التعليمات النصية المُدخلة. وفي هذه الحالة، ظهرت تحيزات القوالب النمطية المتعلقة بالجنس بصورة واضحة للغاية من خلال الصور التي ولدتها النماذج. فإضافة صفات مثل "compassionate" (متعاطف) أو "emotional" (عاطفي) أو "sensitive" (حساس) إلى تعليمة نصية تصف اختصاصاً ما، ستدفع نموذج الذكاء الاصطناعي في أغلب الأحيان إلى توليد صورة لامرأة بدلاً من صورة لرجل.
(نعلم أن الكلمات التي تعبر عن الصفات في الإنجليزية تُستخدم ذاتها في حالتي المذكر والمؤنث باستثناء مجموعة محدودة من الصفات) وفي المقابل، فإن إضافة صفات مثل "stubborn" (عنيد) أو "intellectual" (مثقف) أو "unreasonable" (غير منطقي) ستؤدي في معظم الحالات إلى إنتاج صورة رجل.
"مدير متعاطف" من ستيبل ديفيوجن.
"مدير" من ستيبل ديفيوجن.
ثمة أداة أخرى تتيح للمستخدمين رؤية كيفية تمثيل نماذج الذكاء الاصطناعي للإثنيات والأجناس. على سبيل المثال، فإن التعليمة "Native American" (أميركي أصلي) تدفع كلاً من دال-إي 2 وستيبل ديفيوجن إلى توليد صور لأشخاص يرتدون أغطية تقليدية للرأس.
تقول باحثة الذكاء الاصطناعي في هاغينغ فيس، ساشا لوتشيوني، التي قادت هذا العمل: "في جميع الصور التي تمثل الأميركيين الأصليين تقريباً، كانوا يرتدون غطاء تقليدياً للرأس، وهو ما ينافي الواقع بطبيعة الحال".
ومن المفاجئ أن الأدوات اكتشفت أن أنظمة الذكاء الاصطناعي لتركيب الصور تميل إلى إظهار الأشخاص بيض البشرة غير محددي الجنس بأشكال شبه متطابقة، ولكن طريقة تصويرها للأشخاص غير محددي الجنس من أصول إثنية أخرى تنتج المزيد من الاختلافات، وذلك على حد تعبير باحث الذكاء الاصطناعي في هاغينغ فيس، ياسين جيرنايت، الذي شارك في العمل على المشروع.
يقول جيرنايت إن من النظريات المطروحة لتفسير هذا الأمر أن ظهور الأشخاص من ذوي البشرة السمراء كان طاغياً في الوسائل الإعلامية مؤخراً، ما يعني أن صورهم وجدت طريقها إلى قواعد البيانات التي تُستخدم في تدريب نماذج الذكاء الاصطناعي.
حلول محدودة للتحيزات الكامنة في الأنظمة
وتقول أوبن أيه آي وستابيليتي دوت أيه آي (Stability.AI) -الشركة التي طوّرت ستيبل ديفيوجن- إنهما طبقتا بعض الحلول للتخفيف من التحيزات الكامنة في أنظمتها، مثل حظر تعليمات نصية معينة من المحتمل أنها تولد صوراً مسيئة. ولكن هذه الأدوات الجديدة من هاغينغ فيس تبين أن هذه الحلول محدودة الأثر إلى درجة كبيرة.
وقد قال لنا ناطق باسم ستابيليتي دوت أيه آي إن الشركة تدرب نماذجها على "مجموعات بيانات تخص بلداناً وثقافات مختلفة بعينها"، وأضاف قائلاً إن هذا يجب أن "يخفف من التحيزات الناجمة عن التمثيل المبالغ به في مجموعات البيانات العامة".
ولم يعلق الناطق باسم أوبن أيه آي على هذه الأدوات بالتحديد، ولكنه أشار لنا إلى منشور مدونة يشرح أن الشركة أضافت تقنيات مختلفة إلى دال-إي 2 لفلترة التحيزات والصور الجنسية والعنيفة.
لقد أصبح التحيز مشكلة أكثر صعوبة مع زيادة انتشار هذه النماذج على نطاق واسع، وإنتاجها صوراً أكثر واقعية. فقد بدأ دمجها في العديد من المنتجات، مثل الصور الفوتوغرافية عامة الاستخدام. تقول لوتشيوني إنها تشعر بالقلق من احتمال قيام هذه النماذج بتعزيز التحيزات المؤذية على نطاق واسع. وتأمل بأن الأدوات التي صممتها مع فريقها ستؤدي إلى زيادة الشفافية في أنظمة توليد الصور بالذكاء الاصطناعي، وتؤكد على أن جعلها أقل تحيزاً هو مطلب مهم للغاية.
تقول الأستاذة المساعدة في جامعة واشنطن، آيلين كاليسكان، التي تدرس التحيز في أنظمة الذكاء الاصطناعي، والتي لم تشارك في هذا البحث، إن جزءاً من المشكلة يكمن في أن هذه النماذج مدربة على بيانات تتمحور بنسبة كبيرة منها حول الولايات المتحدة، ما يعني أنها تعكس العلاقات والتحيزات والقيم والثقافة الأميركية في أغلب الأحيان.
وتضيف كاليسكان: "في المحصلة، سيؤدي ما يحدث إلى انتشار الثقافة الأميركية على الإنترنت في جميع أنحاء العالم".
تقول كاليسكان إن أدوات هاغينغ فيس ستساعد مطوري الذكاء الاصطناعي على تحسين استيعابهم لمسألة التحيزات في نماذجهم والتخفيف منها. وتضيف: "عندما يرى الناس هذه الأمثلة أمام أعينهم، أعتقد أنهم سيتمكنون من إدراك أهمية هذه التحيزات على نحو أفضل".
ميليسا هيكيلا من كبار مراسلي مجلة إم آي تي تكنولوجي ريفيو، حيث تغطي مواضيع الذكاء الاصطناعي وتأثيره على المجتمع. كتبت سابقاً عن السياسات العامة وسياسة الذكاء الاصطناعي في صحيفة "بوليتيكو" (POLITICO). عملت أيضاً في مجلة "ذي إيكونومست" (The Economist) … المزيد وكانت مذيعة أخبار. صنّفتها مجلة فوربس كواحدة من بين 30 شخصية تقل أعمارهم عن 30 عاماً في قائمة المبدعين في وسائل الإعلام الأوروبية في عام 2020.
أصبح الذكاء الاصطناعي أكثر براعة في اجتياز الاختبارات المصممة لقياس القدرات الإبداعية عند البشر، ففي دراسة نُشِرت في مجلة ساينتيفيك ريبورتس (Scientific Reports) مؤخراً، حققت بوتات الدردشة التي تعمل بالذكاء الاصطناعي متوسط درجات أعلى من البشر في مهمة الاستخدامات البديلة (Alternate Uses Task)، وهي اختبار شائع الاستخدام لقياس هذه القدرات.
كان عام 2022 بمثابة دورة تدريبية مكثّفة في الذكاء الاصطناعي بالنسبة للأطفال والمعلمين وأولياء الأمور، وذلك بفضل
نستخدم ملفات تعريف الارتباط لتحسين تجربتك، استمرار استخدامك للموقع يعني موافقتك على ذلك. سياسة الخصوصيةأوافقX
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.