check_post_to_show: string(2097) "{"is_valid":1,"global_remaining_posts_to_view":0,"remaining_posts_to_view":0,"number_all_post":0,"number_post_read":0,"exceeded_daily_limit":0,"is_watched_before":0,"user_agent":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)","user_ip":"44.212.96.86","user_header":{"SERVER_SOFTWARE":"Apache\/2.4.52 (Debian)","REQUEST_URI":"\/technodad\/%D8%B9%D8%AF%D8%A7%D9%84%D8%A9-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A\/","REDIRECT_STATUS":"200","HTTP_X_FORWARDED_PROTO":"https","HTTP_CONNECTION":"upgrade","HTTP_HOST":"technologyreview.ae","HTTP_CDN_LOOP":"cloudflare","HTTP_CF_IPCOUNTRY":"US","HTTP_ACCEPT_ENCODING":"gzip","HTTP_CF_RAY":"8308e88bc8d91ff8-IAD","HTTP_CF_VISITOR":"{\\\"scheme\\\":\\\"https\\\"}","HTTP_USER_AGENT":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)","HTTP_ACCEPT":"text\/html,application\/xhtml+xml,application\/xml;q=0.9,*\/*;q=0.8","HTTP_ACCEPT_LANGUAGE":"en-US,en;q=0.5","HTTP_CF_CONNECTING_IP":"44.212.96.86","PATH":"\/usr\/local\/sbin:\/usr\/local\/bin:\/usr\/sbin:\/usr\/bin:\/sbin:\/bin","SERVER_SIGNATURE":"Apache\/2.4.52 (Debian) Server at technologyreview.ae Port 80<\/address>","SERVER_NAME":"technologyreview.ae","SERVER_ADDR":"172.18.0.17","SERVER_PORT":"80","REMOTE_ADDR":"44.212.96.86","DOCUMENT_ROOT":"\/var\/www\/html","REQUEST_SCHEME":"http","CONTEXT_PREFIX":null,"CONTEXT_DOCUMENT_ROOT":"\/var\/www\/html","SERVER_ADMIN":"webmaster@localhost","SCRIPT_FILENAME":"\/var\/www\/html\/index.php","REMOTE_PORT":"56588","REDIRECT_URL":"\/technodad\/\u0639\u062f\u0627\u0644\u0629-\u0627\u0644\u0630\u0643\u0627\u0621-\u0627\u0644\u0627\u0635\u0637\u0646\u0627\u0639\u064a\/","GATEWAY_INTERFACE":"CGI\/1.1","SERVER_PROTOCOL":"HTTP\/1.1","REQUEST_METHOD":"GET","QUERY_STRING":null,"SCRIPT_NAME":"\/index.php","PHP_SELF":"\/index.php","REQUEST_TIME_FLOAT":1701743858.766827,"REQUEST_TIME":1701743858,"argv":[],"argc":0,"HTTPS":"on"},"content_user_category":"paid","content_cookies":{"status":0,"sso":{"content_id":46212,"client_id":"1d1883f4-87d0-4156-8903-e6ceb0cb4224"},"count_read":null},"is_agent_bot":1}"
هي مجموعة المبادئ الأخلاقية لضمان تصميم أنظمة الذكاء الاصطناعي ونشرها بطريقة عادلة وغير متحيزة، وتتضمن معالجة التحيزات المحتملة التي قد توجد في البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي، وكذلك في الخوارزميات وعمليات صنع القرار التي تستخدمها هذه الأنظمة.
مقاييس عدالة الذكاء الاصطناعي
هناك العديد من تعريفات العدالة المختلفة، ويعتمد التعريف على السياق الذي يتم فيه اتخاذ القرار، إليك بعض المقاييس لعدالة الذكاء الاصطناعي:
العدالة من خلال سرية المعلومات: هذا هو التعريف الكلاسيكي حيث تحذف السمات التي تشكّل تحيزاً من الخوارزمية وتفترض أن النموذج سيكون عادلاً، وقد ترتبط العديد من الميزات الأخرى ارتباطاً جوهرياً بالسمات التي تؤدي للتحيز مثل الجنس والعرق ما يؤدي لظهور التحيز في نموذج التعلم الآلي.
عدالة التكافؤ الديموغرافي: ينصب التركيز هنا على مساواة معدل الاختيار بين المجموعات، إذ يجب أن تكون احتمالية النتيجة الإيجابية للنموذج هي نفسها بغض النظر عما إذا كان الشخص في المجموعة التي تحمل وسم محدد.
تكافؤ الفرص: يركّز هذا المقياس على القوة التنبؤية للنموذج، بحيث ينصب التركيز على محاولة الحصول على نفس المعدل الإيجابي الحقيقي لمجموعات التدريب، كما يجب أن تكون احتمالية وجود شخص في فئة إيجابية متساوية لكل من أعضاء المجموعة مهما كانت فئتهم.
احتمالات متساوية: يركّز هذا المقياس على الحصول على المعدل الإيجابي نفسه الحقيقي بالإضافة إلى المعدل الإيجابي الكاذب لمجموعات التدريب؛ أي أن احتمالية تعيين شخص في الفئة الإيجابية بشكلٍ صحيح يؤدي لنتيجة إيجابية واحتمال تعيين شخص في فئة سلبية بشكل غير صحيح يؤدي إلى نتيجة إيجابية أي يجب أن يكون المقياس هو نفسه لأعضاء المجموعة دون تحيز لسمة مثل الجنس أو العرق أو المكان وغيره.
مستقبل عدالة الذكاء الاصطناعي؟
ترتبط عدالة الذكاء الاصطناعي ارتباطاً وثيقاً بإمكانية تفسير نماذج الذكاء الاصطناعي وشفافية العملية التي تم إنشاء هذه النماذج بها، إذ يعد دعم حوكمة الذكاء الاصطناعي طريقة فعّالة لاكتساب هذا المستوى العالي من التفسير والشفافية، للتأكد من أن نماذج الذكاء الاصطناعي تتوافق مع اللوائح التي وضعها الاتحاد الأوروبي. وتعد فكرة عدالة الذكاء الاصطناعي مجالاً نشطاً للبحث بحيث يتساءل الجميع عن الآثار المترتبة على استخدام الذكاء الاصطناعي في عملية صنع القرار.
هي مجموعة المبادئ الأخلاقية لضمان تصميم أنظمة الذكاء الاصطناعي ونشرها بطريقة عادلة وغير متحيزة، وتتضمن معالجة التحيزات المحتملة التي قد توجد في البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي، وكذلك في الخوارزميات وعمليات صنع القرار التي تستخدمها هذه الأنظمة.
مقاييس عدالة الذكاء الاصطناعي
هناك العديد من تعريفات العدالة المختلفة، ويعتمد التعريف على السياق الذي يتم فيه اتخاذ القرار، إليك بعض المقاييس لعدالة الذكاء الاصطناعي:
العدالة من خلال سرية المعلومات: هذا هو التعريف الكلاسيكي حيث تحذف السمات التي تشكّل تحيزاً من الخوارزمية وتفترض أن النموذج سيكون عادلاً، وقد ترتبط العديد من الميزات الأخرى ارتباطاً جوهرياً بالسمات التي تؤدي للتحيز مثل الجنس والعرق ما يؤدي لظهور التحيز في نموذج التعلم الآلي.
عدالة التكافؤ الديموغرافي: ينصب التركيز هنا على مساواة معدل الاختيار بين المجموعات، إذ يجب أن تكون احتمالية النتيجة الإيجابية للنموذج هي نفسها بغض النظر عما إذا كان الشخص في المجموعة التي تحمل وسم محدد.
تكافؤ الفرص: يركّز هذا المقياس على القوة التنبؤية للنموذج، بحيث ينصب التركيز على محاولة الحصول على نفس المعدل الإيجابي الحقيقي لمجموعات التدريب، كما يجب أن تكون احتمالية وجود شخص في فئة إيجابية متساوية لكل من أعضاء المجموعة مهما كانت فئتهم.
احتمالات متساوية: يركّز هذا المقياس على الحصول على المعدل الإيجابي نفسه الحقيقي بالإضافة إلى المعدل الإيجابي الكاذب لمجموعات التدريب؛ أي أن احتمالية تعيين شخص في الفئة الإيجابية بشكلٍ صحيح يؤدي لنتيجة إيجابية واحتمال تعيين شخص في فئة سلبية بشكل غير صحيح يؤدي إلى نتيجة إيجابية أي يجب أن يكون المقياس هو نفسه لأعضاء المجموعة دون تحيز لسمة مثل الجنس أو العرق أو المكان وغيره.
مستقبل عدالة الذكاء الاصطناعي؟
ترتبط عدالة الذكاء الاصطناعي ارتباطاً وثيقاً بإمكانية تفسير نماذج الذكاء الاصطناعي وشفافية العملية التي تم إنشاء هذه النماذج بها، إذ يعد دعم حوكمة الذكاء الاصطناعي طريقة فعّالة لاكتساب هذا المستوى العالي من التفسير والشفافية، للتأكد من أن نماذج الذكاء الاصطناعي تتوافق مع اللوائح التي وضعها الاتحاد الأوروبي. وتعد فكرة عدالة الذكاء الاصطناعي مجالاً نشطاً للبحث بحيث يتساءل الجميع عن الآثار المترتبة على استخدام الذكاء الاصطناعي في عملية صنع القرار.
نستخدم ملفات تعريف الارتباط لتحسين تجربتك، استمرار استخدامك للموقع يعني موافقتك على ذلك. سياسة الخصوصيةأوافقX
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.