اشترك

الاستمرار بالحساب الحالي

شارك
شارك


يجب أن تكون أنظمة الذكاء الاصطناعي عادلة وتطبق الشفافية وخاضعة للمساءلة وقابلة للشرح.

2021-07-16 02:17:11

09 يناير 2019
Article image
مصدر الصورة: وثيقة مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي، موقع دبي الذكية الإلكتروني.
في ظل التطورات السريعة التي يمرّ بها الذكاء الاصطناعي وتطبيقاته، يطالب الكثير من الخبراء وصانعي السياسات بضرورة وضع حدود له من خلال قواعد تنظم عمله وتضمن أن لا يؤدي استخدامه في القطاعات المختفة إلى عواقب سلبية على البشر أو الأنظمة الأخرى. ولكن يبقى السؤال عن من سيكون المسؤول عن وضعها، وكيف نضمن من أنها ستكون عادلة ومنصفة، وفي نفس الوقت لا تقف كعائق في وجه تطور الذكاء الاصطناعي والابتكارات التي تتطور بشكل يومي. الأمر ليس سهلاً بالتأكيد، وقد ناقشنا سابقاً في مقالة "هل نستطيع وضع قواعد أخلاقية للذكاء الاصطناعي" الجهود المختلفة في وضع هذه القوانين والقواعد وجدواها. إضافة إلى لعبة "الآلة الأخلاقية" من جامعة إم آي تي التي تعد واحدة من أضخم الدراسات العالمية حول الأخلاقيات التي شارك فيها أشخاص من 233 بلد وسجلوا أكثير من 40 مليون قرار حول من على السيارة أن تدهس: الطفل أم الجدة.   دبي الذكية تطلق مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي  وقد انضمت دبي، بوصفها المدينة العربية الأولى إلى هذه

أدخل بريدك الإلكتروني واقرأ المقال مجاناً

أنشئ حساباً مجاناً واقرأ مقالتين مجاناً كل شهر من أوسع تشكيلة محتوى أنتجته ألمع العقول العالمية والعربية.