اشترك

الاستمرار بالحساب الحالي

شارك
شارك
Article image
حقوق الصورة: shutterstock.com/ Fit Ztudio



تدرك المؤسسات في الاتحاد الأوروبي والولايات المتحدة وبريطانيا والصين المشكلات الأخلاقية المتعلقة بالذكاء الاصطناعي، لكن لا توجد معايير موحدة لحل هذه المشكلات.

2022-07-31 12:38:43

28 يوليو 2022
من الصعب للغاية أو من شبه المستحيل تطوير أنظمة ذكاء اصطناعي أخلاقية تماماً، وقد نبه الكثير من خبراء التكنولوجيا لهذه المشكلة، وأكدوا أننا بحاجة إلى صياغة مجموعة من المعايير والقواعد الأخلاقية التي يجب أن تلتزم بها كل الدول والشركات لضمان أن تكون كل أنظمة الذكاء الاصطناعي أخلاقية ولا تتأثر بالتحيزات أو الاختلافات بين البشر. بغياب وجود مثل هذه المعايير، ستكون أنظمة الذكاء الاصطناعي مثل البشر تماماً، أي سنرى أنظمة جيدة وأخرى سيئة. ويمكن أن يؤدي انتشار الأنظمة السيئة واستخدامها إلى حدوث أضرار كبيرة. لا توجد معايير أخلاقية لتطوير الذكاء الاصطناعي المشكلة الأساسية التي تواجهنا هي إيجاد طريقة لتحديد ما إذا كانت أنظمة الذكاء الاصطناعي أخلاقية أم لا، إذ لا توجد حالياً معايير تحدد ذلك. والسبب أننا لا نستطيع تعريف الذكاء الاصطناعي الأخلاقي. نحن البشر قبل الآلات غير متفقين على المعايير الأخلاقية، حيث يختلف تعريف الأخلاق بين الشعوب والثقافات، وحين تسأل الأشخاص عما يعنيه لهم الذكاء الاصطناعي الأخلاقي، ستختلف الإجابة بناءً على اختلاف معاييرهم الأخلاقية وثقافاتهم وعاداتهم وتقاليدهم. لهذا السبب، قد لا نكون قادرين على تطوير نظام ذكاء

أدخل بريدك الإلكتروني واقرأ المقال مجاناً

أنشئ حساباً مجاناً واقرأ مقالتين مجاناً كل شهر من أوسع تشكيلة محتوى أنتجته ألمع العقول العالمية والعربية.