اشترك

الاستمرار بالحساب الحالي

شارك
شارك
Article image
حقوق الصورة: shutterstock.com/ Fit Ztudio

2022-07-28 16:04:10

2022-09-23 12:14:17

28 يوليو 2022
من الصعب للغاية أو من شبه المستحيل تطوير أنظمة ذكاء اصطناعي أخلاقية تماماً، وقد نبه الكثير من خبراء التكنولوجيا لهذه المشكلة، وأكدوا أننا بحاجة إلى صياغة مجموعة من المعايير والقواعد الأخلاقية التي يجب أن تلتزم بها كل الدول والشركات لضمان أن تكون كل أنظمة الذكاء الاصطناعي أخلاقية ولا تتأثر بالتحيزات أو الاختلافات بين البشر. بغياب وجود مثل هذه المعايير، ستكون أنظمة الذكاء الاصطناعي مثل البشر تماماً، أي سنرى أنظمة جيدة وأخرى سيئة. ويمكن أن يؤدي انتشار الأنظمة السيئة واستخدامها إلى حدوث أضرار كبيرة. لا توجد معايير أخلاقية لتطوير الذكاء الاصطناعي المشكلة الأساسية التي تواجهنا هي إيجاد طريقة لتحديد ما إذا كانت أنظمة الذكاء الاصطناعي أخلاقية أم لا، إذ لا توجد حالياً معايير تحدد ذلك. والسبب أننا لا نستطيع تعريف الذكاء الاصطناعي الأخلاقي. نحن البشر قبل الآلات غير متفقين على المعايير الأخلاقية، حيث يختلف تعريف الأخلاق بين الشعوب والثقافات، وحين تسأل الأشخاص عما يعنيه لهم الذكاء الاصطناعي الأخلاقي، ستختلف الإجابة بناءً على اختلاف معاييرهم الأخلاقية وثقافاتهم وعاداتهم وتقاليدهم. لهذا السبب، قد لا نكون قادرين على تطوير نظام ذكاء

ادخل بريدك الإلكتروني واحصل على المقال مجاناً.

اكتشف أفضل محتوى عربي على الإنترنت لتطوير ذاتك وتحسين مهاراتك وجودة حياتك وتحقيق طموحاتك في أسرع وقت.