اشترك

الاستمرار بالحساب الحالي

شارك
شارك


الخوارزميات تُحسِن السعي وراء هدف رياضي واحد، أما البشر فهم في العادة يحتاجون إلى عدَّة أشياء متناقضة في وقت واحد.

2019-04-24 14:03:36

24 أبريل 2019
Article image
مصدر الصورة: MS. TECH
يتزايد استخدام الخوارزميات في اتخاذ قرارات أخلاقية. ولعل أفضل الأمثلة على هذا هو التعامل التقني المعقد مع الموقف الأخلاقي المُسمى "مشكلة التروللي"، وتتلخص في التالي: إذا لم يكن بإمكان سيارة ذاتية القيادة أن تمنع نفسها من قتل واحد من ضمن اثنين من المارة، فكيف تختار برمجية التحكم في السيارة ضحيتها من الاثنين؟ لا يعتبر هذا المأزق في الواقع تصورًا واقعياً عن سيناريو قد تواجهه السيارات ذاتية القيادة. لكن هناك نظم أخرى كثيرة منتشرة بالفعل وأخرى توشك على الانتشار قد تحتاج إلى اتخاذ قرارات في مواقف أخلاقية حقيقية. فأدوات التقييم المستخدمة حالياً في القضاء الجنائي يجب أن توازن بين المخاطر التي تهدد المجتمع والأضرار التي قد تلحق بالمدعى عليهم. والأسلحة المؤتمتة تحتاج لاتخاذ قرارات تفاضل بين حفظ حياة الجنود، وحياة المدنيين على الجانب الآخر. والمشكلة أنه لم يتم تصميم الخوارزميات في الأساس للتعامل مع مثل هذه الخيارات الصعبة، إنما تم تصميمها لتحقيق هدف رياضياتي واحد، مثل تعظيم عدد الجنود الذين يجب إنقاذهم من الموت، أو تقليل عدد وفيات المدنيين. عندما تبدأ في التعامل مع أهداف متعددة ومتنافسة، أو أن تسعى لأن تراعي الخوارزمياتُ قيماً غير ملموسة مثل "الحرية" أو "الرفاه"، فلا وجود لحل رياضي مُرضٍ في كل الحالات. يقول بيتر إيكرسلاي (مدير البحوث في "الشراكة من أجل الذكاء الاصطناعي")، وهو الذي أصدر مؤخراً ورقة بحثية تستكشف هذه القضية: "نحن البشر نرغب عادة في أشياء عديدة متناقضة؛ فهناك مواقف صعبة يكون من غير اللائق فيها -أو من الخطورة بمكان- برمجةُ هدف واحد يعبِّر عن اعتباراتك الأخلاقية". هذه المشكلات التي لا حل لها لا تقتصر على الخوارزميات، فقد عكف علماء الأخلاق

أدخل بريدك الإلكتروني واقرأ المقال مجاناً

أنشئ حساباً مجاناً واقرأ مقالتين مجاناً كل شهر من أوسع تشكيلة محتوى أنتجته ألمع العقول العالمية والعربية.



مراسلة الذكاء الاصطناعي ، إم آي تي تكنولوجي ريفيو