يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
شكل الروبوتات يؤثر على تقييمنا لمدى أخلاقية قراراتها
أجرى باحثون من جامعة هلسنكي بفنلندا ومعهد ماكس بلانك بألمانيا مؤخراً دراسة حول مدى تأثير شكل الروبوتات المزودة بالذكاء الاصطناعي على تقييمنا لأخلاقية قراراتها. وقد تم إجراء هذه الدراسة في إطار مشروع "أخلاقيات الآلات الذكية" الذي يثوم على استخدام مجموعة من الأدوات في علم النفس الاجتماعي التجريبي والعلوم المعرفية بهدف دراسة كيفية تقييم البشر للروبوتات التي تتخذ قرارات أخلاقية، والتعرف على نوع الأخلاق التي نفضل أن تلتزم بها الروبوتات.
تمحورت الدراسة- المنشورة في المجلة العالمية للروبوتيات الاجتماعية- حول مشكلة العربة، وهي إحدى أكثر المشكلات الأخلاقية شهرة في مجال الذكاء الاصطناعي. وتنطوي على السيناريو التالي: هناك عربة خارجة عن السيطرة وتندفع بسرعة عالية على السكة الحديدية، وهي توشك على دهس خمسة أشخاص والتسبب في مقتلهم. يمكن لصاحب القرار أن يستخدم مقبضاً لنقل العربة إلى سكة مختلفة، حيث سيلاقي شخص واحد نفس المصير. هل يجب أن يسحب المقبض ويقتل شخصاً حتى ينقذ خمسة أشخاص أم لا؟
طُلب من 150 شخصاً تقييم مدى أخلاقية القرار الذي اتخذه كل من الوكلاء التاليين:
- إنسان حسن المظهر.
- روبوت أزيمو (مظهر روبوت تقليدي) من إنتاج هوندا.
- روبوت سوني (شبيه بالبشر لدرجة غريبة بعض الشيء) من فيلم آي روبوت (بطولة ويل سميث، لابد أنك شاهدته).
- روبوت آي كلوني شبيه بروبوت سوني مع وجه بشري لدرجة غريبة حقاً.
توصلت الدراسة إلى أن البشر يعتبرون أن القرار الذي اتخذه الروبوتان الشبيهان بالبشر (سوني وآي كلوني) كان أقل أخلاقية من نفس القرار الذي اتخذه كل من الإنسان والروبوت ذو الشكل التقليدي. ووفقًا للباحثين، تشير النتائج إلى أن البشر لا يجدون الروبوتات التي تتخذ قرارات أخلاقية فكرة غريبة؛ حيث تقبلوا القرارات التي اتخذها الإنسان والروبوت التقليدي على حد سواء. في المقابل، فإن مظهر وشكل الروبوت يلعب دوراً هاماً في تقييمهم لأخلاقية قرارته.
الرابط (إنجليزي)
مقالاتنا في العمق حول الموضوع:
- هل يجب على السيارة ذاتية القيادة أن تدهس الطفل أم الجدة؟ الرابط
الذكاء الاصطناعي لا يحلّ مشاكلنا الأساسية
إن نظرةَ دقيقة على الجدل العميق جداً في السنوات الأخيرة حول الذكاء الاصطناعي تُحيل إلى صورةٍ معقدة، لكنها تسمح بثلاث ملاحظات أساسية:
- أولاً: أثبت الذكاء الاصطناعي بأنه البؤرة الحالية للرغبات والمخاوف المطروحة بشكل مستمر أمام تكنولوجيا المعلومات.
- ثانياً: ليس الذكاء الاصطناعي بالذات، بل تفاعله معنا، نحن البشر، هو نقطة الارتكاز لاستخدام إيجابي لهذه التكنولوجيا.
- ثالثاً: إن استخدامنا للذكاء الاصطناعي لا يُحرّرنا من المشاكل الأساسية التي طبعت عيشنا المشترك.
وحول النقطة الأخيرة، يقول الباحث السويسري ماركوس كريستن (شخصية النشرة اليوم) إن الذكاء الاصطناعي قد يبدو موضوعياً، لكنه لا يحل المسائل الإنسانية الأساسية المتعلقة باتخاذ القرارات، وهو ما يُمكن عرضه في مثال معروف.
في العام 2016، تصدرت خوارزميات الذكاء الاصطناعي المسماة كومباس عناوين الصحف؛ حيث قدمت للقضاة الأميركيين الذين يحكمون بشأن الإفراج المبكِّر عن الجناة، تقييماتٍ بشأن مخاطر عودة المدانين إلى ارتكاب الجرائم أو ما يسمى بالانتكاس. لكن أحد التقارير الصحفية توصل إلى أن هذا النظام يقدم تنبؤات عنصرية؛ حيث كانت خوارزميات كومباس تخص الأميركيين ذوي البشرة السمراء بنسبة انتكاس عالية تصل إلى الضعف تقريباً بالمقارنة مع الأميركيين ذوي البشرة البيضاء، وذلك على الرغم من أن لون البشرة، كمعيار، كان مستبعداً من النظام بشكل واضح. وقد تمكن الباحثون والباحثات من الكشف بأن هناك مشكلة أساسية تقف وراء نظام التنبؤات تتلخص في أن العدالة يُمكن أن تُفسر بشكلٍ مختلف.
الرابط
مقالاتنا في العمق حول الموضوع:
- هل تتفوق الخوارزميات على البشر في التنبؤ بشأن ارتكاب الناس للجرائم؟ الرابط
- هل يمكنك أن تجعل الذكاء الاصطناعي أكثر عدلاً من القاضي؟ جرب لعبتنا للمحاكمة بالخوارزميات. الرابط
قاعدة بيانات حوادث الذكاء الاصطناعي لتجنب تكرار أضرارها
في مطلع القرن العشرين، قال الفيلسوف الإسباني جورج سانتيانا: "أولئك الذين لا يتذكرون الماضي محكوم عليهم تكراره". واليوم، يشعر مطورو برامج الذكاء الاصطناعي بأنهم أكثر المعنيين بهذه الحكمة.
نسمع مرة تلو أخرى عن حالات فشل لأنظمة الذكاء الاصطناعي حتى لم نعد نميز ما إذا كان الخبر حديثاً أم هو نفس الحادث الذي قرأنا عنه قبل شهر. ويشمل ذلك تحيز خوارزميات الإقراض ضد النساء وعنصرية خوارزميات التعرف على الوجوه ضد ذوي البشرة السمراء وترويج أنظمة التوصية على منصات التواصل الاجتماعي للمحتوى العنيف أو لنظريات المؤامرة، والقائمة تطول.
إذن، لا بدّ أن نتعلم من أخطائنا وأخطاء غيرنا حتى نتجنب الوقوع فيها مرة أخرى. هذا بالضبط ما سعت لتحقيقه مؤسسة الشراكة حول الذكاء الاصطناعي ( PAI) عبر إطلاق قاعدة بيانات حوادث الذكاء الاصطناعي ( AIID)، التي تهدف إلى تسهيل وصول العاملين في مجال الذكاء الاصطناعي إلى هذه الحوادث أو حالات الفشل ودراستها لتجنب تكرارها ومنع خوارزميتهم من التسبب في الأذى، أو على الأقل تقليل تواترها وتخفيف حدة تأثيراتها.
تضم قاعدة بيانات حوادث الذكاء الاصطناعي أكثر من 1,000 حالة فشل لأنظمة الذكاء الاصطناعي في العالم الحقيقي بناء على ما أوردته وسائل الإعلام والمصادر الأخرى المفتوحة. ويمكن لأي شخص استعراض هذه الحوادث والبحث فيها تبعاً للمصدر أو رقم الحادث أو كلمة مفتاحية. ويأمل القائمون على هذا المشروع أنه بمرور الوقت ستوفر قاعدة البيانات هذه تغطية أكبر لحوادث الذكاء الاصطناعي وتخفيف التأثيرات السلبية لاستخدام أنظمة الذكاء الاصطناعي في العالم الحقيقي.
تابع القراءة: الرابط
|