يجب أن تعلم | للاطلاع | في صلب الموضوع | رقم اليوم | شخصية اليوم | مصطلح اليوم
الأطر الأخلاقية: بُعد هام في تصميم أنظمة الذكاء الاصطناعي
ربما تكون رحلة الذكاء الاصطناعي قد بدأت منذ أكثر من نصف قرن، ولكن على الرغم من أننا تغلبنا على العديد من المشكلات التكنولوجية منذ ذلك الحين، إلا أن العديد من الأسئلة المتعلقة بـ"الأخلاقيات البيولوجية" لم يتم الإجابة عنها.
أسئلة هامة من قبيل "هل يمكننا ضمان أن التقنيات الجديدة ستؤدي دائماً إلى الخير ولن تضر أبداً؟" و"هل يمكننا دائماً التأكد من أنها عادلة ومنصفة وقابلة للتفسير وخاضعة للمساءلة؟" ستشكل حتماً محور أي مناقشة حول نشر الذكاء الاصطناعي في المستقبل. ومع التطورات الجديدة، سيتم طرح أسئلة جديدة.
يقول ميكائيل أنروث، خبير تكنولوجيا المعلومات وأنظمة الاتصالات في شركة إريكسون، إن العاملين في مجال الاتصالات وجدوا بالفعل الجزء الخاص بهم من "الإجابة""، مواءمة المبادئ الأخلاقية البيولوجية الأساسية مع الأطر الأخلاقية المقبولة عموماً كجزء من عملية التصميم، ومعالجة القضايا الأخلاقية في تطوير الذكاء الاصطناعي.
وأضاف أنروث -في مقالة نشرها موقع الشركة- أنه تم بذل الكثير من الجهود على مدى السنوات القليلة الماضية في طرق مواجهة التحديات الأخلاقية لتطوير الذكاء الاصطناعي وتشغيله ونشره. ووفقاً لآخر إحصائية، هناك 173 إطاراً ومبدأً توجيهياً لأخلاقيات لذكاء الاصطناعي معمول بها حالياً حول العالم. ويُنظر إلى قانون الذكاء الاصطناعي الذي اقترحه الاتحاد الأوروبي مؤخراً على أنه أول إطار قانوني شامل لأنظمة الذكاء الاصطناعي. ومن المحتمل أن يكون هذا القانون التاريخي هو أبعد ما وصلنا إليه في مجال تنظيم الذكاء الاصطناعي، وقد يساعدنا على إنشاء نموذج عالمي جديد لحوكمة الذكاء الاصطناعي.
ولكن هل هذا كاف؟ يعتقد أنروث أننا لا نحتاج إلى المزيد من المبادئ التوجيهية، وإنما نحتاج إلى المقدار الصحيح المتفق عليه من المبادئ القائمة على الحقائق والمخاطر، ويمكن أن تخضع هذه المبادئ بعد ذلك لعمليات مراجعة مجدولة.
الرابط (إنجليزي)
حياة شاقة تعيشها روبوتات توصيل الغذاء
كان شون هيشت، أستاذ القانون البيئي في جامعة كاليفورنيا، فرع لوس أنجلوس، يسير في الحرم الجامعي في إحدى الليالي مؤخراً، عندما صور مشهداً فريداً للنقل الحضري الحديث: زمجرة من روبوتات توصيل الطعام، التي لا تستطيع معرفة طريقها حول كومة من مخلفات إحدى الدراجات النارية. حاول المارة المساعدة، عن طريق تحريك الدراجات، لكنهم شعروا بالغضب من عدم استجابة الروبوتات، على الأرجح، لم يدركوا أن روبوتات شركة "ستارشيب تكنولوجيز" -المصممة للامتثال لمعالجات "إيه إم دي رايزن" المدمجة- لم تكن لتتحرك إلا عندما يتوقف البشر عن التحرك أمامها ذهاباً وإياباً.
غردّ الدكتور ساخراً: "إنه موقف صعب في الحرم الجامعي. ازدحام مروري لروبوتات توصيل الطعام، وكلها، على ما يبدو، عالقة وراء دراجة نارية مهملة. لاحظت للتوّ طالبين اثنين، يفسحان الطريق بكل شفقة أمام الروبوتات. هذا هو مستقبلنا على ما أظن".
ليس من السهل أن تكون روبوتاً للتوصيل في أميركا. لقد ركلها المشاة الغاضبون، وتبولت عليها الكلاب، وتعرضت لِلَطَمَات قوية من الأبواب الزجاجية الثقيلة، فضلاً عن المزاح الثقيل وتعطيل حركتها بالحواجز التي توضع في طريقها بطريقة سيئة. لقد تُركت عالقة في المطبات، وحظرتها المدن من قبل، مراراً وتكراراً، ومنها سان فرنسيسكو ونيويورك، إثر القلق بشأن ازدحام الأرصفة، وفقدان الوظائف، وأمور أخرى.
وباتت الروبوتات، من الموضوعات الرائجة في فيديوهات الفشل على الإنترنت، التي تُصورها تتساقط على السلالم، وتصطدم بصنابير إطفاء الحريق، وتنطلق بسرعة كبيرة على المنحدرات، ثَم تتحطم. لهذا السبب، مع انتشار روبوتات التوصيل، وتكاثر شركات الروبوتات الجديدة في الميدان المزدحم بالفعل، بذلت الشركات أقصى جهودها لتأمين موافقات البلدية والجامعات، لتشغيل روبوتات التوصيل.
وقد انضمت الشركات إلى مجموعات التخطيط العمراني، وعرضت الإبلاغ عن مشكلات، مثل الأرصفة الخطرة، لتجنب رد فعل البلدية الصادم الذي واجهته شركة "بيرد"، وغيرها من الشركات الناشئة في مجال الدراجات الكهربائية. ويقول دفيد رودريغيز، أحد مؤسسي شركة "كيوي-بوت": "لقد بدأنا العمل على أساليب جديدة، يمكننا من خلالها استخدام أجهزة الاستشعار والكاميرات، لرسم خرائط رقمية واضحة لحقوق العامة في الطرق".
الرابط
متاهة الذكاء الاصطناعي: كيف تتعلم الآلة العنصرية والتحيُّز من البشر؟
حين كانت جوي بولامويني لا تزال طالبة دراسات عُليا في مختبر جامعة إم آي تي، اكتشفت بالصدفة أن برنامج التعرف على الوجوه لا يقرأ ملامحها. ظنت وقتها أن الأمر مجرد خطأ آلي، أعادت الكرَّة فلم يتغير شيء، جرّب زملاؤها في المعمل الأمر ذاته، والعجيب أن البرنامج قرأ وجوههم بسهولة. أحضرت الشابة قناعاً أبيض اللون ووضعته على وجهها فتعرّفت عليها الآلة على الفور.
على الرغم من بساطة التجربة، إلا أنها غيرت كل شيء بالنسبة لعالِمة الحاسوب الأميركية ذات الأصول الغانية؛ إذ بات هدفها بحث مدى تحيُّز الذكاء الاصطناعي حول العالم تجاه الأعراق المختلفة، وركزت على منصات وبرامج التعرُّف على الوجه، وأنشأت "رابطة العدالة الخوارزمية" التي تسعى منذ 2017 إلى دمج أكبر قدر من الوجوه المختلفة في قواعد البيانات وضمان عمل تلك البرامج بصورة دقيقة لا تختلط فيها صورة امرأة برجل لمجرد أنها سوداء البشرة.
تلخص العبارات البسيطة التي تتصدر الصفحة الرئيسية للموقع تلك الحالة الجدلية التي يثيرها الذكاء الاصطناعي قائلةً: تُستخدم أنظمة الذكاء الاصطناعي في أمور كثيرة من أوجه حياتنا اليومية، وفي حين أن تلك الاستخدامات تبشر بالخير، إلا أنها يمكن أن تضر الأشخاص المستضعفين والمهمشين، وتهدد الحقوق المدنية، ويمكن لأنظمة الذكاء الاصطناعي غير الخاضعة للرقابة، وغير المنظمة، وفي بعض الأحيان غير المرغوب فيها أن تضخم العنصرية والتمييز على أساس الجنس وأشكال أخرى من التمييز.
لقد باتت تقنيات الذكاء الاصطناعي تتحكم في أغلب معاملات البشر، غير أنه كلما اتسعت رقعة استخدامها، تزايدت المخاوف تجاهها؛ ما جعل بعض الباحثين والمطورين يركزون على الوجه الآخر لتلك الخوارزميات، وكيف باتت تتحيز تجاه البعض وسط تحذيرات من ألا يتوقف الأمر فقط عند التعرف على الوجه بشكل خطأ عبر منصةٍ ما؛ إذ إن قواعد البيانات متصلة بعضها ببعض، وربما يؤدي هذا إلى اتهام شخص بجريمةٍ لم يرتكبها لأنه يُشبه شخصاً آخر.
الرابط
|