اشترك

الاستمرار بالحساب الحالي

شارك
شارك
Article image
مصدر الصورة: جيريمي بروتجي



من المطلوب تعميق التعاون مع العلوم الاجتماعية والمجتمعات التي تفتقر إلى الخدمات للحرص على بناء أدوات ذكاء اصطناعي لا تتسبب بالمشاكل أكثر مما تحلها.

2019-04-02 15:04:22

04 أبريل 2019
يجب على أخصائيي التكنولوجيا الاستعداد لترك أبراجهم العاجية ومواجهة العالم الحقيقي، والتعامل بشكل وثيق مع الخبراء والمجتمعات التي تؤثر عليها خوارزميات الذكاء الاصطناعي، وإلا فإن الأنظمة التي يقومون ببنائها سوف تعزز المشاكل الاجتماعية وتؤدي إلى تفاقمها، وفقاً لأحد أهم الخبراء. تعمل ريدييت أبيبي كباحثة في علوم الحاسوب في جامعة كورنيل، وهي مختصة بالخوارزميات والذكاء الاصطناعي والتطبيقات للصالح الاجتماعي. وقد قالت للحضور في إيمتيك ديجيتال – وهو حدث نظمته مجلة إم آي تي تكنولوجي ريفيو – إنها تفاجأت بما اكتشفته من نقص في التعاون في مجالات معينة من أبحاث الذكاء الاصطناعي. تقول أبيبي: "إن الحلول الخوارزمية والتي تعتمد على الذكاء الاصطناعي موجودة في كافة نواحي حياتنا، بدءاً من اتخاذ القرارات وتشغيل التطبيقات وصولاً إلى مساعدة النظام القضائي الجنائي. ولكن هناك انفصال ما بين الباحثين والممارسين والمجتمعات". أثارت العواقب غير المقصودة للنماذج الخوارزمية الكثير من الجدل، بما في ذلك الكشف عن تحيز البيانات التاريخية التي استُخدمت لتدريب أدوات تقييم المخاطر التي تعتمد على الذكاء الاصطناعي. كما استخدمت مجموعات بيانات غير متوازنة لتدريب أنظمة التعرف على الوجوه، ولهذا فإن فعاليتها في التعرف على النساء سمراوات البشرة أقل مما في حالة الرجال بيض البشرة، وغالباً ما أدت المحاولات لإصلاح هذه المشاكل إلى مشاكل أخرى في الأنظمة. تقول أبيبي: "نحن بحاجة إلى تمثيل جيد للمجتمعات التي تؤثر عليها هذه الأنظمة. يجب أن تكون هذه المجتمعات حاضرة حتى نعلم ما المشاكل التي تواجهها. كما نحتاج أيضاً إلى معلومات من خبراء في مجالات مثل العلوم الاجتماعية والإنسانية، فقد كانوا يفكرون بهذه

أدخل بريدك الإلكتروني واقرأ المقال مجاناً

أنشئ حساباً مجاناً واقرأ مقالتين مجاناً كل شهر من أوسع تشكيلة محتوى أنتجته ألمع العقول العالمية والعربية.