يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
مقابلة مع أيانا هاورد حول أهمية إدماج عدم الثقة في تصميم الذكاء الاصطناعي
تشغل أيانا هاورد، أخصائية الروبوتات والأستاذة الشهيرة، منصب عميدة كلية الهندسة في جامعة أوهايو الحكومية، وتمتلك خبرة 30 عاماً في بناء وتصميم الروبوتات. أجرينا مقابلة مع هاورد حول درجة ثقة البشر بالروبوتات والذكاء بشري الطابع والذكاء الاصطناعي القابل للتفسير وقضايا التنوع في هذا المجال.
إليك مقتطف من المقابلة:
"كان دافعي الأساسي هو دراسة التي أجريناها عن الإخلاء الطارئ والثقة بالروبوتات. وكنا نحاول تحديد مدى ثقة البشر بإرشاد الروبوتات في إطار أوضاع عالية الخطورة وحساسة بالنسبة للوقت. ولهذا، جلبنا بعض الأشخاص إلى بناء مكاتب مهجور خارج الحرم الجامعي، ودخلوا إليه بإشراف روبوت إرشاد سياحي. وابتدعنا قصة حول الروبوت وضرورة أخذ استبيان، وإلى ما ذلك. وأثناء وجودهم هناك، ملأنا المبنى بالدخان وأطلقنا إنذار الحريق.
وكنا نراقبهم أثناء محاولتهم للخروج، وذلك حتى نعرف، هل سيحاولون التوجه إلى الباب الأمامي، أو نحو إشارة الخروج، أم أنهم سيتبعون إرشادات الروبوت الذي يقودهم نحو اتجاه مختلف؟
كنا نعتقد أنهم سيتجهون نحو الباب الأمامي لأنه المكان الذي دخلوا منه، وتقول الأبحاث السابقة أن الناس في حالات الطوارئ يميلون إلى الذهاب إلى مكان مألوف. واعتقدنا أيضاً أنهم سيتبعون إشارات الخروج، لأنه سلوك تم تدريبهم عليه سابقاً. ولكن المشاركين لم يقوموا بأي من هذا. بل اتبعوا إرشادات الروبوت فعلياً.
وبعد ذلك، قمنا بتفعيل بعض الأخطاء. فقد جعلنا الروبوت يتعطل، وجعلناه يتحرك في حلقات مغلقة، وجعلناه يأخذ المشاركين في اتجاه يتطلب منهم تحريك الأثاث. وكنا نعتقد أن الشخص في لحظة ما سيقرر التخلي عن الروبوت والتوجه نحو الباب الأمامي، أو اتباع إشارة الخروج الأقرب. غير أن هؤلاء الأشخاص كادوا أن يصلوا إلى نهاية الاختبار قبل أن يبدؤوا بالتوقف عن اتباع إرشادات الروبوت.
وكانت تلك المرة الأولى التي وجدنا فيها أن افتراضاتنا كانت خاطئة تماماً. وشعرنا بالذهول من مدى ثقة الناس بالنظام. وقد كانت نتيجة مثيرة للاهتمام ومدهشة، غير أنها تمثل أيضاً مشكلة".
اقرأ كامل المقابلة المثيرة للاهتمام على موقعنا: الرابط
اقرأ مقالاتنا ومصطلحاتنا ذات الصلة الموضوع:
- ما معنى مصطلح "الذكاء الاصطناعي القابل للتفسير"؟ الرابط
- كيف يمكن جعل أنظمة الذكاء الاصطناعي أكثر ذكاء في تصنيف الصور؟ الرابط
الباحثون يخوضون سباقاً لسبر أغوار العالَم المذهل والخطير لتقنيات معالجة اللغة
يمثل إطلاق جوجل لنظام لامدا المختص بمعالجة اللغة الطبيعية مؤشراً جديداً على طريقة أخرى لاندماج تقنيات اللغة في حياتنا اليومية. لكن عرض جوجل المبهرج يعطي انطباعاً كاذباً حول الجدل الأخلاقي الذي يحيط الآن بمثل هذه الأنظمة المتطورة. ولامدا هو ما يُعرف باسم نموذج اللغة الكبير (LLM)، أي خوارزمية تعلم عميق مدربة على كميات هائلة من البيانات النصية.
لقد أظهرت الدراسات بالفعل كيف يتم تضمين الأفكار العنصرية والمتحيزة جنسياً والمسيئة في هذه النماذج؛ إذ تربط فئات مثل الأطباء بالرجال والممرضات بالنساء، وتقرن الصفات الجيدة مع ذوي البشرة البيضاء، والسيئة بذوي البشرة السمراء. وإذا ما قمت باختبارها باستخدام الأسئلة الصحيحة، فإنها تبدأ في في تشجيع أشياء مثل الإبادة الجماعية وإيذاء النفس والاعتداء الجنسي على الأطفال. وبسبب الأحجام الكبيرة لهذه النماذج، فإنها تمتلك بصمة كربونية عالية لدرجة صادمة. ونظراً لطلاقتها، فإنها تربك الناس وتدفعهم بسهولة للاعتقاد أن إنساناً قد كتب مخرجاتها، والتي يحذر الخبراء من إمكانية استخدامها في إنتاج كميات كبيرة من المعلومات الخاطئة.
لسوء الحظ، يتم إجراء القليل جداً من الأبحاث لفهم كيف يمكن أن تؤثر عيوب هذه التكنولوجيا على الأشخاص في تطبيقات العالم الحقيقي، أو لمعرفة كيفية تصميم نماذج لغوية كبيرة أفضل للتخفيف من هذه التحديات. وكما أثبتت جوجل في تعاملها مع تيمينت جيبرو، فإن الشركات القليلة الغنية بما يكفي لتدريب النماذج اللغوية الكبيرة وتطويرها لديها مصلحة مالية كبيرة في رفض إخضاعها لفحص دقيق. بمعنى آخر، يتم دمج النماذج اللغوية الكبيرة بشكل متزايد في البنية التحتية اللغوية للإنترنت على أسس علمية واهنة.
يتسابق الآن أكثر من 500 باحث حول العالم لمعرفة المزيد حول إمكانيات وقيود هذه النماذج. يعمل هؤلاء معاً في إطار مشروع بيج سينس (BigScience). ويسعون إلى بناء نموذج لغوي كبير مفتوح المصدر يلعب دور مورد مشترك للمجتمع العلمي. ويكمن الهدف في الحصول على أكبر قدر ممكن من المنح الدراسية خلال عام واحد مركّز. ويتمحور بحثهم حول السؤال التالي: كيف ومتى يجب تطوير النماذج اللغوية الكبيرة ونشرها لجني فوائدها دون أن ترافقها عواقبها الضارة؟
اطلع على تفاصيل هذا المشروع في مقالتنا: الرابط
اقرأ مقالاتنا في العمق حول الموضوع:
- الأهداف التي يسعى مجال معالجة اللغة الطبيعية إلى تحقيقها في حاجة إلى التقويم. الرابط
- الذكاء الاصطناعي ما زال يفتقر إلى المنطق السليم اللازم لفهم اللغة البشرية. الرابط
هل ستستولي الروبوتات على وظائفنا؟
أظهرت دراسة بريطانية جديدة أن وظائف النُدُل والعاملين في متاجر التجزئة باتت في خطر بسبب التطور السريع للأنظمة المؤتمة، لكن وظائف الأطباء والمعلمين لا تزال آمنة نسبياً حتى اللحظة.
ووجدت الدراسة، التي مولتها شركة توريد الأجهزة الكهربائية إلكتريكال دايركت (ElectricalDirect)، أنه في حين كان من السهل استبدال الوظائف التي تنطوي على مهام متكررة وبسيطة بالروبوتات، كانت الوظائف الإبداعية وتلك التي تنطوي على حل المشكلات المعقدة أقل عرضة للخطر.
وحلل الفريق البحثي 20 مليون وظيفة من جميع أنحاء المملكة المتحدة، واكتشفوا أن الأدوار ذات المهام المتكررة والروتينية ستكون الأولى في سلسلة الأتمتة، لاسيما وأن بعض القطاعات -مثل التصنيع- قد بدأت هذه العملية بالفعل منذ عقود.
وتحذر الدراسة من أن الذكاء الاصطناعي يشكل تهديداً وجودياً على وظائف النُدُل، حيث يحتمل بنسبة 72.81% أن يتم استبدالهم بالروبوتات على مدى السنوات القادمة، يليهم العاملين في ترتيب أرفف المتاجر (71.70%) والعاملين في قطاع التجزئة (70.69%)، ثم عمال الحانات (70.66%) ومساعدي المطابخ (69.20%) وعمال المزارع (69.05%). وخلال سنوات، قد تصبح أعداد كبيرة من هذه الوظائف شيئاً من الماضي.
في المقابل، كانت المجالات والمناطق الجغرافية التي تتطلب الوظائف فيها قدراً كبيراً من التدريب بعيدة نسبياً عن متناول الذكاء الاصطناعي "حتى الوقت الحالي". وتشمل قائمة الوظائف الأقل عرضة للخطر الأطباء بنسبة 18.11%، وأساتذة الجامعات (20.27%) وكبار العاملين في مجال التعليم (20.56%) وأطباء الأسنان (20.78%) وعلماء النفس (20.87%) وأخصائيي العلاج الطبيعي (21.48%).
|