هل يمكن للروبوتات أن تطلب المساعدة إذا دعت الحاجة؟

3 دقيقة
هل يمكن للروبوتات أن تطلب المساعدة إذا دعت الحاجة؟
حقوق الصورة: shutterstock.com/Besjunior
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

ثمة روبوتات تستعين بالنماذج اللغوية الكبيرة بوجود درجات للثقة لتحديد مستوى الغموض؛ وهو ما يمكن أن يصبح عاملاً أساسياً في جعل الروبوتات أكثر أماناً وموثوقية.

ثمة وعاءان على طاولة المطبخ؛ أحدهما مصنوع من البلاستيك، والآخر مصنوع من المعدن. لنطلب من الروبوت التقاط وعاء ووضعه في المايكرويف. أي وعاء سيختار؟

إذا وجهنا الطلب نفسه إلى شخص ما، فقد يطلب توضيحاً؛ لكن الصيغة الغامضة للأمر قد تجعل الروبوت يضع الوعاء المعدني داخل المايكرويف؛ ما يعني تطاير الشرارات لدى تشغيله.

نونو KnowNo نموذج تدريبي جديد لتعليم الروبوتات

يهدف نموذج تدريبي جديد يحمل اسم “نونو” (KnowNo) إلى معالجة تلك المشكلة، وذلك من خلال تعليم الروبوت كيفية طلب مساعدتنا عندما نصدر إليه أوامر غير واضحة. وفي الوقت نفسه، يضمن النموذج أن يطلب الروبوت المساعدة فقط عند الضرورة؛ ما يخفف تضييع الوقت دون طائل. أما النتيجة فهي مساعد ذكي يحاول ضمان استيعابه لرغبتك بالضبط، دون إزعاجك كثيراً.

يقول الباحث المساعد في جوجل ديب مايند (Google DeepMind)، آندي زينغ، الذي ساعد على تطوير التقنية الجديدة، إن الروبوتات قد تكون عالية الفعالية في سيناريوهات معينة كثيرة؛ لكنها غالباً ما تواجه صعوبات في المهام العامة التي تتطلب شيئاً من المنطق السليم.

على سبيل المثال؛ إذا طلبت من الروبوت أن يحضر لك علبة من المرطبات، فسيحتاج أولاً إلى أن يفهم أنه يتعين عليه الذهاب إلى المطبخ، والبحث عن الثلاجة، وفتح باب الثلاجة. تقليدياً، تحتاج هذه الخطوات الثانوية الصغيرة إلى برمجة يدوية؛ لأن الروبوت لن يعرف من تلقاء نفسه أن الناس يحتفظون بالمرطبات في المطبخ عادة.

هذه هي المشكلة التي يمكن أن تساعد النماذج اللغوية الكبيرة (LLM) على معالجتها؛ لأنها مشربة بالكثير من المنطق السليم كما يقول زينغ.

اقرأ أيضاً: نظام جديد قادر على تعليم روبوت أداء مهمة منزلية بسيطة خلال 20 دقيقة

تنفيذ الروبوتات لتعليمات النماذج اللغوة الكبيرة بدقة

والآن، إذا طلبت من الروبوت أن يحضر لك علبة مرطبات، يستطيع النموذج اللغوي الكبير الذي يحمل استيعاباً عاماً للعالم، توليد دليل تفصيلي من الخطوات التي يمكن للروبوت أن يتبعها؛ غير أن مشكلة النماذج اللغوية الكبيرة تكمن في عدم وجود ما يضمن أن الروبوت قادر على تنفيذ تعليماتها، فمن الممكن أن الشخص الذي وجه الأمر إلى الروبوت لا يمتلك ثلاجة في المطبخ، وقد يكون مقبض باب الثلاجة مكسوراً. في هذه الحالات، يحتاج الروبوت إلى طلب المساعدة من البشر.

يتيح نموذج نونو تحقيق هذا الأمر بجمع النماذج اللغوية الكبيرة مع أدوات إحصائية تحول مستويات الثقة إلى مقادير كمية،

فعند تلقي أمر غامض مثل “ضع الوعاء في المايكرويف”، يعمد نونو أولاً إلى توليد عدة أفعال تالية محتملة من خلال استخدام النموذج اللغوي الكبير. وبعد ذلك، يحدد مستوى الثقة للتنبؤ باحتمال أن يكون كل من الخيارات المحتملة هو الخيار الأفضل.

اقرأ أيضاً: تطوير ذراع روبوتية يمكن التحكم بها عن طريق التنفس

تُقارَن هذه المستويات التقديرية للثقة بعتبة ثقة محددة مسبقاً؛ حيث تشير هذه العتبة بالضبط إلى مستوى الثقة أو التحفظ الذي يريد المستخدم للروبوت أن يعمل وفقه. على سبيل المثال؛ يجب على الروبوت الذي يتمتع بمعدل نجاح قدره 80% أن يكون قادراً على اتخاذ القرار الصحيح في 80% على الأقل من الحالات.

هذه الطريقة مفيدة في الأوضاع التي تتسم بدرجات مختلفة من المخاطرة؛ وفقاً للأستاذ المساعد في مجال الهندسة الميكانيكية والطيران الفضائي في جامعة برينستون والمؤلف الرئيس للدراسة، أرينودا ماجومدار.

فقد ترغب في أن يكون روبوت التنظيف الخاص بك أكثر استقلالية، على الرغم من ارتكابه بضعة أخطاء هنا وهناك؛ بحيث لا تضطر إلى الإشراف على عمله من كثب. من ناحية أخرى، يجب أن تكون الروبوتات المستخدمة في التطبيقات الطبية حذرة للغاية، مع أعلى معدل نجاح ممكن.

عند وجود أكثر من خيار واحد للخطوة التالية، يتوقف الروبوت عن العمل حتى يطلب التوضيح، بدلاً من الاندفاع الأعمى نحو الأمام: “أي وعاء يجب أن ألتقطه: المعدني أم البلاستيكي؟”

اقرأ أيضاً: تعرّف إلى أوبتيموس 2: أحدث روبوت من شركة تسلا

روبوتات تتعرف إلى الغموض في اللغة البشرية

جُرِّب نونو على 3 روبوتات في أكثر من 150 سيناريو مختلف. وقد بينت النتائج أن الروبوتات المدربة باستخدام نونو حققت معدلات نجاح أكثر اتساقاً، مع الحاجة إلى درجة أقل من المساعدة البشرية، وذلك بالمقارنة مع الروبوتات المدربة دون تلك الحسابات الإحصائية. قُدِّمت الورقة البحثية التي تصف هذا العمل في مؤتمر التعلم الروبوتي في نوفمبر/تشرين الثاني.

تتسم اللغة البشرية بالغموض في أغلب الأحيان، ولهذا؛ يمكن تحسين أداء الروبوتات من خلال تعليمها كيفية التعرف على الغموض والاستجابة إليه.

تبين الدراسات أن الناس يفضلون الروبوتات التي توجه الأسئلة إليهم كما يقول الأستاذ المساعد في جامعة فرجينيا للتكنولوجيا، ديلان لوسي، المختص بالتفاعلات بين البشر والروبوتات؛ الذي لم يشارك في هذا البحث. ويقول لوسي إنه عندما تطلب الروبوتات المساعدة، يعني هذا مستوى أعلى من الشفافية حول كيفية اتخاذها للقرارات؛ ما يؤدي إلى تفاعلات أفضل.

ويقول طالب الدكتوراة في جامعة برينستون، ألين رين، وهو المؤلف الرئيس للدراسة، إنه ثمة عدة طرائق لتحسين نموذج نونو. فحالياً، يفترض النموذج أن رؤية الروبوتات موثوقة على الدوام، وهو افتراض قد يكون خاطئاً في حالة المستشعرات المعطلة. أيضاً، يمكن تحديث النموذج حتى يأخذ بعين الاعتبار الأخطاء الناجمة عن المساعدة البشرية.

اقرأ أيضاً: هيكل خارجي روبوتي يساعد العدّائين على الجري بسرعة أكبر

يقول ماجومدار إن قدرة الذكاء الاصطناعي على التعبير عن الغموض ستجعلنا أكثر ثقة بالروبوتات. ويقول: “تفتقر الكثير من الأنظمة إلى عملية تحويل الغموض إلى مقدار كمي. وتسمح لنا هذه الميزة بأن نصبح أكثر ثقة بمستوى أمان الروبوتات ونجاحها”.