يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
"آلة زمن" خاصة بالتنوع البيولوجي تستخدم الذكاء الاصطناعي للتعلم من الماضي
سيتمكن الخبراء من اتخاذ القرارات الحاسمة بشأن إدارة التنوع البيولوجي في المستقبل عن طريق استخدام الذكاء الاصطناعي للتعلم من التغيرات البيئية السابقة، بحسب بحث جديد نشرته جامعة برمنجهام.
وطرح فريق من الباحثين بالجامعة "إطار عمل لآلة زمن" من شأنه أن يساعد صناع القرار على العودة بالزمن لمراقبة الصلات القائمة بين التنوع البيولوجي وأحداث التلوث والتغيرات البيئية، مثل تغير المناخ، ودراسة الآثار التي تركتها هذه الأحداث على النظم البيئية.
وفي الورقة البحثية التي نُشرت في دورية (Trends in Ecology and Evolution)، حدد الفريق كيف يمكن استخدام هذه الرؤى للتنبؤ بمستقبل خدمات النظام البيئي، مثل التخفيف من تغير المناخ وتوفير الغذاء والمياه النظيفة. ويقول الباحثون إن فقدان التنوع البيولوجي يحدث على مدى سنوات عديدة وغالباً ما يكون ناتجاً عن التأثير التراكمي لتهديدات بيئية متعددة. وفقط من خلال قياس التنوع البيولوجي قبل وأثناء وبعد أحداث التلوث، يمكن تحديد أسباب فقدان التنوع البيولوجي وخدمات النظام البيئي.
ويعتمد إطار العمل على تعاون متعدد التخصصات بين علماء الأحياء وعلماء البيئة وعلماء الحاسوب وعلماء الاقتصاد من جامعات مختلفة، بما فيها جامعة برمنجهام ومعهد آلان تورينج وجامعة ليدز وجامعة كارديف.
وتقول المؤلفة الرئيسية للدراسة، نيامه ايستوود، وهي طالبة دكتوراه في جامعة برمنجهام: "نحن نعمل مع أصحاب المصلحة (مثل وكالة البيئة في المملكة المتحدة) لجعل هذا الإطار في متناول المنظمين وصناع السياسات. وسيدعم هذا الأمر عملية اتخاذ القرار الخاصة بممارسات الحفاظ على الأنظمة البيئية وحمايتها".
الرابط (إنجليزي)
باحثون أميركيون يطورون روبوتاً يعلم نفسه كيفية فتح الأبواب
تعتبر عملية فتح الأبواب من المهام العويصة التي تواجه الروبوتات. ويقول الباحث "أو ما" المتخصص في مجال الهندسة الفضائية بجامعة سنسيناتي الأميركية إن "الروبوتات يمكنها أن تفعل أشياء كثيرة، لكن فتح باب معين واجتيازه يعتبر بمثابة تحد كبير بالنسبة لها".
استطاع فريق بحثي بقسم علوم الروبوتات وأنظمة التحكم الذاتي بالجامعة التوصل إلى حل لهذه المشكلة من خلال نظام محاكاة رقمي ثلاثي الأبعاد. ويهدف هذا النظام إلى تطوير روبوت ذاتي الحركة يمكنه أن يفتح الأبواب، والعثور على مصدر كهربائي من أجل أن يشحن نفسه ذاتياً دون تدخل من البشر.
ويشرح الباحث يوفينج سون صعوبة مشكلة فتح الأبواب بالنسبة للروبوتات، قائلاً: إن الأبواب تأتي بألوان وأشكال مختلفة، ويمكن أن تكون مقابضها على ارتفاعات مختلفة، كما يتعين تعليم الروبوت حجم القوة المطلوبة لدفع الباب من أجل أن ينفتح، بالإضافة إلى أن معظم الأبواب في الأماكن العامة ذاتية الانغلاق، بمعنى أنه إذا ما فقد الروبوت قبضته عن الباب، فإنه سوف ينغلق وبالتالي سيضطر الروبوت إلى إعادة المحاولة من جديد.
ويستخدم فريق الدراسة في جامعة سنسيناتي الذكاء الاصطناعي لتمكين الروبوت من "تعليم نفسه" كيفية فتح الأبواب، وعادة ما يتم ذلك من خلال التجربة والخطأ، حيث يستطيع الروبوت تصحيح اخطائه مع تكرار المهمة. ويؤكد سون أن نماذج المحاكاة تجهز الروبوتات لأداء المهمة فعلياً على أرض الواقع. ويضيف أن "الروبوتات تحتاج إلى بيانات كافية -أو خبرات- من أجل تدريب نفسها، ويعتبر ذلك بمثابة تحدي كبير للتطبيقات الروبوتية الأخرى التي تعتمد على الذكاء الاصطناعي من أجل تنفيذ مهام معينة في أرض الواقع".
ويعكف فريق الدراسة حالياً على تحويل النجاح الذي تم تحقيقه من خلال نماذج المحاكاة لابتكار روبوتات تستطيع أداء نفس المهمة في الواقع.
الرابط
الحكومات المحلية اليابانية تلجأ للذكاء الاصطناعي لترجمة لغة الإشارة
تتجه الحكومات المحلية في اليابان إلى الذكاء الاصطناعي لتحسين عمليات التواصل في الوقت الفعلي مع الأشخاص الذين يعانون من الصمم أو ضعف السمع.
وفي هذا الإطار طورت جامعة الاتصالات الكهربائية في طوكيو بالاشتراك مع شركة سوفت بنك، نظاماً يحول إيماءات لغة الإشارة إلى نص مكتوب. وعلى الرغم من أن النظام الجديد -الذي يُسمى (Sure Talk)- يتطلب في الوقت الحالي معدات متخصصة، تأمل البلديات اليابانية أن يتمكن الناس في النهاية من استخدامه عن طريق هاتف ذكي فقط.
في إحدى التجارب، طلبت امرأة تعاني من إعاقة سمعية توجيهها إلى دورة المياه، باستخدام لغة الإشارة، أثناء وقوفها أمام الكاميرا في أحد المكاتب الحكومية بمدينة ناراشينو بمحافظة تشيبا اليابانية. وبعد حوالي ثلاث ثوانٍ ظهرت ترجمة نصية لما قالته على شاشة الحاسوب أمام الموظف، ثم ظهر رده المنطوق كنص على الشاشة أمام المرأة، ما ساهم في النهاية في أن يكون التفاعل بينهما سلساً.
يحول نظام الذكاء الاصطناعي (Sure Talk) لغة الإشارة إلى نص ياباني مكتوب باستخدام تقنية التعرف على الصور التي تحلل الحركات الهيكلية للعديد من مناطق الجسم، مثل الأصابع والذراعين. وقد تمت رقمنة صور لغة الإشارة التُقطت لمئات الأشخاص لتطوير هذا النظام.
ويرى المسؤولون أنه على الرغم من إمكانية إجراء المحادثة مع الأشخاص الصم أو ضعاف السمع كتابةً، إلا أن نظام الذكاء الاصطناعي "أكثر سلاسة لأن الترجمة تتم في الوقت الفعلي". ومع ذلك، فإن النظام لا يمكنه حالياً ترجمة الإيماءات بدقة سوى إلى حوالي 1500 كلمة يابانية. ولا تزال هناك حاجة إلى "قدر هائل من بيانات لغة الإشارة لبناء نموذج للترجمة الدقيقة للإشارات إلى اللغة اليابانية".
لذلك، ولتحسين دقة النظام، رأت شركة سوفت بنك أنه من الضروري إطلاق موقع إلكتروني وتطبيق للهواتف الذكية يطلبان من الجمهور التعاون، ودعوة أكبر عدد ممكن من الأشخاص لإرسال صور تحتوي على لغة الإشارة.
الرابط (إنجليزي)
|