يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
باحثون يطورون نماذج لغوية "دائمة التحديث" كل 3 أشهر
هل تريد نموذجاً لغوياً لديه دراية جيدة بجائحة كوفيد؟ إذن، قد يهمك هذا الخبر. قام باحثون من جامعة بورتو البرتغالية وشركة سناب ومجموعة كارديف لمعالجة اللغات الطبيعية (Cardiff NLP) ببناء عائلة من النماذج اللغوية "المدركة للوقت"، والتي تم تدريبها على بيانات من موقع تويتر.
إلى هنا الخبر عادي وقد لا يستحق الذكر حتى، إلا أن الجزء الأغرب هو أن هؤلاء الباحثون أعلنوا التزامهم "بالاستمرار في تحديث وإصدار نموذج جديد كل ثلاثة أشهر، ما يمكّن المجتمع من استخدام نموذج لغوي محدّث في أي فترة زمنية".
يتم تدريب معظم النماذج اللغوية على إحدى مجموعات البيانات، ثم لا يتم تحديثها مطلقاً، وهو ما يعني أن بعض النماذج اللغوية قد لا تكون لديها معرفة بالأحداث الهامة مثل جائحة كوفيد التي اجتاحت العالم. حل هذه المشكلة بسيط (وإن كان كثيف العمالة): اجمع بيانات جديدة بشكل دوري وأعد تدريب النماذج.
لذلك، قام الباحثون بتدريب النموذج الأساسي (RoBERTa) باستخدام 90 مليون تغريدة نُشرت عام 2019. ولكل ثلاثة أشهر منذ هذا الوقت، أضافوا 4.2 مليون تغريدة إلى مجموعة البيانات وقاموا بتدريب نموذج جديد. وحتى وقتنا هذا كان الباحثون قد دربوا إجمالاً تسعة نماذج، تم إطلاق أخرها في ديسمبر الماضي، حيث تم تدريبه على 123.86 مليون تغريدة. الفكرة هنا هي أنه من المفترض أن تعمل النماذج الأحدث بشكل أفضل في المهام والتقييمات الأكثر تطوراً.
وفي الاختبارات، تفوقت هذه النماذج على نموذج (BERTweet) -الذي تم تدريبه على حوالي 900 مليون تغريدة- في ستة من أصل سبعة معايير، على الرغم من تحقيق (BERTweet) أفضل أداء عام. وترجع أهمية هذه النماذج إلى أن نماذج الذكاء الاصطناعي العادية تجمد المشهد الثقافي الذي تم تدريبها عليه، ما يعني أنه إذا لم نقم بتحديث نماذجنا، فستكون مخرجات العديد من الأنظمة أشياء ترتبط بالعصور السابقة والاتجاهات الثقافية القديمة، وبالتالي فإنها ستكون أقل فائدة.
الرابط (إنجليزي)
تطوير خوارزميات جديدة لتحسين إنشاء مزيفات عميقة وصور بشرية نابضة بالحياة
قريباً سيتمكن مستخدمو الإنترنت من مقابلة بعضهم البعض في الفضاء السيبراني على شكل أفاتار (صور رمزية) متحركة ثلاثية الأبعاد، وذلك باستخدام خوارزميات جديدة طورها باحثون في المعهد الفدرالي السويسري للتكنولوجيا في زيورخ (ETH Zurich).
المفتاح للسماح بتجربة مستخدم طبيعية في تطبيقات الواقع الافتراضي والواقع المعزز هو إنشاء هذه الصور الرمزية، وهي تمثيلات ديناميكية يتم إنشاؤها بواسطة الحاسوب للأشخاص. كلما كان مظهر وسلوك الصور الرمزية أكثر واقعية، زاد احتمال اكتساب الناس إحساساً بالتفاعل الاجتماعي الحقيقي. ومع ذلك، فإن نمذجة الحركات البشرية بالتفصيل لا تزال تمثل تحدياً لمطوري هذه التطبيقات. يمكن لبرامج الرسومات الحالية بالفعل إنشاء صور رمزية ثابتة. ولكن لتحريك وجه مبتسم، على سبيل المثال، يتعين على مصممي الجرافيك تعديل كل صورة تقريباً على الحاسوب بشكل يدوي، لتعديل الفروق الدقيقة مثل التجاعيد والظلال.
بدلاً من نمذجة كل التفاصيل، يسعى باحثو المعهد السويسري للقيام بذلك بسهولة أكبر من خلال خوارزميات ذكية تتعلم عرض الصور الرمزية المتحركة تلقائياً في كل وضع يمكن تصوره، من خلال مراقبة الصور ثلاثية الأبعاد للبشر في عدد قليل من الأوضاع. وتتعلم هذه البرامج تصوير أوضاع الجسم المختلفة بشكل واقعي باستخدام عمليات مسح ثلاثية الأبعاد لشخص حقيقي، يتم تسجيلها مسبقاً باستخدام نظام كاميرا معقد.
تعالج خوارزميات الذكاء الاصطناعي العادية عمليات المسح عن طريق قياس عدد لا يحصى من النقاط داخل وخارج جسم الشخص لتحديد معالمه كوظيفة رياضية. وبهذه الطريقة، تبني الخوارزميات قالباً لشكل الشخص. ومع ذلك، بالنسبة للوضعيات غير المألوفة، فإن هذه الخوارزميات لا تملك المعرفة وتتنبأ بمسارات خاطئة، ما يؤدي إلى آثار مرئية بوضوح، مثل فصل الذراعين عن الجسم. وهذا هو السبب في أن نماذج اليوم يتم تدريبها على أكبر عدد ممكن من الأوضاع المختلفة، ما يستلزم جهداً كبيراً لإجراء المسح ثلاثي الأبعاد، ويتطلب قوة حاسوبية هائلة.
الطريقة الجديدة التي طورها الفريق تجعل النموذج يقوم بحوسبة المسار من القالب إلى الوضعيات المتحركة. ونظراً لأن هذا يعني أن الحسابات لها دائماً نفس نقطة البداية، فإنها تتيح للخوارزميات الذكية تعلم كيفية تعميم الحركات بشكل أفضل. وبالتالي، يمكن أن تنتج حركات جديدة بسهولة مثل الشقلبة أو "الجسر الخلفي".
الرابط (إنجليزي)
كيف يصبح الذكاء الاصطناعي أخلاقياً في العمليات العسكرية؟
تكمن قوة الذكاء الاصطناعي في قدرته على التعلم والتكيف مع المواقف المختلفة، لكن أجواء المعارك تمثل بيئة ديناميكية متغيرة باستمرار، تجعل الذكاء الاصطناعي عرضة لارتكاب الأخطاء أحياناً، ما قد تكون له عواقب خطيرة، ولهذا يسعى البنتاغون إلى التوافق مع المبادئ الأخلاقية التي اعتمدها بعدما ساوره الشك حول مدى الثقة في التطبيقات الأوسع للذكاء الاصطناعي وسط العمليات العسكرية، إذ كيف يعرف المُشغل ما إذا كان الذكاء الاصطناعي خاطئاً.
لهذا السبب، بدأت شركات الصناعات الدفاعية في تطوير تخصص تقني يُعرف باسم "الذكاء الاصطناعي المسؤول"، يمكن من خلاله استخدام معايير العدالة والمساءلة والشفافية في تطوير واختبار وفحص أنظمة الذكاء الاصطناعي من أجل تجنب الأخطاء، فما الأساس الذي تعتمده هذه التكنولوجيا وما مدى التقدم الذي حققته حتى الآن؟
على عكس العديد من التطبيقات التجارية، يركز الذكاء الاصطناعي في المجالات العسكرية على السرعة والحجم، ويمكن أن تكون لسرعة المعلومات تأثيرات استراتيجية وتكتيكية حاسمة، إذ إنه يعمل على تقديم المعلومات بسرعة إلى مراكز القيادة والمقاتلين حتى يتمكنوا من اتخاذ قرارات مستنيرة بالبيانات قبل أن يتمكن العدو من بدء التصرف.
وبغض النظر عن كيفية استخدام الذكاء الاصطناعي في المجال العسكري، يجب في النهاية أن يكون آمناً وأخلاقياً، لأن ارتكاب الأخطاء قد تكون له تداعيات كارثية، فعلى سبيل المثال، إذا أخطأ الذكاء الاصطناعي الذي تستخدمه طائرة ذاتية القيادة، في مراقبة وتحليل مواقع صواريخ العدو وتفسير ما ترصده الطائرة، فقد يؤدي ذلك إلى خسائر في الأرواح أو إلحاق ضرر لا يمكن إصلاحه في العلاقات الدولية.
لكن التطبيق الأوسع للذكاء الاصطناعي في عمليات البنتاغون يثير أسئلة عديدة منها، كيف يعرف المُشغل ما إذا كان الذكاء الاصطناعي ارتكب خطأ ولم يتصرف على النحو المنشود؟ تكمن الإجابة في "الذكاء الاصطناعي المسؤول"، الذي أشارت إليه وحدة الابتكار الدفاعي التابعة للبنتاغون في تقرير أصدرته قبل أسابيع بعنوان "إرشادات الذكاء الاصطناعي المسؤول في الممارسة العملية" التي تتناول مطلباً في قانون تفويض الدفاع الوطني الأميركي، يقتضي ضمان أن تطوير أي تكنولوجيا ذكاء اصطناعي يجب أن يتم بشكل أخلاقي ومعقول.
توفر إرشادات الذكاء الاصطناعي المسؤول إطاراً للشركات العاملة في مجال الذكاء الاصطناعي وأصحاب المصلحة في وزارة الدفاع للمساعدة في ضمان بناء برامج الذكاء الاصطناعي، وفقاً لمبادئ العدالة والمساءلة والشفافية في كل خطوة من خطوات دورة تطوير نظام الذكاء الاصطناعي، حسب ما يقول جاريد دنمون، مدير تكنولوجيا الذكاء الاصطناعي والتعلم الآلي في وحدة الابتكار الدفاعي بالبنتاغون.
الرابط
|