تكنوضاد ذكاء اصطناعي

الشبكات العصبونية المتكررة | RECURRENT NEURAL NETWORKS (RNN)


ما هي الشبكات العصبونية المتكررة؟

نوع من الشبكات العصبونية الاصطناعية التي تعتمد على البيانات التسلسلية، وتستخدم في تطبيقات التعلم العميق التي تتعامل مع البيانات المتتابعة والسلاسل الزمنية مثل ترجمة اللغات ومعالجة اللغة الطبيعية والتعرف التلقائي على الكلام المنطوق. ومن أهم الأمثلة على استخدامها المساعدات الصوتية مثل سيري وأليكسا والبحث الصوتي وخدمة الترجمة من جوجل.

تعتبر الشبكات العصبونية المتكررة قديمة نسبياً، حيث ظهرت لأول مرة في ثمانينيات القرن الماضي. لكن لم تتم الاستفادة من إمكانياتها بالشكل الأمثل إلا في السنوات الأخيرة تزامناً مع توفر البيانات الضخمة والقدرات الحاسوبية العالية.

وتتمتع هذه الشبكات بميزة "الذاكرة" التي تسمح لها بأخذ معلومات من بيانات الدخل السابقة للتأثير على بيانات الدخل والمخرجات الحالية. فعلى عكس الشبكات العصبونية العميقة الأخرى التي تفترض أن المدخلات مستقلة عن المخرجات، يعتمد الخرج في الشبكات المتكررة على العناصر السابقة في تسلسل البيانات.

كيف تعمل الشبكات العصبونية المتكررة؟

تختلف الشبكات العصبونية المتكررة عن شبكات التغذية إلى الأمام (Feed-Forward)، فشبكات التغذية إلى الأمام تأخذ كمية ثابتة من بيانات الدخل دفعةً واحدة وتعطي كمية ثابتة من المخرجات في كل مرة. على الجانب الآخر لا تأخذ الشبكات العصبونية المتكررة جميع بيانات الدخل معاً، إنما تأخذ عنصراً واحداً من تلك البيانات في كل مرة بشكل متسلسل. ثم تجري عليه مجموعة من العمليات الحسابية المتسلسلة قبل إنتاج الخرج الموافق، ويعرف هذا الخرج باسم الحالة المخفية (Hidden State). يتم بعد ذلك دمج الخرج الناتج عن المرحلة الحالية مع عنصر الدخل التالي لإنتاج خرج جديد. وتستمر العملية حتى انتهاء تسلسل بيانات الدخل، ويمكن أيضاً برمجة النموذج للتوقف عند مرحلة معينة.

اقرأ مقالتنا ذات الصلة:


مفاهيم من نفس المحور


مقالات تم ذكر هذا المصطلح فيها


بدعم من تقنيات