Article image
الصورة الأصلية: ناتاشا كونيل عبر أنسبلاش | تعديل: إم آي تي تكنولوجي ريفيو العربية



تكمن الفكرة في تطوير طريقة استرجاع معلومات جديدة مستوحاة من كيفية تذكر العصبونات الحيوية المعلومات والخبرات السابقة.

2020-10-20 10:51:33

19 أكتوبر 2020

يبرز مصطلح التعلم العميق عند الحديث عن التطبيقات والابتكارات الجديدة المرتبطة بالذكاء الاصطناعي؛ فهي الطريقة التي يتزايد الاعتماد عليها ليس فقط من قبل الباحثين في المؤسسات الأكاديمية بل أيضاً من قِبل العديد من الشركات التي تريد إضفاء قدرات معالجة ذكية لمنتجاتها وخدماتها. إلا أن التعلم العميق نفسه له مشاكله، وبالرّغم من كونه يمثل إحدى القوى الدافعة الأساسية للذكاء الاصطناعي، إلا أن أداءه لا يزال مرتبطاً ببعض المحدوديات.

ينتمي التعلم العميق لعائلة من الخوارزميات المعروفة باسم التعلم الآلي، وببساطة، فإن هذا المصطلح يشير إلى البرامج أو الخوارزميات القادرة على تكوين خبرة أو معرفة جديدة من البيانات المدُخلة إليها، وبذلك فإن الخوارزمية تُحسن من أدائها في كل مرة تُدخل بيانات جديدة إليها، وهكذا نفهم سبب مصطلح التعلم الآلي: هذه الخوارزميات تُعطي الآلة القدرة على “التعلم” بشكلٍ مشابه للبشر.

ولكن مثل البشر، تعاني “الآلات” من مشاكل في “الذاكرة” قد تجعلها تنسى الخبرات والمعلومات التي تعلمتها مسبقاً. قد يكون المطلوب من الخوارزمية التعرف على الكتل الورمية في صور الصدر المقطعية مثلاً، وفي حال لم تكن قادرة على استثمار خبراتها التي تعلمتها مسبقاً، فهذا يعني أن الخوارزمية لن تتنبأ بشكلٍ دقيق فيما إذا كانت الكتلة المشبوهة ورمية أو حميدة. في حالة الشبكات العصبونية الاصطناعية (أي التعلم العميق)، فإن هذه الحالة من نسيان الخبرات أو المعلومات التي تعلمتها سابقاً تحدث عند تعلم معلومات جديدة، وهي الحالة التي اصطلح على تسميتها: التداخل الكارثي أو التناسي الكارثي (Catastrophic Forgetting).

يوجد حلول بالطبع لهذه المشكلة، وأكثرها بديهية هو توفير سبل فعالة لتخزين المعلومات والخبرات التي تتعلمها الخوارزميات، بحيث تُسترجع هذه المعلومات والخبرات كلما دعت الحاجة إلى ذلك. سيتم حل مشكلة التناسي الكارثي بهذه الطريقة، ولكنها تنطوي على مشاكل أخرى من ناحية قلة كفاءتها وبطء استجابتها وتطلبها مساحة تخزين كبيرة، وهذه النقطة بالتحديد -أي مساحة التخزين الكبيرة- هي أمرٌ هام عند الحديث عن التعلم العميق (والتعلم الآلي بشكلٍ عام)؛ إذ تُوصف هذه الخوارزميات دوماً بأنها جائعة للبيانات (Data Hungry)؛ ما يعني أن عملية تدريبها لجعلها قادرة على تقديم أداءٍ جيد يتطلب تزويدها بكمياتٍ كبيرة وضخمة من البيانات، أي أنها ستوّلد كميات كبيرة من البيانات (على شكل خبرات مكتسبة ومُتعلمة).

شكلت هذه المشكلة دافعاً لمجموعة من الباحثين في جامعة ماساتشوستس أمهرست وكلية بايلور الطبية، من أجل العمل على إيجاد حلٍ فعال يمكن عبره تجاوز المحدوديات التي تظهرها خوارزميات التعلم العميق نتيجة التناسي الكارثي. على وجه الخصوص، أراد الباحثون الاستفادة من الآلية المُستخدمة في العصبونات البشرية في الدماغ لاسترجاع المعلومات والخبرات والذكريات المخزنة مسبقاً، أو لنقل بشكلٍ أكثر دقة: التعرف على المعلومات والخبرات التي مر بها الفرد مسبقاً.

يمتلك البشر قدرةً مذهلة على مراكمة المعلومات والخبرات والمواقف التي يتعرضون لها طوال حياتهم، وهو ما ينعكس على ميزة التعلم عبر الخبر التي تؤدي في نهاية المطاف إلى اكتساب كل شخص مهارات متقدمة في عمله -على سبيل المثال- بفضل الخبرة المتراكمة التي تُحسن من أداء الشخص نفسه وتجعله أسرع وأكثر دقة. ولكن كيف تستفيد العصبونات من المعلومات والمواقف التي نمر بها؟ كيف تُخزنها وكيف تجلبها كلما دعت الحاجة إلى ذلك؟ كيف “نتذكر” الأحداث والمواقف التي سبق وأن مررنا بها؟ يعتقد العلماء المختصون في مجال العلوم العصبية والدماغية أن العصبونات في الدماغ تقوم ببناء “تمثيل مجرّد” للمعلومات المراد الحصول عليها من الذاكرة، وبدلاً من جلب كل المعلومات في الذاكرة، تجلب العصبونات هذه التمثيلات المجرّدة و”تعيد تشغيلها” من أجل التعرف على المعلومات المطلوبة المرتبطة بهذه التمثيلات، وما يتم إعادة تشغيله بالفعل هو أنماط معينة لنشاط العصبونات والمرتبطة بالمعلومات أو الذاكرة التي تم إنشاؤها. يُطلق العلماء على هذه الآلية اسم: إعادة التشغيل (Replay).

في حالة الدراسة الجديدة، استلهم الفريق البحثي من خاصية إعادة التشغيل الخاصة بالدماغ البشري وطوروا دماغاً اصطناعياً لا يُخزن البيانات أو المعلومات، بل يعتمد على استرجاع الخبرات السابقة عبر التعرف على أنماط محددة مرتبطة بهذه الخبرات، حيث تكوّن الشبكات العصبونية الاصطناعية العاملة ضمن هذا الدماغ تمثيلاً مجرّداً لكل “الخبرات” التي مرّت بها، ويقول القائمون على هذه الطريقة إنهم سجلوا نتائج متميزة من ناحية كفاءة وفعالية خوارزميات التعلم العميق؛ حيث تخلصوا من مشكلة “التناسي الكارثي” وعدم قدرة الخوارزميات على استرجاع الخبرات والمعلومات السابقة عند تعلمها معلومات جديدة، كما أشاروا إلى أن إعادة تشغيل الخبرات السابقة بضع مرات هو أمرٌ كافٍ لتذكر المعلومات السابقة، وذلك بنفس الوقت الذي تتعلم فيه الخوارزمية معلومات جديدة.

أحد الأمور المميزة التي حققها الباحثون عبر الطريقة الجديدة هي القدرة على تعميم عملية التعلم، وهذا يعني أن الخوارزمية قادرة على الخروج باستنتاجات ونتائج لم تتدرب عليها بشكلٍ صريح. قدم الباحثون مثالاً على ذلك، وهو تدريب الخوارزمية على تمييز صور الكلاب من القطط، ومن ثم تدريبها على تمييز صور الذئاب من الدببة، وكانت النتيجة أن الخوارزمية ميزت صور الكلاب من القطط وكذلك صور الذئاب من الدببة، ولكنها عممت عملية التعليم لتميّز صور القطط من صور الدببة أو الذئاب. أشار الباحثون أخيراً إلى أن الطريقة الجديدة سجلت أداءً ممتازاً على اختبارات وتحديات التعلم الخاصة بخوارزميات التعلم العميق، وذلك دون تخزين أي بيانات أو معلومات.

نشر الفريق البحثي من جامعتي ماساتشوستس أمهرست وكلية بايلور الطبية ورقةً بحثية تصف طريقتهم الجديدة في مجلة نيتشر كوميونيكيشنز، تحت عنوان : إعادة تشغيل مستوحى من الدماغ من أجل التعلم المستمر في الشبكات العصبونية الاصطناعية (Brain-Inspired Replay for continual learning with artificial neural networks).


شارك