الانحدار المتدرج العشوائي | STOCHASTIC GRADIENT DESCENT (SGD)
عبارة عن طريقة أمثلة شهيرة تُستخدم لإيجاد الإعداد الأمثل للمعاملات الخاصة بمعظم خوارزميات التدريب في التعلم الآلي والتعلم العميق. تقوم فكرة الانحدار المتدرج بشكل عام على مبدأ إحداث تعديلات صغيرة بشكل متكرر في إعدادات شبكة التعلم الآلي بهدف تخفيض خطأ الشبكة إلى أقل حد ممكن. وفي الانحدار المتدرج العشوائي يتم اختيار عدد صغير من العينات بشكل عشوائي بدلاً من المرور على كافة نقاط البيانات.
اقرأ مصطلح اليوم ومعارف منوعة في "ثواني"، قسم جديد ممتع في تطبيق مجرة، حمله الآن.