اشترك

الاستمرار بالحساب الحالي

شارك
شارك
Article image
حقوق الصورة: تاتيانا شيبليفا/ شتر ستوك.



تكمن المشكلة في عجز العملية المستخدمة في بناء معظم نماذج التعلم الآلي التي نستخدمها اليوم عن إخبارنا ما إذا كانت ستنجح على أرض الواقع أو لا.

2021-11-25 19:54:30

21 نوفمبر 2020
لا يخفى على أحد أن نماذج التعلم الآلي التي يتم ضبطها وتعديلها لتحقيق أداء شبه مثالي في المختبر غالباً ما تفشل في ظروف البيئة الحقيقية. يُعزى هذا الفشل عادةً إلى عدم التوافق بين البيانات التي تم تدريب نموذج الذكاء الاصطناعي واختباره عليها والبيانات التي يواجهها في أرض الواقع، وهي مشكلة تُعرف باسم تبدُّل البيانات. وكمثال على هذه المشكلة، فإن الذكاء الاصطناعي المدرب على اكتشاف علامات المرض في الصور الطبية عالية الجودة سيواجه صعوبات بالغة في التعامل مع الصور الباهتة أو المقتطعة التي التقطتها كاميرا رديئة في عيادة مزدحمة. والآن، قامت مجموعة تضمّ 40 باحثاً ينتمون إلى سبع فرق مختلفة في جوجل بتحديد سبب رئيسي آخر وراء الفشل الشائع لنماذج التعلم الآلي، يُطلق عليه اسم "نقص التخصيص"، وقد يمثل تحدياً أكبر من مشكلة تبدُّل البيانات. يقول أليكس دامور الذي قاد الدراسة: "إننا نطلب من نماذج التعلم الآلي أكثر مما يمكننا ضمانه باتباع أسلوبنا الحالي". يعتبر نقص التخصيص مشكلة معروفة في الإحصاء؛ حيث يمكن أن تنجم التأثيرات الملحوظة عن العديد من الأسباب المحتملة. وقد أراد دامور، الذي يمتلك خبرة في التفكير السببي، معرفة سبب الفشل المتكرر لنماذج التعلم الآلي الخاصة به

أدخل بريدك الإلكتروني واقرأ المقال مجاناً

أنشئ حساباً مجاناً واقرأ مقالتين مجاناً كل شهر من أوسع تشكيلة محتوى أنتجته ألمع العقول العالمية والعربية.

مصطلح اليوم


FIREWALL

جدار الحماية

عبارة عن جهاز أمن يُستخدم في الشبكات الحاسوبية لمراقبة حركة البيانات الداخلة والخارجة واتخاذ القرار بمنع أو سماح مرور جزء محدد من تلك البيانات بناءً على مجموعة من القواعد الأمنية المعرفة مسبقاً.