اشترك

الاستمرار بالحساب الحالي

شارك
شارك


رغم نجاح خوارزميات فيسبوك للذكاء الاصطناعي في اكتشاف نسبةٍ كبيرة من الصور والفيديوهات المسيئة، فما زالت تواجه صعوباتٍ كبيرة في التعامل مع المحتوى النصي.

2019-12-08 09:02:47

07 ديسمبر 2019
Article image
مصدر الصورة: فيسبوك
السياق العام  تتم حالياً مراقبة الغالبية العظمى من المحتوى على فيسبوك بصورةٍ آلية وذلك بالاعتماد على أنظمة الشركة للتعلم الآلي، مما يقلِّل من حجم المحتوى المروِّع الذي يتعين على المشرفين البشر مراجعتُه. وتدَّعي فيسبوك في أحدث تقرير لها عن تطبيق معايير المجتمع، الذي نشر في الشهر الماضي، إن 98% من الصور ومقاطع الفيديو ذات المحتوى الإرهابي تتم إزالتها قبل أن يتمكن أيُّ أحدٍ من مشاهدتها، ناهيك عن التبليغ عنها.  مصدر الفيديو: فيسبوك إذن، ما علاقة هذا بما نراه في الفيديو أعلاه؟ تقوم الشركة بتدريب أنظمتها للتعلم الآلي بهدف التعرف على الأجسام وتمييزها في مقاطع الفيديو بدءاً من الأجسام العادية مثل الأواني والأشخاص ووصولاً إلى الأجسام الخطيرة كالأسلحة النارية والسكاكين. وتعتمد خوارزميات فيسببوك للذكاء الاصطناعي على طريقتين رئيسيتين للبحث عن المحتوى الخطير؛ فإحداها تعتمد على الشبكات العصبونية التي تقوم بالبحث عن خصائص وسلوكيات الأجسام المعروفة ثم تقوم بتصنيفها بنسبٍ متفاوتة من الثقة (كما نرى في الفيديو أعلاه). التدريب مستمرّ يتم تدريب هذه الشبكات العصبونية على مجموعةٍ من الفيديوهات المُصنَّفة مُسبقاً عن طريق المراقبين البشر وإبلاغات المستخدمين، كما سيُضاف إلي

أدخل بريدك الإلكتروني واقرأ المقال مجاناً

أنشئ حساباً مجاناً واقرأ مقالتين مجاناً كل شهر من أوسع تشكيلة محتوى أنتجته ألمع العقول العالمية والعربية.