Article image
مصدر الصورة: إم إس تك: صور مقتطفة من يوتيوب | جيبي أسمر/أسمر دارلينغ/دبليو ماغازين/أسمر جلو


هذا القسم يأتيكم بالتعاون مع:


أعلنت المنصة عن سعيها إلى الحدّ من دعم المحتوى المتطرّف، ولكنها لا تزال تبحث عن طرق لإبقاء مستخدميها على الموقع.

تُعد خوارزميات اقتراح المحتوى من أقوى أنظمة التعلم الآلي اليوم بسبب قدرتها على إيجاد المعلومات التي نُريدها، وتمتلك خوارزمية يوتيوب بالأخصّ تأثيراً كبيراً؛ حيث تُعتبر حركة مرور الويب لموقع يوتيوب ثاني أكبر حركة مرور على الانترنت، وذلك بعد موقع جوجل. كما تُشكل نسبة المشاهدات القادمة من الاقتراحات 70% مما يشاهده المستخدمون على الموقع.

وقد خضعت أنظمة اقتراح المحتوى إلى تدقيق شديد في السنوات الأخيرة، حيث تمّ تطوير هذه الخوارزمية لزيادة تفاعل المستخدمين مع مقاطع الفيديو، ومن أجل ذلك، تتعمّد هذه الاقتراحات عرض ما يحبّه أو يؤيّده المستخدمون بالفعل، مما قد يتسبب في جعل تجربة المستخدمين تتَّسم بالإدمان وتقضي على الطرق الأخرى لعرض المحتوى. وغالباً ما يعزز هذا النظام من انتشار مقاطع الفيديو الأكثر تطرفاً وإثارة للجدل، حيث أظهرت الدراسات أنها قد تدفع الناس سريعاً إلى مقاطع متطرّفة في المستوى، وقد تؤدي إلى التطرّف السياسي.

وعلى الرغم من إعلان المنصة سعيها لتحديد هذه المشاكل وحلّها، ناقضت ورقة بحثية جديدة من جوجل -وهي الشركة المالكة ليوتيوب- ذلك الادّعاء؛ حيث تقترح هذه الورقة تحديثاً لخوارزمية الاقتراحات على المنصّة، وذلك عبر عرض محتوى أكثر استهدافاً للمستخدمين من أجل زيادة المشاركة.

وإليكم كيفية عمل نظام اقتراحات يوتيوب حالياً:
لكي يتمّ ملء الشريط الجانبي لمقاطع الفيديو المُقترحة، يقوم النظام أولاً بتجميع قائمة مختصرة تضم عدة مئات من مقاطع الفيديو من خلال البحث عن مقاطع تتطابق مع موضوع وخصائص المقاطع التي يُشاهدها المستخدم، ثم يقوم بتصنيف تلك القائمة وفقاً لتفضيلاته، حيث يتعلم ذلك عن طريق تسجيل كل نقراتك وإعجاباتك والتفاعلات الأخرى داخل خوارزمية للتعلم الآلي.

ومن بين التحديثات المقترحة، يستهدف الباحثون مشكلة يسمونها “الانحياز الضمني” على وجه التحديد، وتشير هذه التسمية إلى التأثير المُحتمل لهذه التوصيات على سلوك المستخدم، مما يجعل من الصعب تحديد ما إذا كنتَ قد نقرتَ على مقطع فيديو بسبب إعجابك به، أم بسبب اقتراحهم له بشدة. ومع مرور الوقت، قد يُبعد النظامُ المستخدمين عن مقاطع الفيديو التي يُريدون مشاهدتها بالفعل.

ولتقليل هذا الانحياز، يقترح الباحثون إدخال تعديلات على الخوارزمية كالتالي: في كل مرة ينقر فيها المستخدم على مقطع فيديو مُقترح، سيتم أخذ موقع ذلك الفيديو في قائمة الاقتراحات بعين الاعتبار، حيث سيتم إعطاء أهمية أقل لمقاطع الفيديو القريبة في أعلى الشريط الجانبي عند إدخالها في خوارزمية التعلم الآلي؛ وسيتم إعطاءها أهمية أكبر كلما اقترب موقعها من أسفل الشريط الجانبي؛ وذلك لأن المستخدم سيقوم بتحريك الفأرة للأسفل ليصل لذلك المقطع. وقد لاحظ الباحثون زيادة كبيرة في المشاركات عند اختبارهم لهذه التغييرات على موقع يوتيوب.

ولم توضّح الورقة ما إذا كان هذا التغيير دائماً أم لا، ولكن غيلوم شاسلوت، وهو مهندس سابق في يوتيوب ومدير حالي في آلجو ترانسبيرانسي دوت أو آر جي “AlgoTransparency.org”، قال إنه واثق تمامًا من بدء تطبيق ذلك النظام بسرعة كبيرة، وقد وضّح هذا قائلاً: “لقد قال الباحثون إن هذا النظام يزيد من وسطيّ وقت المشاهدة بنسبة 0.24%، مما يعني زيادة تقدّر بعشرات الملايين من الدولارات إن قمنا بحساب المبلغ”.

وقال العديد من الخبراء الذين راجعوا الورقة البحثية إن هذه التغييرات قد تؤدي إلى آثارٍ ضارة. وقد قال جوناس كايزر، أحد المنتسبين في مركز بيركمان كلاين للإنترنت والمجتمع: “وجدنا في بحثنا أن خوارزميات يوتيوب قد خلقت مجتمعاً متطرّفاً ومعزولاً، ودفعت المستخدمين لمشاهدة مقاطع فيديو خاصة بالأطفال، كما عززت المعلومات الخاطئة. وبالإضافة لذلك، قد يؤدي هذا التغيير إلى تشكيل مجتمعات معزولة أكثر مما نراه بالفعل”. وقال جوناثان أولبرايت، مدير مبادرة التحاليل الجنائية الرقميّة في مركز تو للصحافة الرقمية: “إن هذه الدراسة لموقع الفيديو في قائمة الاقتراحات ستساعد من تحسين جودة المحتوى عبر تحسين المقاطع المُرسلة إلى نظام التعلم الذاتي”، و من الناحية النظرية، قد يُساعد هذا التغيير أيضاً في نشر المحتوى المتطرف.

كما أن بيكا لويس، وهي باحثة سابقة في داتا آند سوسايتي، وتدرس التطرف على الإنترنت، ترى أن من الصعب التنبؤ بالتغييرات التي ستحدث، حيث قالت: “من الصعب التنبؤ بالتغييرات التي ستحدث في يوتيوب أيضاً، فهناك العديد من المجتمعات المختلفة على يوتيوب، بالإضافة إلى اختلاف الطرق التي يستخدم بها الناس هذه المنصة، واختلاف أنواع المحتوى، مما يؤدي إلى اختلاف آثار هذا التغيير في كثير من الحالات. مما يعني أننا أصبحنا فئران تجارب لدى يوتيوب”.

وعندما طلبنا تعليقاً على هذا الخبر، أجاب متحدثٌ باسم يوتيوب بأن مهندسي الشركة وفِرَق إنتاجها قد قدّروا أن هذه التغييرات لن تؤدي إلى تصفية المحتوى المتطرّف. وفي المقابل، تتوقع الشركة أن تؤدي هذه التغييرات إلى تقليل المحتوى المتطرّف، وتنويع المقاطع المقترحة.

كما يوصي الباحثون الخارجيون الثلاثة الذين تم الاتصال بهم من قِبل إم آي تي تيكنولوجي ريفيو بأن يُخصص موقع يوتيوب مزيداً من الوقت في استكشاف تأثير هذه الخوارزميات الجديدة؛ وذلك عبر وسائل مختلفة مثل المقابلات والدراسات الاستقصائية والاستعلام عن رأي المستخدم. وقد قال المتحدث الرسمي ليوتيوب إن الشركة قامت بذلك إلى حد ما، بالإضافة إلى عملها على إزالة المحتوى المتطرف من المنصة كخطابات الكراهية.

ويقول كايزر: “يجب على يوتيوب أن تبذل المزيد من الجهد في فهم العوامل التي تفضلها الخوارزميات وتدعمها، بدلاً من بحثها عن وسائل لإبقاء المستخدمين على منصتها”.

وأضافت لويس: “للأسف، ليس من المصلحة التجارية ليوتيوب أن تقوم بذلك، ولكن هناك ضرورة أخلاقية”.


شارك



مراسلة الذكاء الاصطناعي، إم آي تي تكنولوجي ريفيو