$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6936 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(43909)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "18.209.230.60"
  ["user_header"]=>
  object(stdClass)#7064 (41) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(192) "/%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D9%84%D9%83%D8%B4%D9%81-%D8%A7%D9%84%D9%85%D8%AD%D8%AA%D9%88%D9%89-%D8%A7%D9%84%D8%B3%D9%8A%D8%A6/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86be21479de78293-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "18.209.230.60"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.22" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(13) "18.209.230.60" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "48690" ["REDIRECT_URL"]=> string(68) "/الذكاء-الاصطناعي-لكشف-المحتوى-السيئ/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711697168.809411) ["REQUEST_TIME"]=> int(1711697168) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7063 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7062 (2) { ["content_id"]=> int(43909) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

هل يساعد الذكاء الاصطناعي في كشف المحتوى السيئ؟

4 دقائق
هل يمكن أن يساعد الذكاء الاصطناعي على الكشف عن المحتوى السيئ؟
ستيفاني أرنيت/إم آي تي تي آر/غيتي إميدجيز
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

أصبحت شركات التكنولوجيا الكبرى ماهرة في الكثير من المجالات في العقد الأخير، كتطوير النماذج اللغوية وبناء التوقعات وتخصيص المحتوى والأرشفة والتحليل اللغوي للنصوص والتحليل الآلي للبيانات. ولكنها لا تمتلك مهارات عالية بعد في عملية اكتشاف المحتوى الضار وتصنيفه وإزالته، وهذا أمر مفاجئ. ما عليك سوى تذكّر انتشار نظريات المؤامرة حول الانتخابات واللقاحات في الولايات المتحدة على مدار العامين الماضيين لفهم الضرر الحقيقي الذي يسببه فشل شركات التكنولوجيا في هذه العملية.

يثير هذا التفاوت بعض التساؤلات. لماذا لم تصبح شركات التكنولوجيا أكفأ في الإشراف على المحتوى؟ وهل يمكن إجبارها على ذلك؟ وهل ستساعدنا التطورات الجديدة في مجال الذكاء الاصطناعي على تحسين قدرتنا على كشف المعلومات المغلوطة؟

لماذا لم تصبح شركات التكنولوجيا أكفأ في الإشراف على المحتوى؟

تميل شركات التكنولوجيا في أغلب الحالات إلى إلقاء مسؤولية فشلها على التعقيدات المتأصلة في اللغات، وذلك عند استدعائها للمثول أمام الجهات الرقابية والخضوع للمساءلة بخصوص إسهامها في نشر المحتوى المحرض على الكراهية والمعلومات المضلِّلة. يقول المسؤولون التنفيذيون في شركات مثل ميتا وتويتر وجوجل إنه من الصعب تفسير خطاب الكراهية الذي يعتمد على السياق على نطاق واسع وبلغات مختلفة. تنص إحدى العبارات التي يكررها مارك زوكربيرغ كثيراً على أن شركات التكنولوجيا يجب ألا تتحمل مسؤولية حل جميع المشكلات السياسية في العالم.

تستخدم معظم الشركات حالياً مزيجاً من أدوات الإشراف الآلية على المحتوى والمشرفين البشريين، ممن لا تقدر قيمة عملهم كما يتّضح من انخفاض أجورهم.

على سبيل المثال، تكشف أدوات الذكاء الاصطناعي في موقع فيسبوك حالياً 97% من المحتوى الذي يُزال من المنصة.

مع ذلك، تقول مديرة الأبحاث في برنامج مرصد ستانفورد للإنترنت، رينيه ديريستا، إن أدوات الذكاء الاصطناعي ليست ماهرة في تفسير الفروق الدقيقة والسياقات، لذلك، ليس من الممكن أن تحل تماماً محل المشرفين على المحتوى من البشر الذين لا يفسرون دائماً الفروق والسياقات بكفاءة عالية أيضاً.

اقرأ أيضاً: لماذا يعاني العاملون في قطاع الذكاء الاصطناعي المسؤول من الإرهاق؟

يمكن أن يمثّل كل من السياق الثقافي واللغة عقبات أيضاً، وذلك لأن أغلبية أنظمة الإشراف الآلي على المحتوى تدرّبت باستخدام البيانات باللغة الإنجليزية ولا تعمل بكفاءة باستخدام اللغات الأخرى.

توصّل الأستاذ في كلية المعلومات في جامعة كاليفورنيا في مدينة بيركلي، هاني فريد، إلى تفسير أكثر بداهة، ويقول: “لا تتناسب كفاءة عملية الإشراف على المحتوى مع خطر المشكلات المتعلقة بالمحتوى لأن هذه العملية لا تتوافق مع المصالح المالية لشركات التكنولوجيا؛ إذ يتعلق الأمر برمته بالجشع، فدعنا نتوقف عن الادعاء بأن هناك أي سبب آخر سوى المال”.

يجعل غياب اللوائح التنظيمية الفيدرالية في الولايات المتحدة مثلاّ من الصعب للغاية تحميل المنصات المسؤولية المالية عن تعرض الضحايا من المستخدمين إلى سوء المعاملة على الإنترنت.

يبدو أن الإشراف على المحتوى هو حرب طال أمدها بين شركات التكنولوجيا والجهات الفاعلة السيئة؛ إذ تصدر هذه الشركات القواعد الخاصة بممارسة الرقابة على المحتوى، ثم يكتشف الفاعلون المسيئون كيفية الالتفاف على هذه القواعد من خلال نشر المحتوى المسيء باستخدام الرموز التعبيرية (الإيموجي) أو الأخطاء الإملائية المتعمّدة ليتجنّبوا التعرض للكشف. تحاول الشركات بعد ذلك سد الثغرات في قواعدها، ثم يجد الجناة ثغرات جديدة، وهكذا دواليك.

اقرأ أيضاً: الكفاح من أجل إعادة الذكاء الاصطناعي إلى مساره الصحيح

دخول النماذج اللغوية الكبيرة إلى الساحة

ممارسة الرقابة على المحتوى أمر صعب، ولكنه سيصبح أصعب بكثير على الأرجح بسبب نشوء تكنولوجيا الذكاء الاصطناعي التوليديّ والنماذج اللغوية الكبيرة مثل تشات جي بي تي (ChatGPT). تعاني هذه التكنولوجيا من مشكلات (على سبيل المثال، ميولها لاختلاق المعلومات بثقة وعرضها على أنها حقائق)، ولكنّ ثمة أمراً واحداً واضحاً، هو أن الذكاء الاصطناعي يصبح أكثر مهارة في استخدام اللغة، وأكثر مهارة بكثير بالفعل مع مرور الوقت.

ما تبعات ذلك على عملية الإشراف على المحتوى؟

يقول كل من فريد وديريستا إنه من السابق لأوانه معرفة ما سيحدث في المستقبل، لكنهما يشعران بالقلق. على الرغم من أن العديد من الأنظمة الأكبر مثل جي بي تي-4 (GPT-4) وبارد (Bard) يحتوي على مرشِّحات مدمجة للإشراف على المحتوى، لا يزال من الممكن دفع هذه الأنظمة لتوليد مخرجات غير مرغوب فيها، مثل خطاب الكراهية أو التعليمات حول كيفية صنع القنابل.

يمكن أن تتيح تكنولوجيا الذكاء الاصطناعي التوليدي للجهات الفاعلة السيئة إنشاء حملات تضليل مقنعة على نطاق أكبر وبسرعة أكبر بكثير. هذه احتمالية مخيفة، وخصوصاً بالنظر إلى انخفاض كفاءة طرق الكشف عن المحتوى المولّد وتصنيفه.

ولكن من الناحية الإيجابية، تتمتّع النماذج اللغوية الكبيرة الأحدث بقدرة أكبر بكثير على تفسير النصوص مقارنة بأنظمة الذكاء الاصطناعي السابقة. نظرياً، يمكن استخدام هذه النماذج لزيادة كفاءة عملية الإشراف المؤتمتة على المحتوى.

ولكن لتحقيق ذلك، يجب على شركات التكنولوجيا أن تستثمر في تطوير طرق لتعديل النماذج اللغوية الكبيرة لهذا الغرض بالتحديد. وعلى الرغم من بدء بعض الشركات مثل مايكروسوفت في البحث حول هذا الموضوع، لم يكن هناك نشاط ملحوظ.

يقول فريد: “أشك في أن نشهد أي تحسينات في عملية الإشراف على المحتوى، على الرغم من تطوير العديد من التكنولوجيات الجديدة التي من شأنها أن تزيد من كفاءة هذه العملية”.

لا تزال النماذج اللغوية الكبيرة تعاني من صعوبات في تفسير السياق، ما يعني أنها لن تكون قادرة على تفسير التفاصيل الدقيقة في المنشورات والصور بكفاءة المشرفين من البشر على الأرجح. يثير كل من قابلية التوسّع وتخصيص نوعيات محددة من المحتوى عبر الثقافات المختلفة بعض التساؤلات أيضاً. تقول ديريستا: “هل يمكننا تطبيق نموذج واحد في أي نوع من أنواع المجالات الخاصة؟ وهل نطبق النموذج وفقاً للبلد، أم المجتمع؟ لا يوجد حل واحد شامل لهذه المسألة”.

اقرأ أيضاً: هل يمثل الذكاء الاصطناعي خطراً وجودياً على البشر؟

أدوات جديدة للتكنولوجيا الجديدة

قد يعتمد تحوّل الذكاء الاصطناعي التوليدي إلى تكنولوجيا أكثر ضرراً أو إفادة في مجال المعلومات عبر الإنترنت إلى حد كبير على ما إذا كانت شركات التكنولوجيا قادرة على تطوير أدوات فعالة ومعتمَدة على نطاق واسع تكشف للمستخدمين ما إذا كان المحتوى مولّداً آلياً أم لا.

هذا تحدٍ تقني للغاية، وتقول ديريستا إن الكشف عن الوسائط التركيبية التي ولدها الذكاء الاصطناعي سيُمنح الأولوية الأهم على الأرجح. يتضمن ذلك طرقاً مثل استخدام العلامات المائية الرقمية التي تضيف أجزاء صغيرة من الرموز البرمجية إلى المحتوى للإشارة إلى أن الذكاء الاصطناعي أنشأ هذا الجزء من المحتوى. تعتبر الأدوات المؤتمتة المخصصة لكشف المنشورات التي أنشأها الذكاء الاصطناعي أو عدّلها جذابة لأنها لا تتطلب وضع علامات بشكل استباقي من مُنشئ المحتوى تصنّفه على أنه مولّد، على عكس إضافة العلامات المائية. مع ذلك، لم تكن الأدوات الحالية المستخدمة لهذا الغرض فعالة بصورة خاصة في كشف المحتوى المولّد آلياً.

اقترح بعض الشركات استخدام التوقيعات المشفرة التي تعتمد على طرق رياضية لتوثيق المعلومات بأمان مثل كيفية توليد جزء من المحتوى، ولكنها تعتمد على تقنيات الإفصاح الطوعي مثل العلامات المائية.

يفرض الإصدار الأحدث من قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي اقتُرح في أوائل شهر مايو/ أيار 2023، على الشركات التي تستخدم الذكاء الاصطناعي التوليدي إبلاغ المستخدمين عندما يكون المحتوى مولّداً آلياً. من المحتمل أن نسمع الكثير عن هذه الأنواع من الأدوات الناشئة في الأشهر المقبلة، مع زيادة المطالبة بالشفافية في مسألة المحتوى الذي يولّده الذكاء الاصطناعي.

Content is protected !!