$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6914 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(17909)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(14) "34.228.168.200"
  ["user_header"]=>
  object(stdClass)#7074 (41) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(198) "/%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D9%83%D8%B4%D9%81-%D8%A7%D9%84%D8%A3%D8%AE%D8%A8%D8%A7%D8%B1-%D8%A7%D9%84%D9%83%D8%A7%D8%B0%D8%A8%D8%A9/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86b9bb2e7d68827e-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(14) "34.228.168.200"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.20" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(14) "34.228.168.200" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "60522" ["REDIRECT_URL"]=> string(70) "/الذكاء-الاصطناعي-كشف-الأخبار-الكاذبة/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711651043.847235) ["REQUEST_TIME"]=> int(1711651043) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7073 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7072 (2) { ["content_id"]=> int(17909) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

ما زال الذكاء الاصطناعي المخصص لكشف الأخبار المزيفة مريعاً في أدائه

3 دقائق
مصدر الصورة: إم إس تيك
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

عندما أطلق مارك زوكربيرج (المدير التنفيذي لفيسبوك) وعداً أمام الكونجرس بأن الذكاء الاصطناعي سيساعد على حل مشكلة الأخبار المزيفة، لم يقدم الكثير من المعلومات حول كيفية تحقيق هذا الأمر، لكن هناك بحثاً جديداً سيقربنا من التوصل إلى الحل المطلوب.

فقد أجرى باحثون من جامعة إم آي تي، ومعهد قطر لأبحاث الحوسبة، وجامعة صوفيا في بلغاريا، دراسةً مكثفة لاختبار أكثر من 900 متحول لتوقع وثوقية مصدر إخباري ما، ومن المرجح أنه أضخم اختبار من نوعه.

وقام الباحثون بعد ذلك بتدريب نموذج للتعلم الآلي باستخدام تركيبات مختلفة من المتحولات، وذلك لمعرفة التركيبة التي ستعطي أدق النتائج. ثم قام النموذج الأفضل بمنح المصادر الإخبارية واحدة من ثلاث درجات للوثوقية والدقة (منخفض ومتوسط ومرتفع)، وقد بلغت دقة توقعاته 65%.

ولا شك في أن هذه النتيجة لا تعتبر نجاحاً مدوياً، لكن التجارب كشفت أموراً أكثر أهمية حول ما يتطلبه الاعتماد على الآلات في التحقق من أخبارنا، حيث يقول بريسلاف ناكوف -وهو عالم رئيسي في معهد قطر لأبحاث الحوسبة، وأحد المشاركين في الدراسة- إنه متفائل بإمكانية كشف مصادر الأخبار الكاذبة بهذه الطريقة.

ولكن هذا لا يعني أن العملية ستكون سهلة.

منهج الجنون

بدأ التوسع الكبير في أبحاث كشف الأخبار المزيفة منذ حملة الانتخابات الرئاسية الأميركية في 2016، حيث ظهرت أربعة اتجاهات أساسية، هي: التحقق من صحة الادعاءات الإفرادية، وكشف المقالات الزائفة، وتعقُّب مثيري الكراهية، وقياس موثوقية المصادر الإخبارية. واختار ناكوف وفريقه التركيز على الاتجاه الرابع؛ لأنه يعتبر أقرب ما يكون إلى أصل المعلومات الزائفة، كما أنه لم يحظَ بقدر كافٍ من الدراسة.

كما أن الدراسات السابقة قد حاولت قياس موثوقية المصادر الإخبارية عن طريق قياس عدد حالات التطابق والتضارب ما بين معلوماتها والمعلومات التي أُثبتت صحتها سابقاً، أي أن الآلة ستقوم بمقارنة تاريخ الادعاءات التي يطلقها مصدر إخباري ما مع مواقع مثل سنوبس وبوليتيفاكت، غير أن هذه الآلية تعتمد على البشر لإجراء المقارنة ولتقييم تاريخ المصدر الإخباري، وليس حاضره. ويقول ناكوف إنه عند الانتهاء من تدقيق أحدث الادعاءات “يكون الأوان قد فات وانتهى الأمر”.

ولكشف مصادر الأخبار الزائفة بشكل أقرب ما يكون إلى الزمن الحقيقي، قام ناكوف وزملاؤه بتدريب نظامهم باستخدام متحولات يمكن تدقيقها بشكل مستقل عن البشر، ومن هذه المتحولات تحليل المحتوى (مثل بنية الجملة للعناوين وتنوع الكلمات في المقالات)، ومؤشرات الموقع الإجمالية (مثل بنية العنوان ومستوى نشاط وزيارة الموقع)، ومقاييس تأثير المصدر الإخباري (مثل نشاطه على شبكات التواصل الاجتماعي وصفحة الويكيبيديا في حال وجودها).

وقد اعتمد الباحثون في اختيار المتحولات على الأبحاث السابقة، فقد ظهر فيها أن المقالات الإخبارية المزيفة تميل إلى تكرار الكلمات مثل: (وفي فرضية جديدة).

واستطاع الباحثون -باختبار تراكيب مختلفة من المتحولات- تحديد أفضل المعاملات التي يمكن استخدامها لتوقُّع مدى وثوقية المصدر الإخباري، وعلى سبيل المثال فإن وجود صفحة ويكيبيديا كان معاملاً ذا تأثير أكبر من المتوقع، أما نشاط زيارة الموقع فقد تبيَّن أنه معامل غير مؤثر. وهذا الأسلوب ساعد الباحثين على تحديد متحولات إضافية يمكن دراستها في المستقبل.

عوز البيانات

ولكن هناك عائق آخر هو نقص بيانات التدريب، وهو ما يُطلق عليه ناكوف “الحقيقة المبدئية”.

فبالنسبة لمعظم مهام التعلم الآلي، يعد وضع المؤشرات اللازمة على بيانات التدريب أمراً سهلاً، فإذا رغبت في بناء نظام لتحديد المقالات حول الرياضة، يمكنك بسهولة أن تضع مؤشرات على المقالات المستخدمة للتدريب، بحيث تصفها -ببساطة- بأنها تتعلق بالرياضة أو لا تتعلق بالرياضة، وبعد ذلك تقوم بتلقيمها إلى الآلة حتى تتعلم الصفات المميِّزة للمقالة الرياضية.

غير أن وضع المؤشرات على المصادر الإخبارية لتوصيف مصداقيتها أمر أكثر حساسية، ويتطلب صحفيين محترفين يتبعون منهجية صارمة، كما أن هذه العملية تستغرق الكثير من الوقت؛ ولهذا فإن بناء مجموعة بيانات جيدة للتدريب يعد أمراً بالغ الصعوبة، وهو أحد أسباب ضعف دقة النموذج المستخدم في الدراسة. يقول ناكوف: “إن زيادة بيانات التدريب وسيلة بديهية لزيادة الدقة”.

وحالياً قامت منظمة تدقيق انحياز الإعلام -وهي المنظمة التي اختِيرت لتقديم بيانات “الحقيقة المبدئية” للبحث- بتقييم 2,500 مصدر إعلامي، وهو رقم ضئيل بالنسبة للتعلم الآلي، ولكن ناكوف يقول إن قاعدة البيانات للمنظمة تكبر باطراد. ولا يكتفي الباحثون باستجلاب المزيد من بيانات التدريب، بل يحاولون أيضاً تحسين أداء النموذج عن طريق زيادة المتحولات، التي يصف بعض منها بنية الموقع، ووجود معلومات للتواصل، ونمط نشر المحتوى وحذفه. كما أنهم في المراحل الأولى من بناء منصة عامة جديدة تقدم للقراء دلالات هامة حول مصداقية كل ما تتم مشاركته من قصص ومصادر.

وعلى الرغم من أن العمل ما زال في أول الطريق، يعتقد ناكوف أن تقنية كهذه يمكن أن تساعد على حل أزمة شيوع الأخبار المزيفة بشكل سريع نسبياً، وذلك إذا قررت منصات التواصل الاجتماعي مثل فيسبوك وتويتر أن تقدم مساهمة فعلية. وقد كتب ناكوف في رسالة على سكايب: “إن الأمر أشبه بمكافحة رسائل البريد الإلكتروني المزعجة، من المؤكد أننا لن نتخلص نهائياً من الأخبار المزيفة، ولكن يمكن أن نبقيها تحت السيطرة”.

Content is protected !!