$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6930 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(18674)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "3.238.161.165"
  ["user_header"]=>
  object(stdClass)#7076 (41) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(200) "/%d8%a5%d9%84%d9%8a%d9%83%d9%85-%d8%ab%d9%84%d8%a7%d8%ab%d8%a9-%d9%85%d8%b4%d8%a7%d9%83%d9%84-%d9%86%d8%a7%d8%aa%d8%ac%d8%a9-%d8%b9%d9%86-%d8%a7%d9%84%d8%aa%d8%b2%d9%8a%d9%8a%d9%81-%d8%a7%d9%84%d8%b9/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86b9cffd1e3381ac-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "3.238.161.165"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.20" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(13) "3.238.161.165" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "47522" ["REDIRECT_URL"]=> string(72) "/إليكم-ثلاثة-مشاكل-ناتجة-عن-التزييف-الع/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711651896.11416) ["REQUEST_TIME"]=> int(1711651896) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7075 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7074 (2) { ["content_id"]=> int(18674) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

إليكم ثلاث مشاكل ناتجة عن التزييف العميق لن تستطيع التقنية أن تحلّها

4 دقائق
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

فلنتصور أننا استطعنا تطوير كاشف دقيق بدرجة مثالية للمقاطع عميقة التزييف، حيث يقوم على الفور بإضافة علامة حمراء كبيرة تقول “مقطع مُزيّف” على كل مقطع تمّ تعديله باستخدام الذكاء الاصطناعي، بغض النظر عن مدى واقعيّة الفيديو بالنسبة لنا.

قد يبدو هذا الكاشف هو الحلّ المثاليّ لمكافحة المقاطع المزيّفة التي يخشى سكان الولايات المتحدة أن تتسبب في نهاية الحقيقة وموت الديمقراطية؛ حيث يمكن أن تنتشر مقاطع الفيديو المُعدّلة والتي تبدو “حقيقيّة تماماً” خلال ستة أشهر. وبالتالي، يُمكن أن تتحوّل حملة الانتخابات الرئاسية الأميركية لعام 2020 إلى معركة للمقاطع المزيفة: كاعتراف دونالد ترامب بصفقات فاسدة مع روسيا، أو دعوة إليزابيث وارن إلى فرض حظر تام على الأسلحة، أو ذمّ كامالا هاريس للناس ذوي البشرة البيضاء.

واستجاب التقنيون لذلك بمزيد من التقنية؛ حيث قامت حكومة الولايات المتحدة بتمويل مشروع لـ “التحليل الجنائي للوسائط”. كما أعلنت شركتا فيسبوك ومايكروسوفت مؤخراً عن تحدٍ للكشف عن المقاطع عميقة التزييف، وأطلقت جوجل قاعدة بيانات عملاقة من المقاطع المزيفة لمحاربتها. حيث يُمكن استعمال تقنية التزييف الجديدة في إحداث أضرار انتشرت سابقاً، مثل التضليل الإعلامي والمضايقة. كما أن بريت باريس، وهي باحثة في جامعة روتجرز ومؤلفة مشاركة لتقرير داتا آند سوسايتي الأخير عن المقاطع عميقة التزييف، ترى أن جهاز كشف المقاطع المزيفة الدقيق لا يستطيع معالجة هذه الأضرار. وهنا تكمن خطورتها.

1- المشكلة الأولى: لا تستطيع أجهزة الكشف عن المقاطع المزيفة إخبارنا بما ينبغي -ولا ينبغي- حذفه
هل تذكرون المقطع المُبطَّأ لنانسي بيلوسي؟ لم يكن ذلك مقطعاً عميق التزييف، ومع ذلك فهو أيضاً ينشر الأكاذيب، وقد قررت فيسبوك إبقاءه. ولم يساعد كاشف المقاطع عميقة التزييف في اتخاذ هذا القرار. وتقول كيت كلونيك، الأستاذة بجامعة سانت جون والخبيرة في إدارة المنصات: “كلما زاد اعتمادك على هذا العمل الآلي، زاد احتمال عدم الدقة أو التشفير الخاطئ، كما سنحتاج إلى أساس فلسفيّ ضخم لكي نستطيع التمييز بين المقاطع المُتهكّمة والأخبار المُزيَّفة أو الخياليّة”.

الفكرة: إدارة أفضل
تقول سارة روبرتس، باحثة معلوماتية في جامعة كاليفورنيا، إنه يجب على المجتمع حلّ هذه المشاكل. وقد يتمثل أحد الحلول في إعطاء المزيد من الصلاحيّة لمشرفي المحتوى البشريّ القادرين على اتخاذ هذه القرارات. وتحقيق هذه الغاية، ومن الممكن إعطاؤهم المزيد من المال، وتدريبهم بشكل أفضل، وتقديرهم كطرف مهمّ في الحفاظ على أمان الإنترنت.

ويمكن للفرق المتخصصة من المشرفين المُختَبَرين الحُكم على سياق المقاطع والتحقق من حقيقتها، وتحديد ما إذا كان ينبغي أن تبقى على المنصة أم لا. وعلى الرغم من عدم اتخاذهم القرار المثالي لمقطع بيلوسي، فإنه لا يزال لديهم إحساسٌ بالتأثير الاجتماعيّ والسياسيّ لمجموعة متنوعة من المقاطع عميقة التزييف وأهدافها؛ حيث يمكن أن يسمحوا بنشر المقاطع المزيفة التي تحتوي على محاكاة ساخرة لنيكولاس كيج مثلاً، ويمنعوا نشر المقاطع الإباحية الزائفة.

كما يُمكن اعتبار ضحايا المقاطع المزيفة مؤهلين لإصدار الحُكم عليها، حيث تقول دانييل سترون، خبيرة الإنترنت في جامعة بوسطن، إنه يتعين على الشركات أن تُسهّل الإبلاغ عن المضايقات باستخدام المقاطع عميقة التزييف؛ إذ يجب توعية جميع المستخدمين بحقوقهم، كما يجب أن تُصبح خطوات الإبلاغ عن المحتوى واضحة ويمكن الوصول إليها، عوضاً عن دفنها في سياسة الخصوصية.

2- المشكلة الثانية: قد لا تُساعد تقنية الكشف عن المقاطع المزيفة الأشخاص الأكثر حاجة لهذه الحماية
تقول باريس: “أظهرت الحوادث عبر الزمن أنه غالباً ما تُستخدم التقنية الجديدة ضد المجموعات المُهمّشة -مثل النساء على مستوى العالم، وذوي البشرة الملونة والميول الجنسية المتعددة في المجتمع الأميركي والمجتمعات المماثلة– وذلك قبل أن تنتشر هذه التقنية لتصبح تهديداً رئيسياً”. وعلى سبيل المثال، انتشرت في التسعينيات من القرن الماضي صورٌ مُعدلة لرؤوس نساء مختلفة على أجسام ممثلات إباحيات، ولم يهتمّ الأشخاص الموجودون في السلطة لفعل أي شيء حيال ذلك الأمر. وتقول ماري آن فرانكس، باحثة قانونية في جامعة ميامي: “لو قمنا بالاهتمام بمشكلة الاستغلال الجنسي للمرأة دون موافقتها في ذلك الوقت، لكُنّا في وضع أفضل بكثير للتعامل مع هذا الأمر اجتماعياً وقانونياً وثقافياً اليوم”.

والتاريخ يُعيد نفسه؛ حيث يرى الباحثون أن أكبر مخاطر المقاطع عميقة التزييف لا تكمن في التلاعب في الانتخابات، بل في استخدامها من أجل التنمّر على المواطنين العاديين.

الفكرة: لا تطوّروا أي أداة دون استشارة الأشخاص الأكثر تضرراً
قال سام غريغوري، مدير البرامج في ويتنس، وهي منظمة غير ربحية تدرس الوسائط المُصطنعة: “تحدث إلى الأشخاص الأكثر تعرضاً للمقاطع المزيفة، حتى لو كان هدفك هو إنشاء كاشف لها. فهناك الكثير من الأسئلة الاجتماعية المرتبطة بها؛ هل سيكون هذا الكاشف متاحاً للأشخاص في البلدان الأخرى؟ وهل سيتم تدريبه على اكتشاف التزييف السياسي أو العنف الجنسي؟ حيث يجب تحديد هذه البنية الأساسية؛ وذلك لكثرة تجاهل هؤلاء الأشخاص المهمّشين لعدم امتلاكهم وكالة قادرة على تغيير تلك البنية الأساسية”.

3- المشكلة الثالثة: ستُساعد كواشف التزييف الضحايا بعد فوات الأوان
تقول فرانكس، باحثة في جامعة ميامي: “من النادر أن يقوم أحدهم بالبحث عن الحقيقة بعد انتشار مقاطع الفيديو أو الصوت عميقة التزييف”.

كما أن القوانين الحالية غير كافية؛ حيث لا تسري القوانين التي تُجرّم مشاركة المعلومات الشخصية المشروعة -مثل السجلات الطبية- على مقاطع الفيديو المغلوطة فقط، وإنما التي تقوم بدور تخريبي ومضلل أيضاً. وتقول فرانكس إن قوانين مكافحة انتحال الهوية “محدودة بشكل غريب”، فهي تركز على حظر انتحال شخصية طبيب أو مسؤول حكوميّ فقط. كما تعالج قوانينُ التشهير التصوراتِ الخاطئةَ التي تصوّر الموضوع بصورة سلبيّة فقط، وتقول فرانكس إنه يجب الاهتمام بالمقاطع المزيفة التي تصوّر الأشخاص بصورة إيجابية أيضاً.

الفكرة: قوانين جديدة
وأقرّت تكساس مؤخراً مشروع قانونٍ لحظر المقاطع عميقة التزييف، كما تمّ إقرار مشروع قانون مكافحة التزييف في كاليفورنيا في كلا المجلسين، وينتظر الآن توقيع الحاكم غافن نيوسوم. كما قامت النائبة إيفيت كلارك، عضوة الكونغرس الأميركي من نيويورك، بتقديم تشريعٍ فدراليّ تحت اسم “قانون المُساءلة عن المقاطع عميقة التزييف“، وذلك من شأنه أن يُجبر شركات التواصل الاجتماعي على إنشاء أدوات اكتشاف أفضل في منصاتها، وبدء معاقبة أو سجن الأشخاص الذين ينشرون المقاطع المزيفة.

ومن جانبهما، تعمل كل من فرانكس وسيترون على مشروع قانون فدراليّ لتجريم المقاطع عميقة التزييف، والتي يسمونها بـ “التزييف الرقمي”. وينطبق تعريف التزييف الرقمي حسب اعتقاداتهم على المحتوى الذي يظنّه الشخص العاقل حقيقياً، والذي يتسبب في ضرر لشخص معين أو للنظام العام، مثل نشر مقطع مزوّر يُظهر شخصاً مسلماً يرتكب جريمة ما.

ولكي يعمل أي قانون كهذا في الولايات المتحدة، يجب أن تكون أهميته تامّة على المستوى الفيدرالي، وليس على مستوى الولايات فحسب. ونظراً لقانون يُسمى المادة 230؛ حيث لا تتحمّل شركات المنصات مسؤولية قانونية بسبب استضافة محتوى ضارّ تابع لجهة خارجية ما لم ينتهك هذا المقطعُ القانونَ الجنائي الفيدرالي. وإذا تحوّل نشر مقاطع الفيديو الضارة إلى جريمة، فذلك سيمنع الأشخاص من نشرها، كما ستضطرّ المنصات مثل فيسبوك إلى العمل بجديّة أكبر لإيقافها. وتقول فرانكس: “لن تكون هذه الشركات قادرة على الدفاع عن نفسها باستخدام المادة 230، وقد تكون لديهم مجموعة أخرى من الحُجج، ولكنهم لن يستطيعوا استخدام تلك الطريقة في الدفاع عن أنفسهم”.

Content is protected !!