بعد وصف 2024 بأكبر عام انتخابي في التاريخ كيف سنكافح المعلومات المزيفة في الانتخابات؟

5 دقيقة
بعد وصف 2024 بأكبر عام انتخابي في التاريخ كيف سنكافح المعلومات المزيفة في الانتخابات؟
حقوق الصورة: shutterstock.com/Alexandros Michailidis
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

يحمل هذا العام في طياته تقلبات سياسية واسعة الأثر، فسوف يتجه أكثر من 4 مليارات ناخب إلى صناديق الاقتراع في عدة بلدان تتضمن الولايات المتحدة وتايوان والهند وإندونيسيا، ما يجعل 2024 أضخم عام انتخابي في التاريخ.

وستستخدم الحملات الانتخابية الذكاء الاصطناعي بطرق مبتكرة. ففي العام الماضي، نشرت الحملة الانتخابية الرئيسية للمرشح الرئاسي الجمهوري، حاكم ولاية فلوريدا رون ديسانتيس، صوراً معدلة لدونالد ترامب، كما نشرت الهيئة الوطنية للحزب الجمهوري إعلاناً أنتجته باستخدام الذكاء الاصطناعي حول مستقبل كئيب، رداً على إعلان الرئيس الأميركي جو بايدن عن حملته للترشح لولاية رئاسية ثانية، ومنذ فترة وجيزة، أنتج كل من المرشَّحَين الرئاسيين في الأرجنتين مقداراً كبيراً من المحتوى باستخدام الذكاء الاصطناعي لرسم صورة مسيئة للمرشح الآخر.

تبشر هذه الزيادة الحادة في المزيفات العميقة بمجال سياسي جديد، فقد استُخدم الذكاء الاصطناعي مؤخراً في 16 بلداً على الأقل لنشر الشكوك، وتشويه صورة الخصوم، والتأثير في الحوار العام، وذلك وفقاً لتقرير نشرته منظمة فريدوم هاوس (Freedom House) في أكتوبر/ تشرين الأول المنصرم. ولهذا، يجب أن نستعد للمزيد من الفوضى التي سترافق الانتخابات المهمة على مستوى العالم في 2024.

الخوارزميات تهدد مستقبل الانتخابات

إضافة إلى ذلك، سيشهد هذا العام نقلة نوعية على صعيد منصات التواصل الاجتماعي. فقد أدى تأثير فيسبوك وغيرها من منصات التواصل الاجتماعي إلى تكييف تصورنا حول هذه المنصات، فأصبحنا ننظر إليها بوصفها “ساحات عامة” مركزية وعالمية يمر فيها سيل لا ينتهي من المحتوى مع تفاعل خالٍ من الاحتكاك.

لكن الفوضى التي شهدتها منصة إكس (X) المعروفة سابقاً باسم “تويتر”، وتراجع استخدام فيسبوك بين أفراد الجيل زد (Gen Z)، إضافة إلى صعود تطبيقات مثل تيك توك (TikTok) وديسكورد (Dsicord)، هي عوامل تشير إلى أن مستقبل التواصل الاجتماعي قد يكون مختلفاً للغاية عما نتوقعه.

ففي إطار السعي نحو تحقيق النمو، اعتمدت المنصات على أساليب تضخيم المشاعر عبر الخوارزميات التي تشد الانتباه، وصفحات المحتوى التي تعتمد على آليات التوصية.

لكن هذه الأساليب سلبت المستخدمين التحكم الذاتي، فنحن لا نتحكم فيما نراه، ووضعتنا في خضم حوارات تتسم بالكراهية والتجاذبات، إضافة إلى تفاقم انتشار مشكلات الصحة العقلية بين المراهقين. وهذا الواقع بعيد للغاية عن الحوار العالمي الديمقراطي الذي يجمع العالم بأكمله؛ والذي حلم به المثاليون منذ 15 عاماً.

اقرأ أيضاً: شرح مفصل للتكنولوجيا التي تعتمدها الحملات الانتخابية الأميركية لعام 2020

مع فقدان الكثير من المستخدمين لأي إيمان بجدوى هذه المنصات، أصبح من الواضح أن أساليب تعظيم الإيرادات قد أضرت، على نحو مثير للسخرية، بمصالح الشركات المالكة لهذه المنصات.

كيف ستتم مواجهة تفاقم الأجواء السلبية في أوساط التواصل الاجتماعي؟

والآن، ومع تفاقم الأجواء السلبية في أوساط التواصل الاجتماعي بسبب الذكاء الاصطناعي، يتعين على المنصات والجهات الرقابية اتخاذ إجراءات سريعة لكسب ثقة المستخدمين مرة أخرى، وحماية الديمقراطية.

لهذا؛ سأقترح في هذا المقال 6 أساليب تقنية يجب أن تركز عليها المنصات لحماية مستخدميها. سيكون للقوانين واللوائح الناظمة دور أساسي في التحفيز على اعتماد الكثير من هذه الإجراءات، أو الإلزام بذلك. وعلى حين لن تؤدي هذه الإصلاحات إلى حل مشكلات المعلومات الخاطئة والمزيفة كافة، فقد تساعد على التخفيف من أثرها المقبل قبل بدء الانتخابات هذا العام.

اقرأ أيضاً: خمسة أسئلة حول حظر فيسبوك الذي سيستمر سنتين لدونالد ترامب

1.    التحق من هوية المستخدمين البشر

يجب أن نكون قادرين على التمييز بين الإنسان الذي يستخدم وسائل التواصل الاجتماعي والبوت الذي يعمل وفق تعليمات برمجية، وتحميل المسؤولية للإنسان أو الجهة المسؤولة عن البوت في حال انتهاك أي قوانين أو سياسات. لكن هذا لا يعني الكشف عن هويات المستخدمين، فالمطلوب هنا اعتماد آلية مماثلة للآلية التي تجعلنا نشعر بأمان كافٍ للركوب في سيارة شخص غريب يعمل لصالح شركة أوبر (Uber)، لأننا قرأنا تقييمات المستخدمين، ونعرف أن أوبر تحققت من هوية السائق. وعلى نحو مماثل، يجب على شركات التواصل الاجتماعي أن تتحقق من هوية الإنسان الذي يستخدم كل حساب، وتعتمد على وظائف تقييم مبنية على السمعة، لتشجيع الحسابات على اكتساب ثقة المجتمعات التي تستخدم هذه المنصات.

اقرأ أيضاً: مستشارون في مجال علم الأعصاب السياسي يخترقون أدمغة الناخبين

2.     معرفة كل مصدر

يمكن لمعرفة مصدر المحتوى وتوقيت دخوله الشبكة أن تساعد على تحسين الثقة والأمان. ويمكن في إطار الخطوة الأولى استخدام ختم زمني مع عنوان بروتوكول إنترنت (IP) مشفر (وغير قابل للإزالة) لضمان إمكانية تحديد المصدر الأصلي. ويمكن اكتشاف الأطراف المسيئة والمحتوى الذي تقدمه عبر سلسلة الإشراف؛ ومن ثَمَّ تخفيض التفاعل مع هذه الأطراف أو حظرها بالكامل، بدلاً من تعزيز انتشارها باستخدام الخوارزميات. على الرغم من أن المعلومات التي تعتمد في انتقالها على شبكة خاصة افتراضية (VPN) قد تتمكن من التملص من الرقابة، يمكن للمنصات أيضاً أن تزيد من جهودها لكشف هذه الشبكات الخاصة الافتراضية.

3.     كشف المواد العميقة التزييف

تماشياً مع الأمر التنفيذي الشامل الذي أصدره الرئيس بايدن حول الذكاء الاصطناعي، والذي يلزم وزارة التجارة بتطوير دليل حول وسم المحتوى المُوَلَّد باستخدام الذكاء الاصطناعي من خلال العلامات المائية، يجب على المنصات بذل المزيد من الجهود لتطوير أدوات الكشف والوسم. ومن الطرائق التي يمكن أن تعتمدها المنصات في البداية مسح قواعد البيانات الحالية المخصصة للصور، وإبلاغ المستخدم عن الصور التي لا ترتبط بأي تاريخ سابق، وهو إجراء بدأت تطبقه خدمة جوجل إيمدجيز (Google Images). كما يمكن تدريب أنظمة الذكاء الاصطناعي على كشف العلامات المميزة للتزييف العميق، وذلك باستخدام مجموعات كبيرة من الصور الحقيقية، ومقارنتها مع صور مُصَنَّفة على أنها مزيفة. يمكن لهذه البرمجيات أن تبلغ المستخدمين عن الصور التي يوجد احتمال مرتفع بأن تكون عميقة التزييف، على نحو مماثل لإشعار “خطر اتصال مزعج” الذي يظهر على الهاتف عند ورود اتصال من أرقام معينة.

اقرأ أيضاً: هل تكفي التجهيزات عالية التقنية للإدلاء بالصوت في الانتخابات؟

4.     فلترة المعلنين

يمكن للشركات أن تنشر “قائمة آمنة” من المعلنين عبر المنصات المختلفة، حيث تمنح موافقتها للمعلنين الذين يمتثلون لقوانين الإعلان القابلة للتطبيق، ويلتزمون على نحو احترافي بمعايير الإعلان على المنصات. كما يتعين على المنصات أيضاً تشديد تدقيقها للإعلانات السياسية، وإضافة تنبيهات واضحة عن استخدام المحتوى الاصطناعي. وعلى سبيل المثال، أعلنت شركة ميتا (Meta) منذ فترة قريبة أنها ستفرض على الإعلانات السياسية التصريح عن استخدامها للذكاء الاصطناعي في حال استخدامه.

5.     الاعتماد على مساعدة البشر الحقيقيين

لا شك في أن الأخطاء ستقع، ولا شك في أن نسبة من المحتوى غير الموثوق ستتمكن من التسرب عبر أنظمة الحماية. لكن حالة موسوعة ويكيبيديا (Wikipedia) أثبتت لنا إمكانية مراقبة المعلومات الخاطئة من خلال البشر الذين يتبعون قواعد واضحة ومفصلة في مراقبة المحتوى. ويتعين على شركات التواصل الاجتماعي، بدورها، أن تنشر قواعد الجودة المتعلقة بالمحتوى، وتفرضها من خلال تقديم المزيد من الدعم والثقة لفرق السلامة لديها، وزيادة قدرات هذه الفرق من خلال توفير الأدوات اللازمة للمتطوعين. لا ندري بعد ما هي الأساليب المحددة التي سيتبعها البشر في التصدي للمواد التي يولدها الذكاء الاصطناعي وتنشرها بوتات الدردشة، لكن المهمة ستكون أقل صعوبة عند استخدام أنظمة الذكاء الاصطناعي المدربة على كشف هذا المحتوى وفلترته.

اقرأ أيضاً: كيف تتجنب مشاركة المعلومات المغلوطة حول الحرب الروسية الأوكرانية على الإنترنت؟

6.     الاستثمار في الأبحاث

حتى تحقق هذه الأساليب جميعاً النجاح على نطاق واسع، سيتعين علينا الالتزام ببذل الجهود المطلوبة على المدى الطويل، وبدءاً من الآن. تعمل مجموعتي الخيرية على المساعدة في تشكيل أطر عمل مجانية ومفتوحة المصدر مخصصة للاختبارات للكثير من المجموعات المختصة بالثقة والسلامة في مجال الذكاء الاصطناعي.

ويتعين على الباحثين والحكومة والمجتمع المدني أيضاً تعزيز إمكانية الوصول إلى بيانات المنصات المهمة. يمثل مشروع قانون مساءلة المنصات وشفافيتها (Platform Accountability and Transparency Act) أحد مشاريع القوانين الواعدة، حيث سيفرض على المنصات، على سبيل المثال، الامتثال لطلبات الحصول على البيانات، إذا وردت إليها من المشاريع التي حصلت على موافقة مؤسسة العلوم الوطنية.

عند تنسيق الجهود بين الشركات والجهات الرقابية والكونغرس، يمكننا تطبيق هذه المقترحات خلال هذا العام، بحيث يمكن أن تحدث أثراً إيجابياً فعلياً. لكنني أشعر بالقلق من أن الجميع يستفيدون، بدرجات مختلفة، من المعلومات الخاطئة أو المزيفة التي تصب في صالحهم، فالمواطنون يجدون في هذا المحتوى نوعاً من الترفيه، كما يمكن لقادتنا السياسيين استغلاله في حملاتهم الانتخابية، أما وسائل الإعلام فتضمن رفع مستوى التفاعل من خلال تغطية مواضيع تثير المشاعر والحساسيات لدى المتابعين. ولهذا، فإن القضاء على المعلومات الخاطئة سيكون صعباً بسبب البنى الحالية التي تحفز على انتشارها.

اقرأ أيضاً: لماذا يهدد (مراقبو الاقتراع) نزاهة الانتخابات الأميركية؟

يتعين على منصات التواصل الاجتماعي أن تعيد النظر جذرياً في تصاميمها حتى تصبح متوافقة مع عصر الذكاء الاصطناعي، خصوصاً مع اقتراب الامتحان التاريخي الذي ستتعرض له الديمقراطية على مستوى العالم.

من الواضح بالنسبة إليّ أن المستقبل سيتضمن الكثير من المساحات اللامركزية على الإنترنت، بحيث تشمل جميع الاهتمامات وتعكس وجهات نظر البشر الحقيقيين (لا البوتات)، وتركز على هموم المجتمع الحقيقية.

لكن، وحتى ذلك الحين، سيساعدنا تطبيق هذه الضوابط على ضمان حفاظ المنصات على معايير مناسبة لحوار إيجابي، من دون أن تسمح الخوارزميات الغامضة التي تعزز التفاعل بانتشار المحتوى الانتخابي المدعوم بالذكاء الاصطناعي دون قيود.