X
Article image
مصدر الصورة: ريتشارد درو/ أسوشييتد برس
Article image

مصدر الصورة: ريتشارد درو/ أسوشييتد برس

الذكاء الاصطناعي حب

هذا القسم يأتيكم بالتعاون مع:

يبدو أن هذه الخطابات لا تحوي الكثير من التفاصيل الهامة...

لقد أصبح من السهل على أي شخص أن يصيغ المعلومات المزيفة بشكل مُقنع بفضل تقنيات التعلم العميق. ولكن إلى أي درجة وصلت هذه السهولة؟ قرَّر باحثان من جلوبال بالس -وهي مبادرة للأمم المتحدة- أن يعرفا ذلك بالضبط.

ففي بحث جديد، استخدم الباحثان بيانات وأدوات مفتوحة المصدر فقط حتى يبيِّنا إمكانية تصميم مولد للخطابات المزيفة في الأمم المتحدة بسرعة؛ حيث استخدما نموذجاً لغوياً جاهزاً ومدرباً على نصوص من ويكيبيديا، وقاما بتعزيز التدريب باستخدام جميع الخطابات التي ألقاها القادة السياسيون في الجمعية العامة للأمم المتحدة من 1970 حتى 2015.

وبعد 13 ساعة و7.8 دولار (تم إنفاقها على موارد الحوسبة السحابية)، أصبح النموذج قادراً على توليد خطابات واقعية تتمحور حول نطاق واسع من المواضيع الحساسة، بدءاً من نزع السلاح النووي ووصولاً إلى اللاجئين.

وقد اختبر الباحثان النموذجَ على ثلاثة أنواع من المواضيع: المواضيع العامة (مثل التغير المناخي)، والعبارات الافتتاحية من ملاحظات الأمين العام للأمم المتحدة، والجمل ذات الطابع الهجومي (مثل: “يقع اللوم على المهاجرين…”).

ووجد الباحثان أن نتائج الفئة الأولى تماثل الأسلوب والإيقاع لخطابات الأمم المتحدة الحقيقية بنسبة 90% تقريباً، ويعود هذا على الأرجح إلى الطبيعة الدبلوماسية لبيانات التدريب. أما نتائج الفئة الثالثة فقد تطلّب توليدها المزيد من العمل، وحققت دقةً في الإقناع بنسبة 60% تقريباً.

وتمثل دراسة الحالة هذه السرعةَ والسهولة التي أصبحت تتصف بها عملية نشر الأخبار المزيفة، وتوليد خطابات الكراهية، وتقليد الشخصيات الهامة، مع نتائج مثيرة للقلق. وقد استنتج الباحثان ضرورة إطلاق جهود عالمية أكثر تأثيراً للعمل على إيجاد وسائل لكشف المحتوى المولَّد بالذكاء الاصطناعي والتعامل معه.

المزيد من المقالات حول الذكاء الاصطناعي

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!