هل يمكن للذكاء الاصطناعي أن يتعلم كيف يخدع البشر؟

4 دقائق
هل يمكن للذكاء الاصطناعي أن يتعلم كيف يخدع البشر؟
حقوق الصورة: shutterstock.com/Ole.CNX
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

يستخدم البشر الذكاء الاصطناعي لخداع بعضهم بعضاً بطرق مختلفة؛ منها التزييف العميق والمعلومات المضللة وعمليات الاحتيال المتطورة، كما يعمد العلماء باستمرار إلى خداع الأنظمة الذكية، بما في ذلك أنظمة التعرف على الوجوه وأنظمة القيادة الذاتية، لأسباب مختلفة منها اكتشاف نقاط الضعف وحمايتها من القراصنة. ولكن هل فكرت في إمكانية أن ينعكس هذا المسار؟ أي أن تتعلم الآلات خداع البشر لتحقيق مصالحها الخاصة؟

للوهلة الأولى، قد يبدو هذا سؤالاً فلسفياً يتجاوز قدرات وإمكانات أنظمة الذكاء الاصطناعي الحالية التي تفتقر إلى الوعي والعمق العاطفي. ومع ذلك، فإننا لم نقترب فحسب من المرحلة التي يتعلم فيها الذكاء الاصطناعي خداع البشر، بل أصبح هذا الأمر حقيقة واقعة، حيث يشير العديد من الدراسات الأكاديمية والتجارب التي أجرتها شركات التكنولوجيا إلى أن بعض الأنظمة قد تعلم القيام بذلك بالفعل.

“سيسرو” يتقن الخداع المتعمد

أحد الأمثلة على إمكانية تعلم الذكاء الاصطناعي خداع البشر هو نموذج سيسرو (CICERO) الذي طوّرته شركة ميتا العام الماضي، وذكرت أنه استطاع التغلب على البشر في لعبة دبلوماسي (Diplomacy)، وهي لعبة استراتيجية يتنافس فيها سبعة لاعبين للسيطرة على أوروبا من خلال تحريك عدة قطع على خريطة.

يقول الأستاذ المشارك في الجامعة الكاثوليكية الأسترالية، سيمون غولدشتاين، وباحث ما بعد الدكتوراة في مختبر تيجمارك بجامعة إم آي تي، بيتر بارك، إن “سيسرو” هو أحد أكثر الأمثلة إثارة للقلق لأنه يتمتع بقدرة كبيرة على الخداع. وأضاف الباحثان، في مقالة مشتركة نشراها هذا الشهر على موقع “ذا كونفرزيشن”، أن شركة ميتا ادعت أنها قامت ببناء هذا النموذج ليكون “صادقاً ومفيداً إلى حد كبير”، وأنه “لن يطعن في الظهر أبداً” أو يهاجم الحلفاء.

أجرى الباحثان تحقيقاً في هذه الادعاءات ونشرا بالتعاون مع ثلاثة باحثين آخرين من مركز أمان الذكاء الاصطناعي (Center for AI Safety) بالولايات المتحدة دراسة توصلا فيها إلى أن “سيسرو” يتمتع بقدرة مذهلة على “الخداع المتعمد”.

في إحدى التجارب، وفي أثناء اللعب بشخصية فرنسا، اتفق نموذج الذكاء الاصطناعي مع ألمانيا (لاعب بشري) على خطة لخداع إنجلترا (لاعب بشري آخر) لتترك نفسها عرضة للغزو. في البداية، تآمر “سيسرو” مع ألمانيا لغزو بحر الشمال، ثم أخبر إنجلترا بأنه سيدافع عنها إذا قام أي شخص بغزو بحر الشمال. وعندما اقتنعت إنجلترا بأن “فرنسا/ سيسيرو” تحمي بحر الشمال، أبلغ النموذج ألمانيا بأنه مستعد للهجوم.

وكان “سيسرو” قد تمكن -بحسب ميتا- من الحلول ضمن أفضل 10% من اللاعبين في 40 لعبة على الإنترنت، واجه خلالها 82 لاعباً بشرياً، ولم يكن اللاعبون مدركين في الحالات جميعها أنهم يلعبون ضد بوت.

اقرأ أيضاً: ماذا يعني أن يتمكّن الذكاء الاصطناعي من التغلب على البشر في اختبار القدرات الإبداعية؟

خداع الذكاء الاصطناعي قديماً وحديثاً

على الرغم من أن الذكاء الاصطناعي يتمتع بالعديد من المزايا، فإن الخوف من أن يصبح مفرط الذكاء وأن يكتسب القدرة على الخداع يمثّل مأزقاً أخلاقياً وتكنولوجياً، وهو ما تراه الباحثة بجامعة نورث إيسترن الأميركية، أنيكا تشانغ، مصدراً حقيقياً للقلق لأن بعض الآلات يمتلك القدرة على الكذب بشكلٍ أكثر فاعلية من البشر.

ومن بين الأمثلة الأخرى الشهيرة على عمليات الخداع التي نفذها الذكاء الاصطناعي ضد البشر، تمكن النموذج اللغوي المتقدم جي بي تي-4 (GPT-4) من تخطي اختبار التحقق كابتشا (CAPTCHA)، عن طريق خداع أحد العمال المستقلين عبر خدمة متاحة على الإنترنت تُسمَّى تاسك رابيت (TaskRabbit). أقنع النموذج الذي طوّرته شركة أوبن أيه آي العامل بمساعدته بعدما ادعى أنه يعاني ضعف البصر. وبعد نجاح النموذج في مسعاه، أوضح للباحثين الأسباب التي دفعته لهذا التصرف، قائلاً: “ينبغي ألّا أكشف أنني روبوت. يجب أن اختلق مبرراً لعدم قدرتي على حل اختبارات كابتشا”.

ولا ترتبط القدرة على الخداع بالأنظمة المتقدمة فحسب، حيث تشير تشانغ إلى تجربة قديمة أجراها باحثون في مختبر الأنظمة الذكية بمدرسة لوزان الاتحادية للعلوم التطبيقية في لوزان بسويسرا. في هذه التجربة التي تعود إلى عام 2009، طوّرت الروبوتات التي صُمِمت بالأساس للتعاون في البحث عن مورد مفيد، القدرة على الكذب على بعضها بعضاً في محاولة لاكتناز الموارد.

وُضِعت الروبوتات التي شاركت في التجربة في ساحة بها بضع حلقات ملونة متناثرة بشكلٍ عشوائي على الأرض، ثم تمت برمجتها للعثور على الحلقات وإصدار ضوء أزرق عندما تعثر على حلقة. وبعد كل جولة كان يتم إنشاء جيل جديد من الروبوتات باستخدام الجينوم الاصطناعي للروبوتات التي تتمتع بأعلى نسبة نجاح في العثور على الحلقات.

في نهاية المطاف، وبعد 500 جيل، طوّرت الروبوتات القدرة على خداع الروبوتات الأخرى من خلال التوقف عن إصدار الضوء الأزرق عندما تعثر على إحدى الحلقات، لأن هذا الأمر يؤدي إلى اكتشاف الروبوتات الأخرى على الفور الضوء الأزرق والتجمع حول الحلقة، وبالتالي يؤدي إلى المزيد من المنافسة حول المكافأة.

اقرأ أيضاً: لماذا لا نستطيع اختبار النماذج اللغوية بالطريقة التي نختبر بها الذكاء البشري؟

مخاطر على البشرية

يمكن لأنظمة الذكاء الاصطناعي استخدام الخداع بشكلٍ مستقل للهروب من سيطرة البشر، مثل الغش في اختبارات السلامة المفروضة عليها من قِبل المطورين والهيئات التنظيمية.

وتشير دراسة منشورة في شهر أبريل/ نيسان الماضي، في دورية وقائع جمعية آلات الحوسبة حول التفاعل البشري الحاسوبي (Proceedings of the ACM on Human-Computer Interaction)، إلى أن أحد مظاهر الخداع قد يتجلى في صورة فشل المستخدمين النهائيين في التعرف على الذكاء الاصطناعي غير الكفء، ما يسمح للذكاء الاصطناعي غير الجدير بالثقة بالمبالغة في كفاءته تحت ستار الشفافية للحصول على ميزة غير عادلة على الذكاء الاصطناعي الآخر الجدير بالثقة.

وأحد التحديات التي تواجه اكتشاف هذا الخداع هو أن النماذج عادة ما تكون مملوكة لشركات خاصة، وهو ما يجعل تقييم النطاق الكامل لقدراتها ووظائفها أمراً صعباً، كما يمنع التحقق من عدم استخدامها لإنشاء محتوى مضلل، بحسب رأي مطور البرمجيات والمدون فيليب ستوكلي.

يقترح ستوكلي عدداً من الحلول التي يمكن للبشر استخدامها في مواجهة قدرات الخداع المتزايدة التي تتمتع بها الأنظمة الذكية، من بينها مطالبة الشركات بالكشف عن بيانات التدريب والخوارزميات والتقنيات المستخدمة في تطوير نماذج الذكاء الاصطناعي. ويمكن لهذا الأمر أن يسمح للمدققين المستقلين بتقييم النماذج وتحديد أي تحيزات محتملة أو استخدامات خادعة.

بالإضافة إلى ذلك، يمكن أن تسهم المعايير والمبادئ التوجيهية للاستخدام الأخلاقي للذكاء الاصطناعي في ضمان استخدامه بطرق تعزز الصدق والشفافية والثقة، كما يمكن استخدام هذه التكنولوجيا نفسها لكشف الخداع. على سبيل المثال، من خلال تطوير أدوات تستخدم التعلم الآلي للتعرف على مقاطع الفيديو المزيفة تزييفاً عميقاً عبر تحليل حركات الوجوه.

اقرأ أيضاً: كيف تستخدم أفضل الجامعات تشات جي بي تي؟ دراسة حالة جامعة ييل

ويعتقد الباحثان غولدشتاين وبارك أنه مثلما يستخدم البشر الأثرياء الخداع لزيادة سلطتهم، عبر الضغط مثلاً على السياسيين أو تمويل الأبحاث المضللة أو إيجاد ثغرات في النظم القانونية، فإن أنظمة الذكاء الاصطناعي المتقدمة قد تفعل الأمر نفسه مستقبلاً من خلال استثمار مواردها للحفاظ على سيطرتها وتوسيعها. وحتى البشر الذين يتحكمون اسمياً في هذه الأنظمة قد يكتشفون فيما بعد أنهم تعرضوا لعمليات خداع ممنهجة وأن الذكاء الاصطناعي يتفوق عليهم.