كيف يساعد التركيز على تطبيقات الذكاء الاصطناعي العادية في درء مخاطره العسكرية؟

3 دقائق
كيف يساعد التركيز على تطبيقات الذكاء الاصطناعي العادية في درء مخاطره العسكرية؟
مصدر الصورة: ستيفاني آرني. إم آي تي تي آر. غيتي إيميدجيز
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

عدتُ إلى العمل بعد قضاء وقت رائع في جني التوت ضمن إحدى الغابات خلال عطلة نهاية الأسبوع. ولهذا، فإن هذا المقال الذي نشرناه مؤخراً حول المسائل الأخلاقية الشائكة لاستخدام الذكاء الاصطناعي في الحرب كان أقرب إلى دواء ناجع لرفع ضغط الدم لدي، وإعادتي إلى أجوائي الاعتيادية.

حيث أنجز المؤلف آرثر هولاند ميشيل عملاً رائعاً في دراسة التساؤلات الأخلاقية المعقدة والمليئة بالتفاصيل حول مسألة الحرب وزيادة استخدام الجيوش لأدوات الذكاء الاصطناعي. ثمة عدد كبير من الطرق التي يمكن أن تودي بالذكاء الاصطناعي إلى إخفاق كارثي، أو إلى إساءة استخدامه في حالات النزاع، ويبدو أنه ليس لدينا أي قواعد حقيقية تقيد هذه الاستخدامات حتى الآن. يبين مقال هولاند ميشيل مدى تراخي المعايير المتعلقة بتحمل المسؤولية عند حدوث هذه الأخطاء.

طفرة جديدة في عالم الأعمال: الذكاء الاصطناعي في الحروب

لقد كتبت في العام المنصرم حول ظهور طفرة جديدة في الأعمال بالنسبة إلى الشركات الناشئة المختصة بالذكاء الاصطناعي الدفاعي بسبب الحرب في أوكرانيا. ولم تتسبب أحدث دورة من الضجيج الإعلامي سوى بتعزيز هذه الطفرة، حيث تتسابق الشركات -والآن، الجيوش أيضاً- نحو دمج الذكاء الاصطناعي التوليدي في المنتجات والخدمات.

فمنذ فترة وجيزة، أعلنت وزارة الدفاع الأميركية أنها ستؤسس مجموعة عمل مختصة بالذكاء الاصطناعي التوليدي، بهدف “تحليل وإدماج” أدوات الذكاء الاصطناعي، مثل النماذج اللغوية الكبيرة، في مناحي عمل الوزارة كافة. وتعتقد الوزارة بوجود مجال واسع ممكن يتيح “تحسين العمل الاستخباراتي، والتخطيط التنفيذي، وتعزيز العمليات الإدارية والاقتصادية”.

لكن مقال هولاند ميشيل يركز على الأسباب التي تدفع إلى الابتعاد عن حالتي الاستخدام الأوليين. تتسم أدوات الذكاء الاصطناعي التوليدي، مثل النماذج اللغوية الكبيرة، بأنها مليئة بالأخطاء وتعمل بطريقة لا يمكن التنبؤ بها، وتختلق الأشياء طوال الوقت أيضاً. إضافة إلى ما سبق، تحتوي هذه الأدوات على ثغرات أمنية هائلة، والكثير من المشاكل المتعلقة بالخصوصية والتحيزات المتجذرة بعمق.

تكنولوجيات حساسة في بيئات عالية المخاطر

يمكن أن يؤدي استخدام هذه التكنولوجيات في البيئات العالية المخاطر إلى حوادث مميتة لا يمكن تحديد الجهة المسؤولة عنها (سواء أكانت من البشر أم الآلات)، أو حتى سبب وقوع المشكلة. لا يختلف اثنان على ضرورة بقاء القرار النهائي في يد البشر، لكن هذا أصبح أكثر صعوبة بسبب التكنولوجيا التي تتصرف بطريقة لا يمكن التنبؤ بها، خصوصاً في حالات النزاع السريعة التقلب.

ويشعر البعض بالقلق من أن الأشخاص الأدنى في التسلسل الهرمي الوظيفي سيدفعون الثمن الأكبر عند وقوع مشكلة ما. وقد كتب هولاند ميشيل قائلاً: “في حال وقوع حادث -بغض النظر عن مصدر الخطأ، سواء أكان شخصاً أم حاسوباً أم الاثنين معاً- فإن الشخص الذي اتخذ “القرار” سيتحمل اللائمة ويحمي الجميع على طول سلسلة القيادة من الأثر الكامل للخضوع للمساءلة”. ويبدو أن الشركات التي تقدم هذه التكنولوجيات هي الأطراف الوحيدة التي لن تواجه أي عواقب في حال فشل الذكاء الاصطناعي في الحرب.

اقرأ أيضاً: يان لوكون مسؤول الذكاء الاصطناعي في ميتا: الذكاء الاصطناعي لن يدمر الوظائف

قوانين ليست ملزمة لتنظيم استخدام الذكاء الاصطناعي في الحرب

تجد الشركات نفسها في مأمن لأن القواعد التي وضعتها الولايات المتحدة لتنظيم استخدام الذكاء الاصطناعي في الحرب ليست قوانين ملزمة، بل مجرد توصيات. وهو ما يزيد إلى درجة كبيرة من صعوبة تحميل المسؤولية لأي شخص كان. حتى إن قانون الذكاء الاصطناعي، وهو اللائحة التنظيمية الشاملة التي من المرتقب صدورها قريباً لتنظيم أنظمة الذكاء الاصطناعي عالية المخاطر في الاتحاد الأوروبي، يستثني الاستخدامات العسكرية التي يعتبرها الكثيرون من أخطر التطبيقات على الإطلاق.

وعلى حين يبحث الجميع عن استخدامات جديدة ومثيرة للذكاء الاصطناعي التوليدي، فإنني شخصياً أنتظر بفارغ الصبر تحوّله إلى شيء ممل. 

وسط البوادر الأولى التي تشير إلى أن الناس بدؤوا يفقدون اهتمامهم بهذه التكنولوجيا، قد تجد الشركات أن هذه الأدوات أفضل توافقاً مع التطبيقات الرتيبة المنخفضة الخطورة، بدلاً من استخدامها لحل أكثر المشاكل التي تواجهها البشرية خطورة وجدية.

اقرأ أيضاً: 4 أنواع من الوظائف لن تختفي بسبب الذكاء الاصطناعي

تطبيقات مملة للذكاء الاصطناعي لكنها آمنة

على سبيل المثال، قد يبدو استخدام الذكاء الاصطناعي في البرمجيات الإنتاجية، مثل إكسل (Excel) أو البريد الإلكتروني أو معالجة النصوص، فكرة باهتة ورتيبة، ولكنه تطبيق آمن نسبياً بالمقارنة مع التطبيقات العسكرية، وبسيط بما يكفي لاستيعاب طريقة عمله حقاً وفق ما تعلن عنه الشركات. ويمكن أن يتيح لنا هذا إنجاز المراحل الرتيبة والمضنية من أعمالنا بسرعة أكبر وعلى نحو أفضل.

من المرجح أن يكون الذكاء الاصطناعي الممل أقل قابلية للإصابة بالأعطال، والأهم من هذا أنه لن يتسبب بمقتل أي شخص. آمل بأننا سننسى قريباً وبالكامل أننا نتفاعل مع الذكاء الاصطناعي. (لقد كانت الترجمة الآلية تطبيقاً مثيراً وجديداً للذكاء الاصطناعي منذ فترة قريبة. والآن، لا يفكر معظمنا حتى بدور الذكاء الاصطناعي في تشغيل خدمة جوجل ترانسليت (Google Translate).

اقرأ أيضاً: هل ينجح عمال الوظائف المؤقتة في مواجهة الخوارزميات؟

هذا ما يجعلني أشعر بثقة أكبر بشأن نجاح المؤسسات مثل وزارة الدفاع الأميركية في تطبيق الذكاء الاصطناعي التوليدي في عمليات الإدارة والأعمال. لا يؤدي الذكاء الاصطناعي الممل إلى تعقيدات أخلاقية، وهو ليس بالحل السحري على أي حال، لكنه مفيد.