ما هي أسباب ازدهار شركات الذكاء الاصطناعي في القطاع العسكري؟

8 دقائق
ما هي أسباب ازدهار شركات الذكاء الاصطناعي في القطاع العسكري؟
MS TECH | NYPL
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

بعد أسبوعين بالضبط من بدء الحرب الروسية الأوكرانية في فبراير/ شباط المنصرم، قام الرئيس التنفيذي لشركة تحليل البيانات بالانتير (Palantir)، ألكسندر كارب، بتقديم عرضه إلى القادة الأوروبيين. ومع وصول الحرب إلى الأعتاب الأوروبية، يجب أن يعمل الأوروبيون على تحديث ترساناتهم بمساعدة وادي السيليكون، كما قال في رسالة مفتوحة

وحتى تبقى أوروبا “قوية بما يكفي لهزيمة خطر الغزو الأجنبي”، كما كتب كارب، يجب على البلدان أن تعتنق “العلاقة القائمة بين التكنولوجيا والدولة، والعلاقة القائمة بين الشركات المزعزعة التي تسعى إلى إزاحة المتعاقدين المحتكرين، والوزارات الحكومية التي تشرف على التمويل”.

ميزانيات كبيرة للابتكار في المؤسسات العسكرية

وقد استجابت المؤسسات العسكرية لهذا النداء. فقد أعلن حلف الناتو في 30 يونيو/ حزيران عن تأسيسه صندوقاً للابتكار بقيمة مليار دولار، وذلك للاستثمار في الشركات الناشئة التي لا تزال في بداياتها وصناديق استثمار رأس المال التي تطوّر تكنولوجيات “عالية الأولوية” مثل الذكاء الاصطناعي، ومعالجة البيانات الكبيرة والأتمتة.

ومنذ بداية الحرب، أطلقت المملكة المتحدة استراتيجية جديدة في الذكاء الاصطناعي المخصص حصرياً للدفاع، كما خصص الألمان نصف مليار دولار تقريباً للأبحاث والذكاء الاصطناعي مع الدفعة الإضافية المخصصة للأغراض العسكرية والبالغة 100 مليار دولار. 

يقول مدير أبحاث الدراسات الدفاعية في جامعة الملك في لندن ومؤلف كتاب “أنا بوت الحرب: بداية صراع الذكاء الاصطناعي” (I, Warbot: The Dawn of Artificially Intelligent Conflict)، كينيث باين: “إن الحرب تحفز التغيير”. 

لقد أدت الحرب في أوكرانيا إلى تسريع التوجه نحو زيادة الاعتماد على أدوات الذكاء الاصطناعي في أرض المعركة. وستكون الشركات الناشئة مثل بالانتير أكثر المستفيدين من هذا التغيير، حيث تأمل بتحقيق الأرباح من سباق المؤسسات العسكرية نحو تحديث ترساناتها بأحدث التكنولوجيات. ولكن المخاوف الأخلاقية الموجودة منذ زمن حول استخدام الذكاء الاصطناعي في الحرب أصبحت أكثر بروزاً مع زيادة تطور التكنولوجيا، على حين أصبحت فكرة القيود والقواعد التي تحكم استخدامها أبعد عن التطبيق من ذي قبل على ما يبدو.

اقرأ أيضاً: هجوم «إندستروير 2»: أخطر هجمات القراصنة الروس لتعطيل شبكة الطاقة في أوكرانيا

العلاقة بين التكنولوجيا والقطاع العسكري

لم تكن العلاقة بين التكنولوجيا والقطاع العسكري حسنة على الدوام كما هي اليوم. ففي 2018، وبعد احتجاجات وانتقادات حادة من الموظفين، انسحبت جوجل (Google) من مشروع ميفن (Maven) في البنتاغون، والذي كان عبارة عن محاولة لبناء أنظمة للتعرف على الصور لتحسين دقة ضربات الطائرات المسيرة. وقد أدت هذه الحادثة إلى جدل حاد حول حقوق الإنسان وأخلاقيات تطوير الذكاء الاصطناعي للأسلحة المؤتمتة.

كما دفعت بالعديد من باحثي الذكاء الاصطناعي البارزين، مثل يوشوا بينجيو الفائز بجائزة تورينغ، وديميس هاسابيس وشين ليغ ومصطفى سليمان، مؤسسي مختبر الذكاء الاصطناعي الرائد ديب مايند (DeepMind)، إلى التعهد بعدم العمل على الذكاء الاصطناعي القاتل. 

ولكن، وبعد مرور 4 سنوات، أصبح وادي السيليكون أقرب من قبل إلى المؤسسات العسكرية في جميع أنحاء العالم. ولا يقتصر هذا على الشركات الكبيرة وحسب، فقد بدأت الشركات الناشئة بدخول هذا المجال أيضاً، كما يقول المدير التنفيذي السابق لهيئة الأمن القومي الأميركية للذكاء الاصطناعي (اختصاراً “نسكاي” (NSCAI)) والذي يعمل الآن في مشروع الدراسات التنافسية الخاصة، وهي مجموعة من مؤسسات الضغط التي تسعى لزيادة استخدام الذكاء الاصطناعي في كافة أنحاء الولايات المتحدة، إيل بايراكتاري. 

اقرأ أيضاً: كيف يمكن لنيوم أن ترسم مستقبل الذكاء الاصطناعي في المملكة العربية السعودية؟

لماذا الذكاء الاصطناعي؟

تطلق الشركات التي تبيع الذكاء الاصطناعي إلى المؤسسات العسكرية مزاعم كبيرة حول قدرات تكنولوجياتها، وتقول إنها تستطيع أن تساعد في كل شيء، بدءاً من المهام الروتينية العادية وصولاً إلى القتل، وبدءاً من تدقيق وتصفية السير الذاتية وصولاً إلى معالجة البيانات من الأقمار الاصطناعية أو كشف الأنماط في البيانات لمساعدة الجنود على اتخاذ قرارات أكثر سرعة في أرض المعركة. تستطيع برمجيات التعرف على الصور المساعدة في كشف الأهداف. كما تستطيع الطائرات المسيرة ذاتية التحكم تنفيذ عمليات المراقبة أو القصف على أهداف برية أو جوية أو مائية، أو مساعدة الجنود على توصيل الإمدادات بصورة أكثر أماناً مما هو ممكن على البر. 

ما زالت هذه التكنولوجيات في بداياتها على أرض المعركة، وما زالت المؤسسات العسكرية في مرحلة الاختبارات والتجريب، كما يقول باين، ودون نجاح يستحق الذكر في بعض الأحيان. وهناك أمثلة لا تُعد ولا تُحصى حول ميل شركات الذكاء الاصطناعي إلى إطلاق وعود كبيرة حول تكنولوجياتها التي يتبين لاحقاً أنها ليست على مستوى هذه الوعود، وربما تكون مناطق القتال من أصعب الأماكن لتطبيق الذكاء الاصطناعي، بسبب ندرة بيانات التدريب المفيدة وذات الصلة. ويمكن أن يؤدي هذا إلى فشل الأنظمة المؤتمتة “بطريقة معقدة وغير متوقعة”، كما يقول خبير الطائرات المسيرة وغيرها من تكنولوجيات المراقبة في بحث لمعهد الأمم المتحدة لدراسات نزع الأسلحة، آرثر هولاند ميشيل.

وعلى الرغم من هذا، فإن المؤسسات العسكرية ما زالت تمضي قدماً في هذا الاتجاه. ففي بيان صحفي مبهم الصياغة في 2021، أعلن الجيش البريطاني بفخر عن استخدام الذكاء الاصطناعي في العمليات العسكرية لأول مرة، وذلك لتوفير المعلومات حول البيئة والمنطقة المحيطة. كما أن الولايات المتحدة تعمل مع مجموعة من الشركات الناشئة على تطوير مركبات عسكرية ذاتية التحكم. وفي المستقبل، يمكن للأسراب المؤلفة من مئات أو حتى آلاف الطائرات ذاتية التحكم التي تعمل المؤسسات العسكرية الأميركية والبريطانية على تطويرها أن تثبت أنها أسلحة قوية وشديدة الفتك. 

يشعر الكثير من الخبراء بالقلق، وتقول المستشارة الأساسية في مجال الذكاء الاصطناعي في هيئة التجارة الفيدرالية ومديرة الهيئة التدريسية في معهد أيه آي ناو (AI Now)، ميريديث ويتاكر، إن هذا التوجه يهدف إلى إثراء الشركات التكنولوجية أكثر مما يهدف إلى تحسين العمليات العسكرية. 

كما ساهمت أستاذة علم الاجتماع في جامعة لانكاستر، لوسي ساتشمان، في كتابة مقال لمجلة بروسبيكت (Prospect)، حيث قالت إن الأطراف التي تدعم استخدام الذكاء الاصطناعي تحاول إشعال حرب باردة جديدة وبناء صورة للشركات التكنولوجية الكبيرة لتقديمها على أنها “بنى تحتية وطنية فائقة الأهمية” إلى درجة يجب معها ألا يتم تقسيم هذه الشركات أو وضع قواعد لتنظيمها. ويحذر الخبراء من أن استخدام الذكاء الاصطناعي من قبل الجيوش يوصف بأنه أمر محتوم، بدلاً من وصفه على حقيقته، أي كخيار فعّال يتضمن تعقيدات أخلاقية وعوامل متضاربة. 

اقرأ أيضاً: هل سيحل الذكاء الاصطناعي محل البشر في اتخاذ القرارات العسكرية؟ 

الذكاء الاصطناعي العسكري

مع تراجع الجدل حول مشروع ميفن إلى النسيان، أصبحت الأصوات المطالبة بزيادة الاستخدام الدفاعي للذكاء الاصطناعي أكثر ارتفاعاً في السنتين الماضيتين. 

ومن أعلى تلك الأصوات الرئيس التنفيذي السابق لجوجل، إريك شميدت، والذي ترأس نسكاي ودعا الولايات المتحدة إلى اعتماد مقاربة أكثر حسماً في استخدام الذكاء الاصطناعي في المجال العسكري.

وفي تقرير يعود إلى السنة الماضية، ويوضح الخطوات التي يجب أن تتخذها الولايات المتحدة لتحقيق التقدم اللازم في الذكاء الاصطناعي بحلول عام 2025، دعت نسكاي الجيش الأميركي إلى استثمار 8 مليارات دولار سنوياً في هذه التكنولوجيات لتفادي خطر التفوق الصيني.  

ومن المرجح أن الجيش الصيني ينفق على الأقل 1.6 مليار دولار سنوياً على الذكاء الاصطناعي، وذلك وفقاً لتقرير من مركز جورج تاون (Georgetown) للأمن والتكنولوجيات الناشئة، وقد ظهر توجه متنامٍ وقوي في الولايات المتحدة نحو مضاهاة هذا الإنفاق، كما تقول الزميلة الباحثة في مجلس العلاقات الأجنبية، لورين كان. وقد طلبت وزارة الدفاع الأميركية 874 مليون دولار للذكاء الاصطناعي لعام 2022، على الرغم من أن هذا الرقم لا يمثل إجمالي استثمارات الوزارة في الذكاء الاصطناعي، كما ورد في تقرير يعود إلى مارس/ آذار من عام 2022.

وليست المؤسسة العسكرية الأميركية الجهة الوحيدة التي أصبحت مقتنعة بهذه الحاجة. فالبلدان الأوروبية، والتي تميل إلى المزيد من الحذر في استخدام التكنولوجيات الجديدة، زادت من إنفاقها على الذكاء الاصطناعي، كما يقول المدير المشارك في مرصد الذكاء الاصطناعي الدفاعي في جامعة هيلموت شميدت في هامبورغ بألمانيا، هيكو بورشيرت. 

فقد حدد الفرنسيون والبريطانيون الذكاء الاصطناعي كأحد التكنولوجيات الدفاعية المهمة، كما أن المفوضية الأوروبية، وهي الذراع التنفيذية للاتحاد الأوروبي، خصصت مليار دولار لتطوير تكنولوجيات دفاعية جديدة. 

اقرأ أيضاً: شركة ناشئة عسكرية تراقب القواعد الأميركية بأنظمة ذكاء اصطناعي مؤتمتة

مراحل جيدة ومراحل سيئة

إن تحفيز زيادة الطلب على الذكاء الاصطناعي مسألة مستقلة تماماً عن مسألة دفع المؤسسات العسكرية إلى اعتماد هذه التكنولوجيا وتبنيها. 

وعلى الرغم من أن الكثير من البلدان تسعى لاستخدام الذكاء الاصطناعي، فإنها تواجه الكثير من المصاعب في الانتقال من الأفكار إلى التطبيق، كما يقول الرئيس التنفيذي لشركة بريليجينز (Preligens) الناشئة الفرنسية التي تبيع أنظمة المراقبة التي تعتمد على الذكاء الاصطناعي، آرنولد غيران. ويعود هذا جزئياً إلى أن الصناعة الدفاعية في معظم البلدان ما زالت، على عادتها، خاضعة لهيمنة مجموعة من المتعاقدين الكبار، والذين تتركز خبراتهم في التجهيزات العسكرية، لا في برمجيات الذكاء الاصطناعي، كما يقول غيرين. 

إضافة إلى ذلك، فإن عمليات التدقيق والموافقة العسكرية الروتينية تسير ببطء شديد مقارنة بالسرعة الهائلة التي اعتدنا على رؤيتها في عمليات تطوير الذكاء الاصطناعي. فالعقود العسكرية قد تمتد على مدى عقود، ولكن في حلقة التطوير السريعة، ليس أمام الشركات لتحقيق النجاح سوى عام تقريباً.

وقد عبّرت الكثير من الشركات الناشئة وشركات استثمار رأس المال عن إحباطها بسبب بطء هذه العملية. ووفقاً للشريك العام في شركة استثمار رأس المال أندريسين هورويتز (Andreessen Horowitz)، كاثرين بويل، فإن المخاطرة هنا تكمن في إصابة المهندسين الموهوبين بالإحباط، ما يدفعهم للمغادرة بحثاً عن عمل في فيسبوك (Facebook) وجوجل، وإفلاس الشركات الناشئة في أثناء انتظار العقود الدفاعية. 

يقول مؤسس شركة تحليل البيانات فاكولتي أيه آي (FacultyAI)، والتي تعمل مع الجيش البريطاني، مارك وارنر: “بعض مراحل العملية فائقة الحساسية والأهمية، خصوصاً في هذا القطاع الذي ينطوي على مخاوف أمنية واقعية للغاية. ولكن بعض المراحل الأخرى ليست كذلك، وقد أدت ببعض الطرق إلى تعزيز هيمنة الشركات القديمة والراسخة”.

اقرأ أيضاً: لماذا ينبغي على باحثي الذكاء الاصطناعي أن يعيدوا النظر في اعتراضهم على المشاركة في المشاريع العسكرية

تقول الباحثة والمحللة التي تدرس توجهات استثمار الذكاء الاصطناعي في مركز جورجتاون للأمن والتكنولوجيات الناشئة، إنغور لونغ، إن شركات الذكاء الاصطناعي التي تحمل طموحات عسكرية يجب “أن تبقى نشطة لفترة طويلة للغاية”. 

وتقول كان إن المؤسسات العسكرية في وضع صعب، فإذا استعجلت، يمكن أن تخاطر باستخدام أنظمة خطيرة ومليئة بالعيوب، وإذا تمهلت، فيمكن أن تفوّت على نفسها فرصة الاستفادة من التطورات التكنولوجية. وترغب الولايات المتحدة بتسريع العملية، وقد طلبت وزارة الدفاع مساعدة كريغ مارتيل، وهو المسؤول السابق عن الذكاء الاصطناعي في شركة الطلب الإلكتروني للسيارات ليفت (Lyft). 

وفي يونيو/ حزيران من عام 2022، استلم مارتيل إدارة مكتب الذكاء الاصطناعي الرقمي الجديد في البنتاغون، والذي يهدف إلى تنسيق جهود المؤسسات العسكرية الأميركية في مجال الذكاء الاصطناعي. وتتلخص مهمة مارتيل، كما قال لبلومبيرغ (Bloomberg)، بتغيير ثقافة الوزارة، وتعزيز الاستخدام العسكري للذكاء الاصطناعي على الرغم من “العطالة البيروقراطية”. 

ومن المرجح أنه لن يواجه صعوبة كبيرة في هذا، فقد بدأت شركات الذكاء الاصطناعي مسبقاً بتصيّد العقود العسكرية الدسمة. ففي فبراير/ شباط، تمكنت شركة أندوريل (Anduril)، وهي شركة ناشئة تم تأسيسها منذ 5 سنوات وتعمل على تطوير أنظمة الدفاع ذاتية التحكم مثل الغواصات المسيّرة المتطورة، من الحصول على عقد دفاعي مع الولايات المتحدة بقيمة مليار دولار. وفي يناير، تمكنت سكيل أيه آي (ScaleAI)، وهي شركة ناشئة تؤمّن خدمات تصنيف البيانات للذكاء الاصطناعي، من الحصول على عقد بقيمة 250 مليون دولار مع وزارة الدفاع. 

اقرأ أيضاً: هل سمعت عن أكبر شركة مراقبة في العالم؟

الحذر من الضجيج الإعلامي

على الرغم من المسيرة ثابتة الخطى للذكاء الاصطناعي نحو ميدان المعارك، فإن المخاوف الأخلاقية التي أطلقت الاحتجاجات على مشروع ميفن لم تتلاشَ حتى الآن. 

وقد لاقت هذه المخاوف بعض المحاولات لتهدئتها. وبعد إدراك وزارة الدفاع الأميركية وجود مشكلة ثقة، أطلقت إرشادات “الذكاء الاصطناعي المسؤول” لمطوري الذكاء الاصطناعي، كما أنها تمتلك مجموعة خاصة بها من الإرشادات والضوابط الأخلاقية لاستخدام الذكاء الاصطناعي. كما وضع الناتو استراتيجية ذكاء اصطناعي تتضمن مجموعة من الضوابط الأخلاقية الطوعية للدول الأعضاء. 

وتدعو جميع هذه الضوابط الجيوش إلى استخدام الذكاء الاصطناعي بطريقة قانونية ومسؤولة وموثوقة وقابلة للتتبع وتسعى للتخفيف من التحيز الموجود ضمن خوارزمياته. ومن أهم الأفكار الواردة في هذه الضوابط هي الحفاظ الدائم على سيطرة البشر على أنظمة الذكاء الاصطناعي. ولكن، ومع تطور التكنولوجيا، لن يكون هذا الخيار متاحاً، وفقاً لباين.  

اقرأ أيضاً: كيف أصبح الذكاء الاصطناعي وتطبيقاته جزءاً من حياتنا اليومية؟

ويقول: “إن الهدف الأساسي من النظام ذاتي القيادة هو السماح له باتخاذ القرارات بشكل أسرع وأكثر دقة من البشر على نطاق لا يستطيع البشر استيعابه، وبالتالي، إذا رغبت بالإشراف على كل قرار، فسوف تشل نفسك”.  

وعلى الرغم من هذا، يقول المنتقدون إننا بحاجة إلى قواعد أشد صرامة. وهناك حملة عالمية باسم “أوقفوا الروبوتات القاتلة” (Stop Killer Robots) للسعي إلى حظر الأسلحة القاتلة ذاتية التحكم، مثل أسراب الطائرات المسيرة. ويقول الناشطون وكبار المسؤولين، مثل الأمين العام للأمم المتحدة أنتونيو غوتيريس، والحكومات مثل حكومة نيوزيلندا، إن الأسلحة ذاتية التحكم مخالفة للأخلاق إلى درجة عالية، لأنها تمنح الآلات السيطرة على قرارات الحياة والموت، ويمكن أن تؤدي إلى تركيز الأذى على الشرائح المهمشة بسبب التحيزات الخوارزمية. 

وعلى سبيل المثال، يمكن أن تتحول الأسراب المؤلفة من آلاف الطائرات ذاتية التحكم عملياً إلى أسلحة دمار شامل. إن فرض القوانين والقواعد على هذه التكنولوجيات سيكون معركة صعبة؛ لأن فكرة فرض حظر عالمي واجهت معارضة شديدة من الدول التي تنفق أكبر المبالغ على جيوشها، مثل الولايات المتحدة وفرنسا والمملكة المتحدة.

اقرأ أيضاً: رؤية جديدة للذكاء الاصطناعي في خدمة الناس

وفي المحصلة، فإن الحقبة الجديدة من الذكاء الاصطناعي العسكري تثير مجموعة كبيرة من التساؤلات الأخلاقية الصعبة التي لا نستطيع الإجابة عنها بعد. 

ومن هذه التساؤلات درجة الأتمتة التي نرغب بتزويد القوات المسلحة بها في المقام الأول، وفقاً لباين. فمن ناحية، يمكن لأنظمة الذكاء الاصطناعي أن تخفف من عدد الضحايا بجعل الحرب ذات أهداف أكثر تحديداً، ومن ناحية أخرى، فإن ما نقوم به “من الناحية العملية هو بناء قوة من الروبوتات المرتزقة التي تقاتل بالنيابة عنك”، كما يقول. “وهو ما يبعد مجتمعك عن عواقب العنف”.