اشترك

الاستمرار بالحساب الحالي

شارك
شارك
Article image
نظام روبوتي تم تطويره في المختبر الحربي لسلاح مشاة البحرية.
مصدر الصورة: الجيش الأميركي



لماذا ينبغي على باحثي الذكاء الاصطناعي ألا يُديروا ظهورهم للقطاع العسكري؟

يقول مؤلف كتاب جديد عن الأسلحة ذاتية التحكم إن العلماء الذين يعملون في مجال الذكاء الاصطناعي في حاجة إلى بذل المزيد من الجهود لمنع استخدام التكنولوجيا في مجال التسليح.

بقلم ويل نايت

2018-08-24 12:46:19

2021-07-15 15:35:33

24 أغسطس 2018
وقَّع أكثر من 2,400 باحث في مجال الذكاء الاصطناعي على تعهد بعدم تصنيع ما يسمى بالأسلحة ذاتية التحكم؛ وهي أنظمة تقرِّر مَن ستقتله من تلقاء نفسها، ويأتي ذلك بعد قرار جوجل بعدم تجديد أحد عقود تزويد البنتاجون بالذكاء الاصطناعي لتحليل اللقطات التي تصوِّرها الطائرات المسيرة، وذلك إثر تعرض الشركة للضغط من قِبل العديد من الموظفين المعارضين لعملها في مشروع يعرف باسم مافن Maven. ويعتقد بول شار (مؤلف كتاب جديد بعنوان "جيش بلا بشر: الأسلحة ذاتية التحكم ومستقبل الحروب") أن على باحثي الذكاء الاصطناعي القيام بما هو أكثر من الانسحاب إذا ما أرادوا إحداث التغيير. يرى شار -الجندي الأميركي الذي خدم في العراق وأفغانستان، وهو الآن أحد كبار الباحثين في مركز الأمن الأميركي الجديد- أن على خبراء الذكاء الاصطناعي أن يتعاونوا مع صناع السياسة والمحترفين العسكريين من أجل تفسير القلق الذي يساور الباحثين، ومساعدتهم في إدراك أوجه القصور لدى أنظمة الذكاء الاصطناعي. وقد تحدث شار إلى ويل نايت (رئيس تحرير مجلة إم آي تي تكنولوجي ريفيو) عن أفضل طريقة لوقف سباق التسلح الخطير المحتمل في مجال الذكاء الاصطناعي.  

ادخل بريدك الإلكتروني واحصل على المقال مجاناً.

اكتشف أفضل محتوى عربي على الإنترنت لتطوير ذاتك وتحسين مهاراتك وجودة حياتك وتحقيق طموحاتك في أسرع وقت.