اشترك

الاستمرار بالحساب الحالي

شارك
شارك
Article image
مصدر الصورة: آييكون/ أنبيليرو أداليرو/ ياروسلاف سامويلوف/ إس بي تي إس/ هيا بون لين (ذا ناون بروجيكت)



جوجل تضع مجموعة من المبادئ لباحثيها في مجال الذكاء الاصطناعي، وهي تمنع تكنولوجيا الأسلحة.

2021-07-15 15:34:46

09 يوليو 2018
وضعت جوجل ميثاقاً أخلاقياً للذكاء الاصطناعي يمنع تطوير الأسلحة ذاتية التحكم، غير أن هذه المبادئ تترك مجالاً للمناورة يتيح لجوجل الاستفادة من العقود العسكرية المربحة. أتى هذا الإعلان على إثر اعتراض داخلي عارم على استخدام تقنيات الذكاء الاصطناعي لجوجل في مبادرة لوزارة الدفاع الأميركية باسم فريق الوظائف المتعددة لحرب الخوارزميات، وتهدف هذه المبادرة، والتي تعرف أيضاً باسم مشروع ميفن، إلى تحسين دقة ضربات الطائرات المسيرة، إضافة إلى أشياء أخرى. وهي فضيحة أدت مؤخراً إلى استقالة دزينة من موظفي جوجل، كما وقع الكثيرون على رسالة احتجاجية مفتوحة. يعبر كل هذا الصخب عن مخاوف الكثيرين من استخدام التكنولوجيا في أتمتة الحروب في المستقبل، ولكن المسألة ليست بهذه البساطة. يمكن أن يساعد الذكاء الاصطناعي على جعل بعض أنظمة الأسلحة أكثر أماناً وأقل عرضة للخطأ. كما يوجد العديد من التطبيقات البسيطة للذكاء الاصطناعي في الصناعات العسكرية، ولا ترغب جوجل بالتخلي عن كل هذه الأسواق المحتملة لتقنية الذكاء الاصطناعي السحابي لديها. أعلن المدير التنفيذي لجوجل، سوندار بيتشاي، عن الميثاق الجديد مؤخراً في منشور على مدونة للشركة. ويقترح سبع مبادئ توجه استخدام جوجل للذكاء الاصطناعي، وهي أنه يجب أن يكون مفيداً للمجتمع، ويتجنب الانحياز في الخوارزميات، ويحترم الخصوصية، ويخضع لاختبارات السلامة، ويخضع للمساءلة من قبل العامة، ويحافظ على الدقة العلمية، ويكون متاحاً للآخرين ممن يتبعون نفس المبادئ. ولكن بيتشاي بذل أيضاً جهداً كبيراً في التأكيد على أن جوجل لن تسمح باستخدام تقنياتها للذكاء الاصطناعي في أي تطبيقات يمكن أن تتسبب بالأذى، بما في ذلك "الأسلحة وغيرها من التقنيات التي تهدف أو يؤدي

أدخل بريدك الإلكتروني واقرأ المقال مجاناً

أنشئ حساباً مجاناً واقرأ مقالتين مجاناً كل شهر من أوسع تشكيلة محتوى أنتجته ألمع العقول العالمية والعربية.