يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
حان وقت التفاوض على اتفاقيات عالمية بشأن الذكاء الاصطناعي
مع صعود الذكاء الاصطناعي والحوسبة الفائقة وتحليلات البيانات، تقف الدول اليوم عند نقطة تحول حاسمة في مجال الأمن الوطني وخوض الحروب. تؤدي هذه التقنيات الثلاثة إلى تسريع احتمالات اندلاع الحروب وتوسع نطاقها. ويتميز هذا الشكل الجديد من "الحرب الفائقة" بعدة مستويات من التحكم الذاتي بما في ذلك إمكانية وجود أسلحة فتاكة ذاتية التشغيل دون أن يكون للبشر أي دور في عملية اتخاذ القرار.
وفي هذه الحقبة شديدة الخطورة، حان الوقت الآن للتفاوض بشأن اتفاقيات عالمية تحكم سير الحرب في هذه المرحلة المبكرة لتبني الذكاء الاصطناعي والتقنيات الناشئة وتكييفها مع الأسلحة والأنظمة الحربية. وسيكون من الأسهل القيام بذلك الآن قبل أن يتم إدخال قدرات الذكاء الاصطناعي بشكل كامل ودمجها في التخطيط العسكري.
وعلى غرار المعاهدات السابقة بشأن الأسلحة النووية والبيولوجية والكيميائية في فترة ما بعد الحرب العالمية، يجب أن تركز هذه الاتفاقيات على عدة مبادئ رئيسية:
- دمج المبادئ الأخلاقية مثل حقوق الإنسان والمساءلة وحماية المدنيين في القرارات العسكرية القائمة على الذكاء الاصطناعي.
- إبقاء القرار النهائي بيد البشر عندما يتعلق الأمر بإطلاق الصواريخ وشن هجمات الطائرات المسيرة وخوض الأعمال العسكرية واسعة النطاق.
- اعتماد معايير تمتع استخدام خوارزميات الذكاء الاصطناعي ضمن أنظمة القيادة والتحكم الخاصة بالأسلحة النووية.
- حماية البنية التحتية الحيوية من خلال اتفاق الدول على عدم سرقة البيانات التجارية الحيوية أو تعطيل شبكات الطاقة أو شبكات النطاق العريض أو الشبكات المالية أو المرافق الطبية على أساس غير مبرر من خلال الهجمات الرقمية التقليدية أو الأسلحة الإلكترونية المعززة بالذكاء الاصطناعي.
- تحسين الشفافية بشأن سلامة أنظمة الأسلحة القائمة على الذكاء الاصطناعي.
- تطوير آليات رقابة فعالة لضمان الامتثال للاتفاقيات الدولية.
الرابط (إنجليزي)
ما الذي يحدث عندما تتخلى جوجل عن "أخلاقياتها"؟
أثار طرد تيمنيت جيبرو، مسؤولة أخلاقيات الذكاء الاصطناعي من شركة جوجل تساؤلات حول ما إذا كان احترام القواعد الأخلاقية المحيطة بالذكاء الاصطناعي يمثل حقاً أحد أولويات عمالقة التكنولوجيا. ودفع باحثين آخرين إلى التساؤل: "إذا تعاملوا مع متخصصة معترف بها في مجال أخلاقيات الذكاء الاصطناعي بهذه الطريقة، فكيف يمكن لجوجل أن تأمل في أن تصبح أكثر أخلاقية؟". وأطلقوا على أسلوب جوجل اسم "غسيل الأخلاقيات"، في تشبيه لمصطلح "الغسيل الأخضر"، حيث تروج الشركات للسياسات البيئية ولكن لا تتصرف وفقًا لها.
يقول ألكسندر كالوسيس، أستاذ التنقيب في البيانات والتعلّم الآلي في جامعة العلوم التطبيقية بسويسرا إن هناك "فيل في الغرفة"؛ إذ إن الذكاء الاصطناعي موجود في كل مكان ويتطور بوتيرة سريعة، ومع ذلك غالباً ما يكون مطورو أدوات الذكاء الاصطناعي والنماذج غير مدركين حقاً كيف ستتصرف هذه الأدوات عندما يتم استخدامها في إعدادات العالم الواقعي المعقدة.
وتقول روبرتا فيشلي، الباحثة في جامعة سانت جالن إن الباحثين الذين يسعون إلى القيام بعمل رائد في أخلاقيات الذكاء الاصطناعي غالباً ما لا يكون لديهم الكثير من الخيارات، وينتهي بهم الأمر في الشركات الخاصة لأن هذا هو المكان الذي تتركز فيه معظم الموارد، "لذا فهم يحاولون فهم آليات معينة بشكل أفضل وتغيير الأشياء من الداخل، وهو أمر لا تٌحمد عقباه دائماً".
وتكمن أهمية الأمر في أن تأثير جوجل وما يسمى بمجموعة (GAFA ) اختصارا للأحرف الأولى من أسماء شركات جوجل وأمازون وفيسبوك وآبل يمتد إلى ما هو أبعد من حدود مكاتب الشركات. إن ما يفعله هؤلاء العمالقة في مجال التكنولوجيا وما يخططون له يفرض أيضاً جدول أعمال البحث الأكاديمي العالمي. إذ إنه من الصعب العثور على بحث في المؤسسات الأكاديمية والبحثية الكبيرة لا يرتبط، أو ربما ليس ممولاً من قبل شركات التكنولوجيا الكبرى. وبالنظر إلى هذا التأثير، نجد أنه من الأهمية بمكان أن يكون هناك أصوات مستقلة "خارجة عن المألوف" تسلط الضوء على مخاطر الاستغلال غير المنضبط للبيانات من قبل عمالقة التكنولوجيا.
الرابط
اقرأ مقالتنا في العمق حول الموضوع:
- ماذا جاء في الورقة البحثية التي أدت لطرد تيمنيت جيبرو من جوجل؟ الرابط
مصاعب تنفيذ حلول الذكاء الاصطناعي لفيروس كورونا
تعمل المؤسسات الخاصة والعامة في شتى أنحاء العالم على تطوير مجموعة من أنظمة الذكاء الاصطناعي وتوظيفها في مجال الاستجابة لحالات الطوارئ لفيروس كورونا. إذ تعمل بعض هذه الأنظمة على تتبع انتشار الفيروس والتنبؤ به، ويدعم البعض الآخر منها الاستجابة الطبية أو يساعد في الحفاظ على السيطرة الاجتماعية.
ويجب على أنظمة الذكاء الاصطناعي، لخدمة مجموعة من السكان بشكل فعال، أن تتعلم إنشاء ارتباطات استناداً إلى كميات هائلة من البيانات التي تعكس بدقة المعلومات لمختلف الهويات. غير أن البيانات التي تعتمد عليها هذه الأنظمة غالباً ما تعجّ بالتحيزات الاجتماعية والثقافية.
ورغم أن أنظمة ذكاء اصطناعي أثبتت أنها ذات قيمة عالية للغاية في التصدي للجائحة، لكن يجب على القادة الحرص على تطوير هذه التكنولوجيا وإدارتها واستخدامها بشكل مسؤول ومنصف، إذ إن المخاطر الناجمة عن التمييز وتعميق عدم المساواة ببساطة غير مقبولة. وفيما يلي خمسة تدابير يتعين اتخاذها الآن:
- المطالبة بالشفافية وشرح نظام الذكاء الاصطناعي.
- الانضمام إلى مجموعات عمل الأخلاقيات.
- عقد شراكات لسد أوجه النقص في البيانات الصحية.
- دفع عجلة البحث والابتكار مع التأكيد على التنوع والشمول.
- مقاومة الرغبة في إعطاء الأولوية للكفاءة على حساب العدالة والإنصاف.
الرابط
|