يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
وكالة استخبارات بريطانية تستعرض كيفية الاستخدام المسؤول للذكاء الاصطناعي في حماية الأمن الوطني
نشرت وكالة الاستخبارات البريطانية (GCHQ)، المختصة بالأمن السيبراني، تقريراً بعنوان: "أخلاقيات الذكاء الاصطناعي: خطوة رائدة نحو أمن وطني جديد"، تقول فيه إن عملياتها المستقبلية ستعتمد بشكل كبير على تكنولوجيا الذكاء الاصطناعي.
ويقول التقرير إن الذكاء الاصطناعي سيساعد المحللين على اكتشاف الأنماط المخبأة داخل كميات كبيرة- وسريعة التزايد- من البيانات، وذلك يشمل:
- اكتشاف الرسائل المزيفة عبر الإنترنت التي تستخدمها الدول الأخرى لنشر معلومات مضللة.
- رسم خرائط الشبكات الدولية الضالعة في الاتجار بالبشر أو بالمخدرات.
- العثور على من يمارسون الإساءة الجنسية للأطفال ويخفون هوياتهم عبر الإنترنت
كما تفصل الوكالة كيف ستضمن استخدام الذكاء الاصطناعي بشكل عادل وشفاف، من خلال إعداد دليل أخلاقي لاستخدام تكنولوجيا الذكاء الاصطناعي، وتوظيف مواهب أكثر تنوعاً للمساعدة في تطوير استخدامها والتحكم فيها، وحماية الخصوصية وضمان الإنصاف.
الرابط (إنجليزي)
مقالاتنا في العمق حول الموضوع:
- هل سيحمينا الذكاء الاصطناعي من التهديدات الإلكترونية في المستقبل؟ الرابط
الذكاء الاصطناعي: عندما يكتب الروبوت مسرحية
قبل مائة عام، ظهرت كلمة "روبوت" لأول مرة في مسرحية الكاتب المسرحي التشيكي كارل تشابيك التي حملت عنوان "رجال روسوم الآلية العالمية"، تحكي قصة عمال مصنع اصطناعيين مصممين لخدمة البشر. وقبل يومين، عرضت عبر الإنترنت أول مسرحية يكتبها الروبوت مدتها 60 دقيقة وتحمل عنوان: "الذكاء الاصطناعي: عندما يكتب الروبوت مسرحية"، تروي رحلة شخصية (روبوت) في التعرف على المجتمع والعواطف البشرية، وحتى الموت.
بدأ الباحثون من جامعة تشارلز في براغ العمل على هذا المشروع منذ عامين، واستخدموا النموذج اللغوي جي بي تي-2؛ حيث قاموا بتزويد النموذج بجملتين من الحوار لإنتاج مشهد مدته حوالي 5 دقائق، وكرروا العملية لإنتاج كامل المسرحية. ويؤكد الباحثون أن المسرحية الناتجة ما زالت بعيدة كل البعد عن نصوص شكسبير؛ ففي بعض الأحيان تخرج الأحداث والحوارات عن تسلسلها المنطقي، وأحياناً "ينسى" الذكاء الاصطناعي أن الشخصية الرئيسية هي روبوت وليست إنساناً.
في أحد المشاهد، يطلب صبي من الروبوت أن يخبره مزحة، يقول الروبوت إنه عندما يكبر الصبي ويموت، وبعد أن يموت أطفاله وأحفاده أيضاً، سيكون الروبوت ما زال موجوداً. يعلق أحد المهتمين بهذه المسرحية: "إنه أمر مضحك، وفي الوقت نفسه، يتسبب بقشعريرة عندما تقوم قطعة من المعدن بإطلاق النكات حول موت الإنسان".
الرابط (فيديو المسرحية ونقاش الباحثين باللغة التشيكية مع ترجمة إلى الإنجليزية)
مقالاتنا في العمق حول الموضوع:
- برنامج ذكاء اصطناعي يفاجئنا بقدرته على تأليف أغانٍ جذابة. الرابط
- الذكاء الاصطناعي يؤلف موسيقى خلفية تظهر لنا حدود الإبداع الاصطناعي. الرابط
كيف يُمكن للشركات وضع معايير الذكاء الاصطناعي؟
عندما تحصل على وجبة في مطعم، فأنت تعلم أنه من المرجح أن يكون الطعام آمنًا للأكل. والسبب في ذلك وجود مستوى من الثقة في مختلف المجالات المهنية: المزارعون، الموردون، وصانعو المكونات، وفريق عمل المطعم الذي قام بتحضير الوجبة. ومع ذلك، عندما يتعلق الأمر بأصحاب المصلحة المختلفين الذين يقومون بتطوير تطبيقات الذكاء الاصطناعي، ليس هناك الكثير من القواعد الاحترافية.
لكن العديد من الشركات بدأت في تطوير معايير الذكاء الاصطناعي التي تضمن أن تكون تطبيقاتها جديرة بالثقة وآمنة الاستخدام للعملاء، على سبيل المثال اتخذت شركة آي بي إم خطوات رئيسية لبناء الثقة في تطبيقات الذكاء الاصطناعي الخاصة بها، ويشمل ذلك إنشاء مجلس أخلاقيات الذكاء الاصطناعي وسياساته.
ووفقًا لفرناندو لوسيني قائد قسم علوم البيانات وهندسة التعلم الآلي– الذكاء التطبيقي في شركة أكسينتشر، ينبغي على مطوري أنظمة الذكاء الاصطناعي تأسيس "تكتيكات للاحتراف" عبر شركاتهم من خلال بناء فرق ملتزمة متعددة التخصصات، وتدريب موظفيهم، وتحديد من هو المسؤول داخل المؤسسة عن نتائج أنظمة الذكاء الاصطناعي. ولبلوغ هذا المستوى من الاحترافية، يُوصي فرناندو باتباع الخطوات التالية:
- تأسيس أدوار محددة للذكاء الاصطناعي داخل شركتك.
- تدريب وتثقيف مُتخصصي الذكاء الاصطناعي لديك.
- تأسيس عمليات قياسية للذكاء الاصطناعي.
- تعليم الذكاء الاصطناعي للجميع في شركتك.
الرابط
|