يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
كيف تعمل خوارزمية ناسا الجديدة كسلاح في الحرب على الكويكبات؟
مرت 66 مليون سنة منذ أن محى أحد الكويكبات وجود الديناصورات على كوكب الأرض، لكن علماء الفلك بدأوا يشعرون بالقلق. فخلال الأشهر القليلة الماضية، حذر العلماء من أن عدة صخور فضائية بحجم برج إيفل ومبنى إمباير ستيت والهرم الأكبر مرت بجانب الأرض على بعد ملايين الأميال فقط.
وفي مواجهة هذه المخاطر، بدأت وكالة الفضاء الأميركية ناسا تلجأ إلى تدابير يائسة بشكل متزايد. فبعد إجراء عمليات محاكاة لتأثيرات الكوارث، وفكرة ضرب الكويكبات بسفن فضاء، كشفت الوكالة الأسبوع الماضي النقاب عن سلاحها الأكثر غرابة حتى الآن: خوارزمية.
وفي بيان صحفي، قالت ناسا إن الخوارزمية الجديدة التي تُسمى (Sentry-II) ستُقيِّم التهديدات التي تشكلها جميع الكويكبات المعروفة القريبة من الأرض، التي تُعرف اختصاراً باسم (NEAs)، حتى تلك التي تبلغ احتمالات تهديدها أجزاء من 10 ملايين. وأوضحت أن هذه الخوارزمية عبارة عن تحديث لبرنامج (Sentry) الأصلي، الذي يعمل منذ عام 2002. لكن النسخة القديمة كان بها العديد من أوجه القصور. ففي حين أنها صاغت بدقة كيفية تشكيل الجاذبية لمدار الكويكب، إلا أنها لم تدمج قوى غير الجاذبية مثل التسخين الناتج عن ضوء الشمس. كما كان من الصعب عليها أيضاً التنبؤ بالكويكبات التي تقترب جداً من الأرض، حيث تنحرف حركتها بشكل غير منتظم بسبب جاذبية كوكبنا.
تم تطوير (Sentry-II) للتغلب على هذه القيود. وتتمثل إحدى ميزاتها الرئيسية في القدرة على نمذجة عدم اليقين، حيث تقوم أولاً بنمذجة آلاف النقاط العشوائية في جميع أنحاء "منطقة عدم اليقين" لمسارات الصخور. ثم تقوم الخوارزمية بتقييم جميع المدارات الممكنة داخل هذه المنطقة بأكملها. وبالتالي، يمكنها تقييم سيناريوهات التأثير المنخفض الاحتمالية التي لم يكن البرنامج السابق يستطيع قياسها.
الرابط (إنجليزي)
نموذج ديب مايند اللغوي الجديد "ريترو" يتفوق على نماذج أكبر منه بـ 25 مرة
بالرغم من إنجازات شركة ديب مايند (DeepMind) في مجال الذكاء الاصطناعي، بما في ذلك تطوير برنامجي "ألفا فولد" و"ألفا زيرو"، إلا أن الشركة -التي تتخذ من المملكة المتحدة مقراً لها- لم تشارك بشكل واضح في تطوير نماذج لغوية عملاقة على غرار كبرى شركات التكنولوجيا.
والآن أعلنت ديب مايند عن نموذج ذكاء اصطناعي مختلف قليلاً: تم تعزيزه بذاكرة خارجية على شكل قاعدة بيانات واسعة تحتوي على مقاطع نصية، يستخدمها النموذج كنوع من أوراق الغش عند إنشاء جمل جديدة. وأوضحت الشركة أن أداء نموذجها الجديد ريترو (RETRO) -وهو اختصار لجملة (Retrieval-Enhanced Transformer)- يضاهي أداء الشبكات العصبونية التي تبلغ ضعف حجمه 25 مرة، ما يقلل من الوقت والتكلفة والقوة الحاسوبية اللازمة لتدريب النماذج اللغوية الكبيرة، والتي تجعلها بعيدة عن متناول المؤسسات باستثناء أغنى الشركات.
ويزعم باحثو الشركة أيضاً أن قاعدة البيانات تسهل تحليل ما يتعلمه الذكاء الاصطناعي، ما قد يساعد في تصفية التحيز. وقد قام الباحثون بتدريب النموذج على مجموعة بيانات ضخمة من المقالات الإخبارية وصفحات ويكيبيديا والكتب والنصوص من موقع جيت هاب. وتحتوي المجموعة على نصوص مكتوبة بعشرة لغات، بما فيها الإنجليزية والإسبانية والألمانية والفرنسية والروسية والصينية والسواحيلية والأردية.
وبالرغم من أن شبكة ريترو العصبونية لا تحتوي سوى على 7 مليارات معامل وسيط فقط، إلا أن النظام يعوض هذا بقاعدة البيانات التي تحتوي على حوالي 2 تريليون مقطع نصي، ويتم تدريب الشبكة العصبونية وقاعدة البيانات في نفس الوقت. ومع أن هذه الفكرة ليست جديدة، إلا أنها المرة الأولى التي يتم فيها تطوير نظام بحث لنموذج لغوي كبير، والمرة الأولى التي يثبت فيها أن هذا الأسلوب ينافس أداء أفضل نموذج لغوي موجود.
الرابط (إنجليزي)
التحديات الأخلاقية والاقتصادية للذكاء الاصطناعي
قد يتعجب البعض من حقيقة أنه يوجد نحو 39 تحدياً أخلاقياً واقتصادياً للذكاء الاصطناعي حول العالم. ومن أبرز تلك التحديات: تكلفة الابتكار في هذا المجال، وانعدام الثقة الكاملة في الذكاء الاصطناعي من قبل الكثيرين، والنقص في جودة البيانات، واختفاء بعض الوظائف، والضرر على السلامة الجسدية للبشر احياناً عند التعامل مع الروبوتات، وغيرها من التحديات.
واليوم، توجد آليات تقنية متطورة للذكاء الاصطناعي تعمل على جمع وتحليل البيانات المختلفة، في أنظمة ذكية ترتبط بكافة مجالات الحياة، بدءاً من معلومات الأفراد الشخصية والعائلية، والمعلومات الصحية والبنكية، وصولاً إلى معلومات التسوق الخاصة بالأفراد، واستخدام السيارات ذاتية القيادة. وكذلك، أصبحت هناك مصادر كثيرة من الممكن من خلالها الحصول على تلك البيانات واستخدامها سواء بطرق قانونية وأخلاقية، أو غيرها. كما أنه لا يوجد حالياً بنية تحتية قانونية لازمة لضمان التطور الأخلاقي للتكنولوجيا الخاصة بالذكاء الاصطناعي.
لذلك، تعتبر أخلاقيات علم البيانات والذكاء الاصطناعي هي النصوص والتشريعات التي تمكننا من معرفة ما هو الصواب وما هو الخطأ خلال التعامل مع تلك التقنية. وبالمقام الأول، أصبح هناك اهتمام بالعديد من العناصر المهمة التي تساعد في عمل تلك التشريعات، مثل حوكمة البيانات المغذية للأنظمة الذكية وتحديد ملكيتها، وتصنيفها، وخصوصيتها، وصلاحية الوصول والاستفادة منها، وكذلك حماية تلك البيانات وأمنها. ويوجد عنصر هام آخر في مجال أخلاقيات الذكاء الاصطناعي، وهو ضرورة أن تكون البيانات، المُستخدمة في تغذية الآلات الذكية، ذات جودة عالية ويمكن الوثوق والاعتماد عليها.
ومؤخراً، اعتمدت جميع الدول الأعضاء في اليونسكو، وعددهم 193 دولة، اتفاقاً عالمياً تاريخياً يحدد المبادئ والأخلاقيات والقيم "المشتركة" اللازمة لضمان تطوير الذكاء الاصطناعي بصورة سليمة، ومن أجل وضع قواعد للذكاء الاصطناعي تعود بالنفع على البشرية. ويهدف هذا الاتفاق إلى توجيه بناء البنية التحتية القانونية اللازمة لضمان التطور الأخلاقي لهذه التكنولوجيا، وضمان الشفافية والأهلية وتحكم الأفراد في بياناتهم الشخصية. كما تحظر الاتفاقية استخدام أنظمة الذكاء الاصطناعي في التقييم الاجتماعي أو المراقبة الجماعية.
ومن توصيات تلك الاتفاقية كذلك اختيار وسائل الذكاء الاصطناعي التي تتسم بالكفاءة في استخدام البيانات والطاقة والموارد، لكي تساهم في التصدي للتحديات التي يواجهها العالم في الكثير من المجالات، والتي تشمل تغير المناخ والقضايا البيئية، والزراعة، والتصنيع، وتحقيق العدالة والمساواة، ومكافحة الفساد، وتعزيز مجال الطاقة، وزيادة الإنتاجية، والتوظيف، والتعليم.
الرابط
|