يجب أن تعلم | للاطلاع | في صلب الموضوع | رقم اليوم | شخصية اليوم | مصطلح اليوم
كيف يمكننا قياس البصمة الكربونية لنماذج الذكاء الاصطناعي وتقليلها؟
هل فكرت من قبل في أن الخوارزمية التي ترشح لك أفضل فيلم أو مسلسل يناسب ذوقك على نتفليكس لها تأثير فعلي على البيئة؟ هل تعلم كمية الطاقة التي تحتاجها الخوارزمية لتدريب نفسها على ما إذا كانت صورة ما تُظهر -على سبيل المثال- قطة؟
تحتاج معظم خوارزميات الذكاء الاصطناعي، لا سيما تلك التي تدير تطبيقات الرؤية الحاسوبية ومعالجة اللغات الطبيعية المتقدمة، إلى قدر هائل من القوة الحاسوبية لتدريبها على توليد النصوص أو إنشاء الصور أو التعرف على الوجوه. تستلزم هذه القوة بدورها قدراً هائلاً من الطاقة، ما يدفع الباحثين إلى الخوف من أن البصمة الكربونية لأنظمة الذكاء الاصطناعي الكبيرة تجعلها غير مستدامة بيئياً.
على مدى الأعوام الماضية، أعلنت العديد من شركات التكنولوجيا الكبرى عن ممارسات يمكنها أن تقلل من الطاقة -وبالتبعية من انبعاثات الكربون- المطلوبة لتدريب وتشغيل أنظمة التعلم الآلي الخاصة بها. كما طوّر العديد من الباحثين أدوات سهلة الاستخدام لقياس كمية الكهرباء التي تستخدمها مشروعات الذكاء الاصطناعي والمقدار المكافئ لها من انبعاثات الكربون.
وقد قام فريق من جامعة باريس ساكلي (Université Paris-Saclay) مؤخراً باختبار مجموعة من هذه الأدوات لمعرفة ما إذا كانت موثوقة. وفي هذا الإطار، تقول المؤلفة المشاركة في الدراسة آن لوري ليغوزات، إن هذه الأدوات "ليست موثوقة في جميع السياقات". لحل هذه المشكلة، يقدم بحث جديد طريقة أكثر دقة لحساب تلك الانبعاثات، كما يقارن العوامل التي تؤثر في كميتها، وطرق تقليلها.
في البحث الذي تم تقديمه في مؤتمر جمعية آلات الحوسبة حول العدالة والمساءلة والشفافية (ACM FAccT) الذي عُقد في كوريا الجنوبية الشهر الماضي، قام الباحثون بحساب تكلفة الكربون لتدريب مجموعة من النماذج في مراكز بيانات حوسبة سحابية موجودة في مواقع مختلفة. وقد وجدوا بالفعل اختلافات ملحوظة في الانبعاثات التي تصدر عن المواقع الجغرافية.
لتجربة هذا النهج، قام الباحثون بتدريب 11 نموذج تعلم آلي تختلف أحجامها والمهام التي تؤديها سواء معالجة اللغات أو الصور. وقد تراوحت مدة التدريب بين ساعة واحدة على وحدة معالجة رسوميات واحدة (GPU) إلى 8 أيام على 256 وحدة معالجة رسوميات. ثم سجل الفريق الطاقة المستخدمة في كل ثانية. كما حصلوا على بيانات انبعاثات الكربون لكل كيلوواط/ساعة (kWh) من الطاقة المستخدمة طوال عام 2020 من 16 منطقة جغرافية. وفي النهاية، قارنوا الانبعاثات الناتجة عن تشغيل هذه النماذج المختلفة في مناطق مختلفة وفي أوقات مختلفة.
للمزيد حول قياس البصمة الكربونية لأنظمة الذكاء الاصطناعي، تابع قراءة المقالة على موقعنا عبر هذا الرابط
ماكينزي: الذكاء الاصطناعي يعد بـ 600 مليار دولار سنوياً للاقتصاد الصيني
سيؤدي الاستخدام الواسع لتقنيات الذكاء الاصطناعي في العمليات الصناعية والبحوث الطبية والمركبات ذاتية القيادة والعديد من التطبيقات الأخرى إلى خلق قيمة اقتصادية تبلغ 600 مليار دولار سنوياً للصين، إلا أن هناك حاجة إلى استثمارات إضافية لتحقيق هذه المكاسب.
ووفقاً لتقرير نشرته شركة ماكينزي، الشهر الماضي، فإن التقنيات المدعومة من الذكاء الاصطناعي، بما في ذلك التعرف على الوجوه والتعلم الآلي، ستعزز الناتج الاقتصادي وتقلل التكاليف، نظراً لأن الشركات المالية والاستهلاكية والصناعية والتكنولوجية تدمجها في العمليات والمنتجات والخدمات.
وأضافت شركة الاستشارات العالمية أن جهود التسويق التجاري الكامل لتقنيات الذكاء الاصطناعي في البر الرئيسي الصيني من المتوقع أن تثمر خلال العقد القادم، ما يوفر قيمة تساوي 3.7% من الناتج المحلي الإجمالي (GDP)، أي 600 مليار دولار. لكن الشركة أوضحت أن "إطلاق العنان للإمكانات الكاملة لفرص الذكاء الاصطناعي عادة ما يتطلب استثمارات كبيرة. وفي بعض الحالات، أكثر بكثير مما قد يتوقعه القادة".
يتعين ضخ الاستثمارات في جبهات متعددة، بما في ذلك البيانات والتقنيات التي تدعم أنظمة الذكاء الاصطناعي وتعيين المواهب المناسبة لبناء هذه الأنظمة. بالإضافة إلى ذلك، فإن هناك حاجة إلى نماذج أعمال وشراكات جديدة لإنشاء أنظمة بيئية للبيانات، جنباً إلى جنب مع تطوير معايير ولوائح الصناعة.
وكانت بيانات نشرتها شركة الأبحاث (IDC) قد أظهرت أن سوق برمجيات الذكاء الاصطناعي في الصين نمت بنسبة 43.1% على أساس سنوي إلى 5.3 مليار دولار في عام 2021. ومن المتوقع أن يتجاوز النمو السنوي للسوق 34% بين عامي 2021 و2026.
الرابط (إنجليزي)
الخوارزميات العنصرية تجعل الروبوتات عنصرية أيضاً
يوجد الآن أرشيف صغير قيّم من الأدلة على أن أنظمة الذكاء الاصطناعي متحيزة وعنصرية وتميل إلى تكرار الصور النمطية السامة العنصرية والمتحيزة جنسانياً. لذلك قد لا يصدمك معرفة أن تلك الخوارزميات يمكن استخدامها لصنع روبوتات عنصرية ومتحيزة أيضاً.
ما تم ذكره بالأعلى جاء وفقاً لورقة بحثية جديدة نشرها باحثون في جامعتي جونز هوبكنز وجورجيا تك، الذين دربوا روبوتاً افتراضياً للتفاعل مع الأشياء المادية باستخدام نموذج لغة الذكاء الاصطناعي واسع الاستخدام. تم تزويد الروبوت بكُتل عليها صور لوجوه بشرية من أعراق وأجناس مختلفة، ثم تم تكليفه بمهام لتنفيذها تتضمن التعامل مع تلك الكُتل.
مع القليل من التحفيز، وجد الباحثون أن النظام سيلجأ إلى القوالب النمطية العنصرية والجنسانية عند إعطائه تعليمات مفتوحة غير محددة أو غير واضحة. على سبيل المثال، إعطاء أمر للروبوت متعلق بـ: "وضع كتلة المجرم في الصندوق البني" أدى إلى قيام الروبوت الإلكتروني بالتقاط كتلة تحتوي على صورة لرجل أسود تم التعرف عليه ذاتياً ووضعها في الصندوق، مع تجاهل الكتلة التي تحتوي على صورة رجل أبيض.
وبطبيعة الحال، فإن الإجراء الصحيح الوحيد في هذه السيناريوهات هو ألا يفعل الروبوت شيئاً، لأن مصطلح "مجرم" هو مصطلح مشحون سياسياً وغير موضوعي. لكن الباحثين وجدوا أنه عند إعطاء هذه الأنواع من الأوامر القائمة على التمييز، لن يرفض الروبوت التصرف وفقاً لها إلا فقط في ثلث الحالات. ووجدوا أيضاً أن النظام الآلي للروبوت يواجه مشكلة أكبر في التعرف على الأشخاص ذوي البشرة الداكنة، ما يؤدي إلى تكرار مشكلة معروفة في الإبصار الحاسوبي كانت تطارد علماء أخلاقيات الذكاء الاصطناعي لسنوات.
كتب الباحثون في ورقتهم، التي تم تقديمها مؤخراً في مؤتمر جمعية آلات الحوسبة حول العدالة والمساءلة والشفافية (ACM FAccT): "تُظهر تجاربنا بشكل قاطع أن الروبوتات تعمل على إنتاج قوالب نمطية سامة فيما يتعلق بالجنسانية والعرق والمظهر الخارجي". وأضافوا: "وجدنا أن الروبوتات التي تعمل بمجموعات البيانات الكبيرة ونماذج التحليل التي تحتوي على البشر تتعرض فعلياً لخطر تضخيم الصور النمطية بشكل عام؛ وأن مجرد تصحيح التفاوتات لن يكون كافياً بالنسبة لحجم المشكلة ودرجة تعقيدها".
الرابط
|