ما الجديد في تنظيم الذكاء الاصطناعي على المستوى العالمي في 2024؟

8 دقيقة
ما الجديد في تنظيم الذكاء الاصطناعي على المستوى العالمي في 2024؟
مصدر الصورة: ستيفاني آرنيت. إم آي تي تي آر. إنفاتو
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

في 2023، انتقلت سياسات الذكاء الاصطناعي وقوانينه الناظمة من كونها مجرد موضوع ضيق النطاق ويقتصر على حفنة قليلة من المهتمين والمتحمسين إلى أخبار مهمة تتصدر الصفحات الرئيسية. يُعزى هذا جزئياً إلى نظام تشات جي بي تي (ChatGPT) من شركة أوبن أيه آي (OpenAI)، الذي ساعد على نقل الذكاء الاصطناعي إلى نطاق التداول العام، وأتاح للجمهور اختبار كيفية عمل أنظمة الذكاء الاصطناعي، ومشاكلها. كان هذا العام حافلاً من الناحية السياسية، فقد شهدنا الموافقة على أول قانون شامل للذكاء الاصطناعي في الاتحاد الأوروبي، وجلسات استماع لمجلس الشيوخ وأوامر تنفيذية في الولايات المتحدة، وفرض قوانين محددة في الصين لتنظيم أشياء مثل خوارزميات التوصية.

وإذا كان عام 2023 هو العام الذي أجمع فيه المشرّعون على رؤية معينة، فسوف يكون عام 2024 بداية لتحول السياسات إلى إجراءات فعلية. إليكم ما يمكن أن نتوقعه هذا العام.

اقرأ أيضاً: مقارنة بين كوبايلوت برو وتشات جي بي تي بلس: ما الفرق بينهما وأيهما أفضل لك؟

الولايات المتحدة

دخل الذكاء الاصطناعي فعلياً نطاق الحوار السياسي في الولايات المتحدة عام 2023. لكن لم يقتصر الأمر على الجدل، بل وصل إلى حد اتخاذ إجراءات فعلية بلغت ذروتها مع إصدار الرئيس بايدن أمراً تنفيذياً حول الذكاء الاصطناعي في نهاية أكتوبر/تشرين الأول الماضي، وهو توجيه شامل يدعو إلى المزيد من الشفافية وتطبيق معايير جديدة.

ومن خلال هذا النشاط، بدأت الولايات المتحدة تصوغ طابعاً خاصاً بها حول سياسات الذكاء الاصطناعي، وهي سياسة تتسم بالتعامل الإيجابي مع مجال الذكاء الاصطناعي، مع تركيز على أفضل الممارسات، والاعتماد على وكالات مختلفة لوضع قواعدها الخاصة، واتباع نهج دقيق لتنظيم كل قطاع من قطاعات الاقتصاد على نحو مختلف.

سيعتمد هذا العام على الزخم المكتسب في 2023، وسيشهد تطبيق الكثير من البنود الموضحة بالتفصيل في أمر بايدن التنفيذي. كما سنسمع الكثير حول مؤسسة جديدة، وهي المعهد الأميركي لسلامة الذكاء الاصطناعي، الذي سيكون مسؤولاً عن تنفيذ معظم السياسات التي دعا إليها الأمر التنفيذي.

لكن ليس من الواضح ما سيحدث من وجهة نظر الكونغرس. فمؤخراً، أشار قائد الأغلبية في مجلس الشيوخ، تشاك شومر، إلى إمكانية إصدار قوانين جديدة إلى جانب الأمر التنفيذي. وقد طُرِحت عدة مقترحات تشريعية للتعامل مع جوانب مختلفة من الذكاء الاصطناعي، مثل الشفافية والمزيفات العميقة ومسؤولية المنصات. لكن ليس من الواضح إن كان أي من مشاريع القوانين هذه سيتمكن من اكتساب الزخم المطلوب هذا العام،

إلّا أن ما يمكننا توقعه، هو تبلور نهج يُصنّف أنواع الذكاء الاصطناعي واستخداماته حسب حجم المخاطر التي تشكلها، وهو إطار عمل مماثل لقانون الذكاء الاصطناعي في الاتحاد الأوروبي. وقد سبق للمعهد الوطني للمعايير والتكنولوجيا أن اقترح إطار عمل مماثلاً يتعين على كل قطاع ووكالة تطبيقه عملياً، وفقاً للمدير التنفيذي لائتلاف منتدى “فرونتير موديل فوروم” (Frontier Model Forum)، وهو هيئة قادرة على حشد التأييد في مجال الذكاء الاصطناعي.

اقرأ أيضاً: بعد دمج جيميني به: هل سيتفوق بارد من جوجل على تشات جي بي تي؟

إضافة إلى ما سبق، من الواضح أن الانتخابات الرئاسية الأميركية في 2024 ستكون محور أغلب النقاشات حول تنظيم الذكاء الاصطناعي. وكما رأينا آثار الذكاء الاصطناعي التوليدي على منصات التواصل الاجتماعي والمعلومات المزيفة، يمكن أن نتوقع أن أحداث الموسم الانتخابي ستؤثّر في الجدل حول كيفية حماية أنفسنا من أضرار هذه التكنولوجيا.

أوروبا

وافق الاتحاد الأوروبي مؤخراً على قانون الذكاء الاصطناعي، وهو أول قانون ذكاء اصطناعي شامل في العالم.

وبعد مرحلة من التعديلات الفنية المحمومة والموافقات الرسمية لدول الاتحاد الأوروبي والبرلمان الأوروبي خلال النصف الأول من 2024، سيدخل قانون الذكاء الاصطناعي حيز التنفيذ بسرعة ملحوظة. ووفقاً للسيناريوهات الأكثر تفاؤلاً، يمكن أن يبدأ تطبيق الحظر على استخدامات معينة للذكاء الاصطناعي بحلول نهاية هذا العام.

هذا يعني أن عام 2024 سيكون عاماً حافلاً بالنسبة لقطاع الذكاء الاصطناعي، حيث سيتخذ الخطوات اللازمة كلها للامتثال للقواعد الجديدة. على الرغم من أن قانون الذكاء الاصطناعي لن يؤثّر في معظم تطبيقات الذكاء الاصطناعي على الإطلاق، فإن تطبيق المعايير الأوروبية الجديدة سيصبح إلزامياً بالنسبة للشركات التي تطوّر النماذج الأساسية والتطبيقات التي يمكن أن تمثّل “مخاطر جدية” تهدد الحقوق الأساسية، مثل تلك التي من المفترض استخدامها في قطاعات مثل التعليم والرعاية الصحية وأعمال الشرطة.

وستُمنَع الشرطة في أوروبا من استخدام هذه التكنولوجيا في الأماكن العامة، إلا بعد الحصول على موافقة قضائية في حالات محددة مثل مكافحة الإرهاب، ومنع الاتجار بالبشر، أو العثور على شخص مفقود.

ستُحظر استخدامات أخرى للذكاء الاصطناعي كلياً في الاتحاد الأوروبي، مثل بناء قواعد بيانات للتعرف على الوجوه، على غرار تلك التي بنتها شركة كليرفيو أيه آي (Clearview AI)، أو استخدام تكنولوجيا التعرف على المشاعر في العمل أو في المدارس. أيضاً، سيفرض قانون الذكاء الاصطناعي على الشركات رفع مستوى شفافيتها حول أساليبها في تطوير نماذجها، وسيجعل القانون هذه الشركات، وغيرها من المؤسسات التي تستخدم أنظمة الذكاء الاصطناعي العالية المخاطر، أكثر مسؤولية عن الأضرار التي تتسبب بها هذه التكنولوجيات.

وستضطر الشركات التي تعمل على تطوير النماذج الأساسية -أي النماذج التي تعتمد عليها منتجات الذكاء الاصطناعي الأخرى، مثل جي بي تي – 4 (GPT-4)- إلى الامتثال للقانون في غضون سنة واحدة من دخوله حيز التنفيذ. وستكون أمام الشركات التكنولوجية الأخرى مهلة سنتين للالتزام بهذه القواعد.

اقرأ أيضاً: دليل شركات التكنولوجيا الكبرى للحديث عن أخلاقيات الذكاء الاصطناعي

حتى تحقق شركات الذكاء الاصطناعي المتطلبات الجديدة، سيتعين عليها أن تكون أكثر حرصاً في كيفية بناء أنظمتها، وتوثيق عملها بصورة أدق وأكثر صرامة بحيث يصبح من الممكن تدقيقه. وسيفرض القانون على الشركات رفع مستوى شفافيتها حول كيفية تدريبها لنماذجها، وسيضمن تدريب أنظمة الذكاء الاصطناعي المصنفة ضمن فئة الأنظمة العالية المخاطر واختبارها باستخدام مجموعات بيانات تمثيلية كافية للتخفيف من التحيز، على سبيل المثال.

يعتقد الاتحاد الأوروبي أن أقوى نماذج الذكاء الاصطناعي، مثل جي بي تي 4 من أوبن أيه آي وجيميني (Gemini) من جوجل، يمكن أن تشكّل مخاطر “شاملة” على المواطنين، ما يجعلها في حاجة إلى المزيد من العمل لتحقيق معايير الاتحاد الأوروبي. يجب أن تتخذ الشركات ما يلزم من الخطوات لتقييم المخاطر وتخفيفها لضمان سلامة هذه الأنظمة، وسيُفرض عليها التبليغ عن الحوادث الخطيرة، والإفصاح عن تفاصيل حول استهلاكها للطاقة. وستُوكل إلى الشركات مهمة تقييم أنظمتها لتحديد مستوى قدراتها وإمكانية تصنيفها في هذه الفئة.

أما بالنسبة لشركات الذكاء الاصطناعي المفتوحة المصدر، فهي مستثناة من متطلبات الشفافية لقانون الذكاء الاصطناعي، ما لم تكن تعمل على تطوير نماذج تتطلب قدرات حاسوبية عالية من مستوى جي بي تي 4. يمكن أن تؤدي مخالفة القواعد إلى غرامات كبيرة، أو حظر منتجات الشركات المخالفة من الاتحاد الأوروبي.

يعمل الاتحاد الأوروبي على مشروع قانون آخر باسم قانون مسؤولية الذكاء الاصطناعي، الذي سيضمن حصول الأشخاص الذين تضرروا من هذه التكنولوجيا على تعويضات مالية. بدأت المفاوضات حول هذا المشروع العام الماضي، ومن المرجّح أن تستمر هذا العام.

تعتمد بعض البلدان نهجاً يتسم بطابع أقل تدخلاً. على سبيل المثال، قالت المملكة المتحدة، وهي موطن شركة جوجل ديب مايند (Google DeepMind)، إنها لا تنوي تنظيم الذكاء الاصطناعي في المدى القريب. لكن أي شركة خارج الاتحاد الأوروبي، الذي يمثّل ثاني أكبر اقتصاد في العالم، ستبقى ملزمة بالامتثال لقانون الذكاء الاصطناعي إذا أرادت العمل في هذه المنطقة التجارية.

تُطلق أستاذة القانون في جامعة كولومبيا آنو برادفورد على هذه الظاهرة اسم “أثر بروكسل”، حيث إن الاتحاد الأوروبي باعتباره أول من يصدر قوانين ناظمة، قادر على وضع المعيار العالمي الفعلي، وتحديد الأسلوب الذي يمارس به العالم أعماله ويطور التكنولوجيا.

اقرأ أيضاً: 8 عوامل تخبرنا أن نموذج الذكاء الاصطناعي جي بي تي 4 لم يتفوق على الذكاء البشري

نجح الاتحاد الأوروبي في فرض هذا الأثر من خلال نظامه الصارم لحماية البيانات، المعروف باسم النظام الأوروبي العام لحماية البيانات (اختصاراً: GDPR)، الذي استُنسخت عنه أنظمة حماية أخرى في أنحاء العالم كافة، بدءاً من كاليفورنيا ووصولاً إلى الهند. ويأمل الاتحاد الأوروبي أن يتمكن من تكرار نجاحه هذا مع الذكاء الاصطناعي.

الصين

حتى الآن، لا يزال تنظيم الذكاء الاصطناعي في الصين يتسم بالتشتت ومعالجة الحالات الفردية إلى درجة كبيرة. فبدلاً من تنظيم الذكاء الاصطناعي بوصفه مجالاً واحداً، أصدرت الصين عدة قوانين إفرادية مع انتشار أي منتج جديد من منتجات الذكاء الاصطناعي. ولهذا، توجد في الصين مجموعة قواعد خاصة بخدمات التوصية الخوارزمية (في التطبيقات المماثلة لتيك توك [TikTok] ومحركات البحث)، ومجموعة أخرى للمزيفات العميقة، وثالثة للذكاء الاصطناعي التوليدي.

تكمن قوة هذا النهج في أنه يُتيح لبكين الاستجابة بسرعة للمخاطر الناجمة عن التطورات الجديدة في هذه التكنولوجيا، سواء بالنسبة للمستخدمين أو بالنسبة للحكومة. غير أنها، من ناحية أخرى، تعوق بناء تصور شامل وبعيد المدى.

لكن هذا قد يتغير في 2024؛ ففي يونيو/ حزيران عام 2026، أعلن مجلس الدولة الصيني، وهو أعلى هيئة حاكمة في البلاد، أنه وضع “قانوناً للذكاء الاصطناعي” على أجندته التشريعية. سيغطي هذا القانون كل شيء، على غرار قانون الذكاء الاصطناعي الأوروبي. ونظراً لهذه الرؤية الطموحة، سيكون من الصعب تحديد الفترة الزمنية التي ستستغرقها هذه العملية التشريعية.

من المحتمل أن نشهد ظهور المسودة الأولى هذا العام، لكنها قد تستغرق وقتاً أطول. في هذه الأثناء، لن يكون من المفاجئ أن يصدر المشرعون المشرفون على الإنترنت الصينية قواعد جديدة للتعامل مع أدوات الذكاء الاصطناعي الجديدة الذائعة الصيت أو أنواع المحتوى التي يمكن أن تظهر هذا العام.

اقرأ أيضاً: 11 من أفضل أدوات الذكاء الاصطناعي التوليدي باللغة العربية

لم تفصح الصين عن معلومات تستحق الذكر حول هذا القانون، لكن ثمة وثيقة يمكن أن تساعدنا على التكهن بطبيعته، فقد نشر باحثون من الأكاديمية الصينية للعلوم الاجتماعية، وهو معهد بحثي تابع للحكومة، نسخة من قانون الذكاء الاصطناعي على هيئة “اقتراح خبراء” في أغسطس/ آب.

تقترح هذه الوثيقة تأسيس “مكتب وطني للذكاء الاصطناعي” للإشراف على تطوير الذكاء الاصطناعي في الصين، وتطالب بإصدار “تقرير المسؤولية الاجتماعية، وهو تقرير سنوي مستقل عن النماذج الأساسية، وتحدد “قائمة سلبية” من مجالات الذكاء الاصطناعي التي تتسم بدرجة عالية من المخاطر، والتي لا يُسمح للشركات حتى بإجراء الأبحاث حولها دون موافقة حكومية.

حالياً، تخضع شركات الذكاء الاصطناعي الصينية لعدد كبير من القوانين. في الواقع، يتعين على الشركات تسجيل أي نموذج أساسي لدى الحكومة قبل أن يصبح من الممكن نشره بين عموم الصينيين، ومن الجدير بالذكر أن عدد الشركات التي سجلت نماذجها لدى الحكومة بلغ 22 شركة بحلول نهاية عام 2023.

يعني هذا أن الذكاء الاصطناعي في الصين لم يعد بيئة منفلتة وخارجة عن السيطرة. غير أن طريقة فرض هذه القوانين الناظمة لا تزال غير مؤكدة حتى الآن. وفي هذا العام، سيتعين على شركات الذكاء الاصطناعي التوليدي تحديد ما يجب عليها فعله للامتثال للقوانين الجديدة، لا سيما من حيث عمليات التدقيق المتعلقة بالسلامة، وانتهاكات قوانين حماية الملكية الفكرية.

في الوقت نفسه، وبما أن شركات الذكاء الاصطناعي الأجنبية لم تحصل على أي موافقات لنشر منتجاتها في الصين (ومن المستبعد أن تحصل على هذه الموافقة لاحقاً)، سيؤدي هذا إلى تحويل البيئة التجارية المحلية إلى بيئة حامية للشركات الصينية. قد يساعد هذا الوضع شركات الذكاء الاصطناعي الصينية على تحقيق أفضلية على شركات الذكاء الاصطناعي الغربية، لكنه قد يؤدي إلى إعاقة المنافسة، وتعزيز سيطرة الصين على الخطاب عبر الإنترنت.

اقرأ أيضاً: لماذا تستبدل شركات التكنولوجيا موظفيها بأدوات الذكاء الاصطناعي؟

بقية العالم

من المرجّح أن نشهد إصدار المزيد من قوانين الذكاء الاصطناعي في مناطق أخرى من العالم هذا العام. ومن المناطق التي تستحق تركيزاً خاصاً: إفريقيا. فمن المرجّح أن يصدر الاتحاد الإفريقي استراتيجية ذكاء اصطناعي تشمل القارة بعد فترة وجيزة، وتهدف هذه الاستراتيجية إلى وضع سياسات تستطيع البلدان الإفرادية محاكاتها من أجل التنافس في مجال الذكاء الاصطناعي، وحماية المستهلكين الأفارقة من شركات التكنولوجيا الغربية، وفقاً لمسؤولة السياسات في المركز الأوروبي لإدارة سياسات التنمية، ميلودي موسوني.

وقد بادرت بعض البلدان، مثل رواندا ونيجيريا وجنوب إفريقيا، إلى وضع مسودات استراتيجيات ذكاء اصطناعي وطنية، وتعمل هذه البلدان على تطوير برامج تعليمية، وقدرات حاسوبية، وسياسات تشجّع هذا المجال لدعم شركات الذكاء الاصطناعي. وقد بدأت عدة هيئات دولية، مثل الأمم المتحدة (UN) ومنظمة التعاون الاقتصادي والتنمية (OECD) ومجموعة العشرين (G20)، إضافة إلى بعض التحالفات الإقليمية، تعمل على بناء مجموعات عمل ومجالس استشارية ومبادئ ومعايير وشعارات حول الذكاء الاصطناعي.

ومن المحتمل أن تثبت مجموعات مثل منظمة التعاون الاقتصادي والتنمية فائدتها في تحقيق الاتساق القانوني بين مختلف المناطق، ما يسهل على شركات الذكاء الاصطناعي الامتثال للقوانين المفروضة عليها.

اقرأ أيضاً: ميتا تُضيف أدوات مدعومة بالذكاء الاصطناعي التوليدي على منصاتها المختلفة

من المرجّح أن نشهد اختلافات متزايدة بين البلدان من حيث أسلوبها في تعزيز صناعات الذكاء الاصطناعي لدى كل منها، وتحويله إلى سلاح في وجه الأطراف الأخرى. وسيكون من المثير للاهتمام أن نشهد قرارات شركات الذكاء الاصطناعي من حيث المفاضلة بين التوسع العالمي أو التخصص المحلي في 2024. وقد تجد الشركات أنها مضطرة إلى اتخاذ قرارات صعبة.