خمس نتائج عالمية مهمة لقانون الذكاء الاصطناعي في أوروبا

3 دقائق
خمس نتائج مهمة يفرزها قانون الذكاء الاصطناعي في أوروبا
حقوق الصورة: shutterstock.com/MIA Studio
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

شهدت أوروبا في يونيو/ حزيران 2023 أسبوعاً حافلاً على صعيد السياسات التكنولوجية، فقد صوّت البرلمان الأوروبي بالموافقة على مسودة قواعد قانون الذكاء الاصطناعي، في اليوم نفسه الذي رفع فيه مشرّعو الاتحاد الأوروبي دعوى قضائية جديدة لمكافحة الاحتكار ضد شركة جوجل.

أقرَّ البرلمان قانون الذكاء الاصطناعي بأغلبية ساحقة، وأصبح، بالنسبة إلى الكثيرين، أحد أهم التطورات في تنظيم الذكاء الاصطناعي على مستوى العالم. وصفت رئيسة البرلمان الأوروبي، روبرتا ميتسولا، هذا القانون بأنه “تشريع سيتحول دون شك إلى معيار عالمي سائد لسنوات مقبلة”.

قانون لن يدخل حيز التطبيق بسهولة

ولكن، لا تتوقع أن تنتهي الأمور بهذه السهولة. فالنظام الأوروبي معقد بعض الشيء. فبعد هذا التصويت، يجب على أفراد البرلمان الأوروبي أن يناقشوا التفاصيل مع مجلس الاتحاد الأوروبي والذراع التنفيذية للاتحاد الأوروبي، أي المفوضية الأوروبية، قبل أن تتحول مسودة القواعد إلى قانون. وسيكون القانون الجديد أشبه بحل وسطي بين ثلاث مسودات متباينة للغاية من ثلاث مؤسسات. ومن المرجح أن يحتاج التطبيق الفعلي للقانون إلى سنتين تقريباً.

أما التصويت الذي أجراه البرلمان الأوروبي مؤخراً فيهدف إلى الموافقة على موقفه في المفاوضات النهائية المقبلة. صِيغ قانون الذكاء الاصطناعي على نحو مماثل لقانون الخدمات الرقمية للاتحاد الأوروبي، وهو إطار قانوني لمنصات الإنترنت، ويتخذ قانون الذكاء الاصطناعي “نهجاً قائماً على المخاطر” من خلال فرض قيود على أساس الخطورة المتوقعة لتطبيقات الذكاء الاصطناعي وفق تقديرات المشرّعين. سيتعين على الشركات أيضاً أن تقدم تقييماتها الخاصة لمخاطر استخداماتها للذكاء الاصطناعي.

وسيتعرض بعض تطبيقات الذكاء الاصطناعي للحظر التام إذا اعتبر المشرعون أن مستوى المخاطر “غير مقبول”، أما التكنولوجيات التي تُصنف في فئة “عالية الخطورة” فستخضع استخداماتها ومتطلباتها الجديدة المتعلقة بالشفافية لقيود جديدة.

اقرأ أيضاً: البيت الأبيض يكشف عن قانون جديد لحماية المواطنين في عصر الذكاء الاصطناعي

نتائج مهمة لقانون الذكاء الاصطناعي في أوروبا

إليك فيما يلي بعض النتائج المهمة:

  1. حظر أنظمة الذكاء الاصطناعي للتعرف على المشاعر: حظرَ نصُّ مسودة البرلمان الأوروبي استخدام الذكاء الاصطناعي المخصص لمحاولة التعرف على مشاعر الناس في أعمال الشرطة وحفظ النظام والمدارس وأماكن العمل. يزعم منتجو برمجيات التعرف على المشاعر أن الذكاء الاصطناعي قادر على معرفة إذا ما كان أحد الطلاب عاجزاً عن فهم مادة دراسية معينة، أو تحديد إذا ما كان من المحتمل أن سائق السيارة قد استسلم للنوم. لقد تعرَّض استخدام الذكاء الاصطناعي لكشف الوجوه وتحليلها إلى انتقادات حادة بسبب التحيز ونقص الدقة، ولكنه لم يُحظر في مسودة المؤسستين الأخريين، ما يشير إلى احتمال اندلاع معركة سياسية بسبب هذه المسألة.
  2. حظر استخدام الاستدلال الحيوي وعمليات الشرطة التنبؤية في الزمن الحقيقي ضمن الأماكن العامة: من المتوقع أن تنشب معركة تشريعية كبرى ستخوضها هيئات الاتحاد الأوروبي المختلفة حول الموافقة على تطبيق الحظر، وكيفية فرضه قانونياً. تعارض كيانات الشرطة فرض الحظر على تكنولوجيات الاستدلال الحيوية التي تعمل في الزمن الحقيقي، إذ تقول إنها ضرورية لأعمال الشرطة العصرية. في الواقع، تخطط بعض البلدان، مثل فرنسا، لزيادة استخدامها لأنظمة التعرف على الوجوه.
  3. حظر استخدام النقاط الاجتماعية: سيحظر القانون استخدام النقاط الاجتماعية التي تمنحها الوكالات العامة، واستخدام البيانات المتعلقة بالسلوك الاجتماعي للأشخاص بغية التعميم وإنشاء ملفات تعريف شخصية. وعلى الرغم من هذا، فإن مشهد تقنية النقاط الاجتماعية، التي تقترن عادة بالصين وغيرها من الحكومات التي تُصنف على أنها استبدادية، ليس بالبساطة التي قد يوحي بها للبعض في الواقع. فاستخدام بيانات السلوك الاجتماعي لتقييم الأشخاص أمر شائع في منح القروض العقارية وتحديد معدلات التأمين، إضافة إلى التوظيف والإعلان.
  4. قيود جديدة على الذكاء الاصطناعي التوليدي: هذه أول مسودة تقترح أساليب لتنظيم الذكاء الاصطناعي التوليدي، وحظر استخدام أي مواد خاضعة لحقوق الملكية الفكرية في مجموعات التدريب للنماذج اللغوية الكبيرة مثل جي بي تي-4 (GPT-4) من أوبن أيه آي. وقد خضعت أوبن أيه آي لتدقيق صارم من جانب المشرّعين الأوروبيين بسبب المخاوف المتعلقة بخصوصية البيانات وحقوق النشر. أيضاً، تفرض هذه المسودة وضع علامات واضحة على المحتوى المُوَلّد بالذكاء الاصطناعي للتصريح عن طبيعته. وعلى الرغم من هذا، يجب على البرلمان الأوروبي أن يقنع المفوضية الأوروبية والبلدان الأوروبية بسياسته، ومن المحتمل أن تواجه ضغوطاً من قطاع الشركات التكنولوجية.
  5. قيود جديدة على خوارزميات التوصيات على وسائل التواصل الاجتماعي: صنفت المسودة الجديدة أنظمة التوصية ضمن فئة “عالية المخاطر“، ما يمثل تصعيداً بالمقارنة مع مشاريع القوانين المقترحة الأخرى. وهذا يعني أنه إذا أُقِرّ القانون، فإن أنظمة التوصية على منصات التواصل الاجتماعي ستخضع لمراقبة شديدة من حيث كيفية عملها، وقد تتحمل الشركات التكنولوجية درجة أعلى من المسؤولية عن أثر المحتوى الذي يولده المستخدمون.

إن مخاطر الذكاء الاصطناعي التي وصفتها نائبة الرئيس التنفيذي لمفوضية الاتحاد الأوروبي، مارغريث فيستاغر، واسعة الانتشار. وقد شددت على المخاوف المتعلقة بمستقبل الثقة في المعلومات، والتعرض للتلاعب الاجتماعي على يد أطراف خبيثة، والمراقبة الواسعة النطاق.

اقرأ أيضاً: دليل سريع إلى أهم قانون لم تسمع به عن الذكاء الاصطناعي

قالت فيستاغر للمراسلين الصحافيين مؤخراً: “إذا انتهى بنا المطاف إلى وضع لم نعد نؤمن فيه بشيء على الإطلاق، فهذا يعني أننا دمرنا مجتمعنا بالكامل”.