X
Article image
مصدر الصورة: سيمون نيرونيا
Article image

مصدر الصورة: سيمون نيرونيا

قضايا منوعة حب

لا يوجد سوى بضعة مشرعين يدركون فعلياً ما يتحدثون عنه، ولكن هذا أفضل من لا شيء كبداية.

طرح المشرعون الأميركيون مؤخراً مشروع قانون جديد يمثل أولى المحاولات الكبيرة في البلاد لتنظيم الذكاء الاصطناعي، ومن المرجح أنها لن تكون المحاولة الأخيرة.

يشير هذا المشروع إلى نقلة كبيرة في موقف واشنطن من إحدى أهم التكنولوجيات في هذا القرن. فمنذ بضع سنوات، لم يكن لدى صانعي السياسات مَيلٌ يُذكر نحو تنظيم الذكاء الاصطناعي. أما الآن، وقد أصبحت عواقب هذا الانكفاء محسوسة بشكل متزايد، فقد بدأت مجموعة صغيرة في الكونجرس بقيادة إستراتيجية واسعة للجم هذه التكنولوجيا.

على الرغم من أن الولايات المتحدة ليست الوحيدة التي تحاول تحقيق هذا الغرض –فقد قامت بلدان أخرى بوضع مشاريع قوانين أو إصدار قوانين لتحميل الشركات التكنولوجية مسؤولية عمل خوارزمياتها، مثل المملكة المتحدة وفرنسا وأستراليا- إلا أنها تتمتع بفرصة فريدة لتأطير التأثير العالمي للذكاء الاصطناعي، كونها موطن وادي السيليكون. يقول بينديرت زيفينبيرجين، وهو مستشار سابق للسياسة التكنولوجية في البرلمان الأوروبي ويعمل حالياً باحثاً في جامعة برينستون: “إحدى المشاكل في أوروبا هي أننا لسنا في صدارة تطوير الذكاء الاصطناعي، بل نحن أشبه بمستهلكين لهذه التكنولوجيا في الكثير من النواحي. نحن في المرتبة الثانية من دون شك، حيث تحتل المرتبة الأولى كل من الولايات المتحدة والصين”.

ويحمل المشروع الجديد اسم قانون المسؤولية الخوارزمية، وهو يُلزم الشركات الكبيرة بتدقيق أنظمة التعلم الآلي فيها بحثاً عن التحيز والتمييز، واتخاذ الإجراءات اللازمة لتصحيح الوضع في أسرع وقت ممكن إذا تم اكتشاف هذه المشاكل. كما يتطلب من هذه الشركات ألا يقتصر تدقيقها على أنظمة التعلم الآلي، بل يمتد أيضاً إلى جميع العمليات المتعلقة بالبيانات الحساسة –بما فيها المعلومات الشخصية ومعلومات القياسات الحيوية والمعلومات الجينية- من أجل تحديد مشاكل الحماية والخصوصية.

وإذا تم إقرار هذا القانون، فسوف تصبح سلطة تطبيقه في يد مفوضية التجارة الفدرالية الأميركية، وهي الوكالة المسؤولة عن حماية المستهلك ومكافحة الاحتكار. وتمثل مسودة التشريع النتيجة الأولية لعدة أشهر من النقاشات بين المشرعين والباحثين وغيرهم من الخبراء، وذلك لحماية المستهلكين من الآثار السلبية للذكاء الاصطناعي، كما تقول موتالي نكوندي، وهي باحثة في معهد أبحاث البيانات والمجتمع وأحد المشاركين في هذه العملية.

وقد أتى هذا العمل استجابةً لعدة أحداث هامة في السنة الماضية تثبت مدى الأذى الذي يمكن أن يحدثه تحيز الخوارزميات في الكثير من الأوضاع، مثل أداة التوظيف الداخلية في أمازون التي كانت تتعامل بسلبية مع المرشحات الإناث، والمنصات التجارية لتحليل الوجوه والتعرف عليها التي كانت أقل دقة فيما يتعلق بالنساء سمراوات البشرة مما في حالة الرجال ذوي البشرة الفاتحة، وأحدث هذه المشاكل: خوارزمية توصية الإعلانات في فيسبوك، التي كانت تتسم بالتمييز من حيث إعلانات التوظيف والإسكان، بغض النظر عن الجمهور الذي يرغب المعلِن في استهدافه.

حاز مشروع القانون على ثناء الكثيرين في أوساط أخلاقيات وأبحاث الذكاء الاصطناعي، بوصفه خطوة هامة وضرورية نحو حماية الناس من هذه الآثار السلبية المتفاوتة، فقد كتب الأكاديمي المختص بالتكنولوجيا والقانون في معهد أبحاث البيانات والمجتمع آندرو سيلبست على تويتر: “إنها خطوة أولى رائعة، وتحتاج إلى التوثيق والتقييم ومحاولة التعامل مع الآثار المتوقعة، وهو أمر جديد وضروري للغاية”.

غير أن العمل لن يقتصر على هذه الخطوة. حيث إن المشروع المقترح -كما تقول نكوندي- هو جزء من إستراتيجية أكبر لفرض الإشراف القانوني على أية عمليات أو منتجات تتعلق بالذكاء الاصطناعي في المستقبل. ومن المرجح طرح مشروع آخر قريباً للتعامل مع نشر المعلومات المزيفة -بما فيها التزييف العميق- بوصفها خطراً على الأمن القومي، وفقاً لنكوندي. كما طُرح مؤخراً مشروع قانون آخر لحظر الممارسات التصميمية التي تستخدمها الشركات التكنولوجية العملاقة للتلاعب بالمستخدمين للحصول على بياناتهم، وتصف نكوندي هذه المشاريع بأنها “هجوم متعدد الأطراف”.

وقد تمت صياغة كل من هذه المشاريع بشكل موسع وشامل للعديد من منتجات وعمليات البيانات للذكاء الاصطناعي في عدة مجالات. ومن أحد التحديات التي واجهت واشنطن هي أن بعض التكنولوجيات، مثل التعرف على الوجوه، يمكن استخدامها لأهداف مختلفة للغاية في عدة مجالات، مثل فرض القانون وصناعة السيارات وحتى التجارة بالتجزئة. تقول نكوندي: “من وجهة نظر قانونية، فإن منتجاتنا تُحدد وفق المجال الذي تُستخدم فيه. ولهذا فإن الجهات المنظمة المختصة بالسيارات تختلف عن تلك المختصة بالتعاقدات مع القطاع العام وتلك المختصة بالأدوات المنزلية”.

ويحاول الكونجرس أن يجد أساليب لإعادة بناء الهيكلية التنظيمية التقليدية للتعامل مع هذا الواقع الجديد. ولكن هذا سيكون صعباً دون فرض حلول شاملة لجميع الأوضاع المختلفة. يقول زيفينبيرجين: “نظراً لاستخدام تكنولوجيا التعرف على الوجوه في العديد من المجالات، لن يكون من السهل أن نقول ببساطة: هذه هي القواعد التي يجب اتباعها فيما يتعلق بالتعرف على الوجوه”.

وتتوقع نكوندي أن يؤدي هذا النشاط التشريعي في نهاية المطاف إلى إنشاء مكتب أو وكالة جديدة بشكل خاص للتركيز على التكنولوجيات المتطورة، ولكن هذا لن يحدث بسهولة. فعلى الرغم من أن حماية الناس ضد المعلومات المزيفة وأساليب التلاعب لجمع البيانات مسألة تحوز على دعم كلا الحزبين الرئيسيين، فإن قانون المسؤولية الخوارزمية طُرح بدعم ثلاثة ديمقراطيين، مما يقلل من احتمال إقراره من قِبل مجلس شيوخ يسيطر عليه الجمهوريون أو توقيعه من قبل الرئيس ترامب. إضافة إلى ذلك، لا توجد حالياً سوى حفنة من أعضاء الكونجرس ممن لديهم معرفة كافية بالبيانات والتعلم الآلي للتعامل مع تفاصيل التشريع بشكل فعال. تقول نكوندي: “ما زالت هذه الأفكار والمقترحات ضيقة النطاق إلى حد ما حالياً. يوجد حوالي ثلاثة أو أربعة أفراد ممن يفهمونها فعلياً”.

ولكن نكوندي ما زالت متفائلة، حيث إن جزءاً من الإستراتيجية المستقبلية يتضمن تثقيف المزيد من أعضاء الكونجرس حول هذه المسائل لإشراكهم بشكل أكثر فعالية في العملية: “عندما تثقفهم حول ما تتضمنه هذه القوانين ومع تزايد دعم هذه المشاريع، سينتقل هؤلاء الأفراد بشكل متزايد نحو مركز العملية التشريعية إلى أن يصبح تشريع وتنظيم الصناعات التكنولوجية مسألة اعتيادية”.

المزيد من المقالات حول الذكاء الاصطناعي

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!