ما تحدّيات حوكمة تكنولوجيا المعلومات في عصر الذكاء الاصطناعي؟

4 دقيقة
ما تحدّيات حوكمة تكنولوجيا المعلومات في عصر الذكاء الاصطناعي؟
حقوق الصورة: shutterstock.com/UnderhilStudio
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

بتسارع غير مسبوق، تتطور تقنيات الذكاء الاصطناعي لتشمل شتى مجالات الحياة؛ من الطب إلى النقل واللوجستيات والتعليم وسلاسل الإمداد وغيرها. وبحسب النشرة الربعية  للأمن السيبراني الصادرة عن الهيئة الوطنية السعودية للأمن السيبراني، فمن المتوقع أن يشهد العالم نمواً في استخدام الذكاء الاصطناعي بنسبة 25.7% لمعدل النمو السنوي حتى عام 2030، والتي أصبح معها من الصعب مواكبة هذه التطورات ذات الأثر الكبير على الفرد و المجتمع والتطور في حياتنا اليومية والبيئة المحيطة بنا، وكذلك على فرص الابتكار.

 هذا كله جعل من حوكمة تقنيات الذكاء الاصطناعي واحدة من أكبر التحديات التي تواجه المجتمع التقني، حيث إن وجود حوكمة فعّالة أصبح أمراً ضرورياً ومُلحاً لضمان التوسع في استخدام هذه التقنيات وتبنيها بشكلٍ مسؤول وأخلاقي، والتي تمثّل وضع إطار قانوني وتنظيمي مدروس ومتطور يهدف إلى مساعدة المؤسسات على قبول أنظمة الذكاء الاصطناعي واعتمادها، ومواجهة التحديات التي تنشأ عن هذا التطور. 

وفي يونيو/حزيران الماضي 2023 في القمة العالمية للذكاء الاصطناعي من أجل الصالح العام التي ينظّمها الاتحاد الدولي للاتصالات في جنيف، أكد الأمين العام للأمم المتحدة أنطونيو غوتيريش، أن تطوير الذكاء الاصطناعي “من أجل الصالح العام” يتطلب ضوابط متجذرة في حقوق الإنسان والشفافية والمحاسبة، والتي أكد فيها الحاجة الماسة للتوصل إلى إجماع بشأن ما يجب أن تكون عليه القواعد الإرشادية لاستخدام الذكاء الاصطناعي.

وفي هذا السياق سنحاول إلقاء نظرة على أهم هذه التحديات مع الحلول الخاصة بها:

اقرأ أيضاً: كيف يمكن استخدام الذكاء الاصطناعي لدفع الحوكمة البيئية والاجتماعية وحوكمة الشركات؟

الاعتبارات الأخلاقية 

يعتبر الجانب الأخلاقي من أهم التحديات التي تتمثل في التحيز والعدالة، حيث يمكن لخوارزميات الذكاء الاصطناعي أن تتبنى التحيزات الموجودة في بيانات التدريب وتنقلها، ما يؤدي إلى نتائج وقرارات غير عادلة ومتوازنة. وفقاً لدراسة حديثة أجراها “مركز الأبحاث الرقمية في الإمارات”، فإن 37% من الشركات التي تستخدم الذكاء الاصطناعي لم تتبع إجراءات لتقليل التحيز في أنظمتها. وعلى سبيل المثال، أوقفت شركة أمازون استخدام إحدى خوارزمية التوظيف بعد أن وجدت أنها تفضّل المتقدمين بناءً على كلمات مفتاحية معينة كانت أكثر شيوعاً في السير الذاتية للرجال.

حيث يجب التركيز على أن تكون الحوكمة حازمة في التعامل مع قضايا التحيز وضمان العدالة في تطبيقات الذكاء الاصطناعي؛ من خلال التأكد من أنواع البيانات المستخدمة في التدريب، وتوسيع استخدام أنواع مختلفة من البيانات ذات طابع غير متحيز، والاستمرار بالمراقبة للنتائج لضمان الامتثال والاستمرار بالتطوير عند الحاجة.

اقرأ أيضاً: كيف يمكن أن يساعد الذكاء الاصطناعي في تحقيق أهداف البيئة والمجتمع والحوكمة؟

الامتثال لقوانين خصوصية البيانات والمخاوف على أمن البيانات

كما نعلم يعتمد الذكاء الاصطناعي على مجموعات كبيرة من البيانات والتي من الممكن فيها انتهاك الخصوصية بسهولة، كما أن الأنظمة التي تستخدم الذكاء الاصطناعي حالها حال أنواع  الأنظمة الأخرى كلها عُرضة للاختراق وتهديد الهجمات السبيرانية، والتي يمكن من خلالها التلاعب بالبيانات أو سرقتها، ما يجعل من أهم مهام الحوكمة ضمان تدابير للتعامل مع هذه المخاطر الأمنية ووضع إطارات حوكمة بالتعامل مع حفظ وتخزين البيانات واستخدامها ومعالجتها بشكلٍ آمن، دون التأثير في فاعليتها، كما يجب الالتزام بقوانين الخصوصية وضمان أن تلتزم تطبيقات الذكاء الاصطناعي بهذه القوانين والاستمرار بالمراقبة للتأكد من الامتثال.

الرقابة البشرية

واحدة من أهم التحديات هي وجود الرقابة البشرية على تقنيات الذكاء الاصطناعي، والتي أصبح معها من الصعب وجود الرقابة مع الكم الهائل من البيانات التي تتعالج وتتبادل بين الأنظمة المختلفة، ولكن مع هذا كله فمن الضروري أن تضمن الحوكمة وجود إشراف بشري كافٍ على الأنظمة الذكية، خاصة في التطبيقات الحساسة ذات الطبيعة الخاصة. على سبيل المثال، التطبيقات المرتبطة بحياة البشر كالقيادة الذاتية والتطبيقات الطبية، وذلك لتجنب العواقب غير المقصودة.

اقرأ أيضاً: لماذا يُعد الأمن السيبراني ضرورة حيوية واستراتيجية في قطاع النفط والغاز؟

المسؤولية والتحمل والمساءلة في اتخاذ القرارات 

 من أهم ميزات استخدام الذكاء الاصطناعي قدرة هذه الأنظمة الذكية على اتخاذ القرارات بشكلٍ ذاتي، والتي تساعد بدورها على تسريع الإجراءات، ويصبح معها من الصعب تحديد المسؤولية في اتخاذ هذه القرارات. ومن هذا المنطلق يجب على إطارات الحوكمة تحديد هياكل المسؤولية بشكلٍ واضح ودقيق لنتائج الذكاء الاصطناعي، واستثناء بعض النتائج الحساسة من ذلك والتي تحتاج إلى مراجعة بشرية.

إيجاد الكوادر البشرية المؤهلة والمدربة

بسبب السرعة العالية في انتشار تطبيقات الذكاء الاصطناعي، أصبحت مجاراة هذه السرعة في إيجاد الكوادر البشرية المؤهّلة والمدربة والمواكِبة لهذه التغييرات صعبة، وهي تساعد على بناء حوكمة فعّالة والإشراف عليها، حيث يجب أن يزيد الإنفاق على تدريب الكوادر بالسرعة المطلوبة لذلك. وبحسب الهيئة السعودية للبيانات والذكاء الاصطناعي (SDAIA)، من المتوقع أن يتجاوز الإنفاق العالمي على الذكاء الاصطناعي عام 2024 الـ 412.5 مليار ريال، مع 97 مليون وظيفة جديدة ستظهر بسبب الذكاء الاصطناعي بحلول عام 2025، و69% من الأعمال الروتينية التي يؤديها المدراء حالياً ستكون مؤتمتة بالكامل عام 2024.

اقرأ أيضاً: كيف يمكن للمؤسسات الاستفادة من القدرات الكبيرة للذكاء الاصطناعي؟

التوافق والاتساق

غالباً ما تشمل أنظمة الذكاء الاصطناعي تقنيات ومنصات متعددة. يجب على الحوكمة التعامل مع تحديات التوافق والاتساق لضمان التكامل السلس والتعاون بين مكونات الأنظمة المختلفة؛ حيث إن النقص في التوحيد في تطوير ونشر أنظمة الذكاء الاصطناعي يمكن أن يجعل الحوكمة أكثر تعقيداً، إذ إنها بحاجة إلى إنشاء معايير واضحة يمكن أن تساعد على ضمان الاتساق والتوافق بين الأجزاء المختلفة للأنظمة.

قياس حوكمة الذكاء الاصطناعي

من باب “ما لا يمكنك قياسه، لا يمكنك إدارته” تحتاج المؤسسات إلى العمل بشكلٍ فاعل على وضع مؤشرات قياس أداء واضحة وفعّالة، ومتابعة كفاءة وفاعلية وجودة المخرجات لأطر الحوكمة أنظمة الذكاء الاصطناعي، والتي تسهم في المساعدة على اتخاذ أفضل القرارات والتحسين المستمر وتقليل المخاطر والمواءمة مع استراتيجية المؤسسة. 

وبناءً على ما سبق كلها، يتضح لنا أن التعامل مع هذه التحديات ضرورة مُلحة، كما يتعين تبني نهج شامل واستباقي لحوكمة تقنيات الذكاء الاصطناعي وإنشاء أطر تنظيمية تحكم تطويرها ونشرها واستخدامها، يشمل التعاون بين المحترفين في مجال تكنولوجيا المعلومات، والخبراء القانونيين، وصانعي السياسات، والمؤسسات والهيئات الحكومية.

اقرأ أيضاً: كيف تسهم ذهنية الثقة الصفرية في تعزيز الأمن السيبراني للشركات؟

 ومن هذا الباب كان للملكة العربية السعودية قصب السبق في هذا المجال، حيث أنشأت هيئة مختصة في الذكاء الاصطناعي باسم الهيئة السعودية للبيانات والذكاء الاصطناعي (SDAIA) ومن أهدافها حوكمة البيانات والذكاء الاصطناعي، وقامت ببناء العديد من أطر الحوكمة. على سبيل المثال مبادئ أخلاقيات الذكاء الاصطناعي، حيث إنه من المهم لجميع دولنا بناء وتحديث ومراجعة الإطارات الحوكمية بانتظام، لمواكبة الطبيعة الديناميكية لتطوير تكنولوجيا الذكاء الاصطناعي في عالم متسارع جداً لا مكان فيه لمن يراوحون مكانهم.