أين وصلنا في سباق وضع قواعد لأخلاقيات الذكاء الاصطناعي؟

6 دقائق
أين وصلنا في سباق وضع قواعد لأخلاقيات الذكاء الاصطناعي؟
حقوق الصورة: shutterstock.com/Sansoen Saengsakaorat
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

يوفّر الذكاء الاصطناعي فرصاً غير مسبوقة للقطاعات والشركات جميعها، ولكن في الوقت نفسه يتطلب مسؤولية لا تصدق؛ حيث إن تأثيره المباشر في حياة الناس يُثير الكثير من التساؤلات حول أين وصلنا في وضع قواعد أخلاقية تحكم استخدامه، لذا يُعد تطوير المبادئ التوجيهية الأخلاقية خطوة مهمة في ضمان استخدام الذكاء الاصطناعي بطريقة آمنة ومسؤولة.

الذكاء الاصطناعي يُغيّر اللعبة في مختلف القطاعات

لعقودٍ من الزمن كان ولا يزال الذكاء الاصطناعي المحرك للعديد من القطاعات مثل أبحاث العلوم والتكنولوجيا والهندسة والرياضيات، كما أصبح معظم المستهلكين على دراية بقوة هذه التكنولوجيا وإمكاناتها من خلال منصات الإنترنت مثل جوجل وفيسبوك ومتاجر التجزئة.

حيث يُعد استخدام الذكاء الاصطناعي اليوم ضرورياً عبر مجموعة واسعة من القطاعات، لكن وعدها بتغيير قواعد اللعبة بالقيام بأشياء مثل تحسين الكفاءة، وخفض التكاليف، وتسريع البحث والتطوير، يترافق بالمخاوف من أن هذه الأنظمة المعقدة الغامضة قد تلحق ضرراً مجتمعياً أكثر من نفعها الاقتصادي.

فمع عدم وجود أي إشراف من الحكومات تقريباً، أصبحت الشركات الخاصة تستخدم الأدوات المدعومة بالذكاء الاصطناعي لاتخاذ قرارات مهمة دون الاضطرار إلى الإجابة عن كيفية استخدامها، وقد وصل إنفاق الشركات العالمية على الذكاء الاصطناعي عام 2020 إلى 50 مليار دولار، ومن المتوقع أن يصل إلى 110 مليارات دولار سنوياً بحلول عام 2024 مع استمرار الشركات والمؤسسات بنشر الذكاء الاصطناعي كجزء من جهود التحول الرقمي الخاصة بها، والبقاء قادرة على المنافسة في الاقتصاد الرقمي.

اقرأ أيضاً: كيف نطوّر الذكاء الاصطناعي المسؤول الذي ينفع المجتمع؟

لماذا من الضروري وضع قواعد أخلاقية تحكم استخدام الذكاء الاصطناعي؟

أخلاقيات الذكاء الاصطناعي (AI Ethics) هي فرع من الأخلاقيات يدرس المبادئ والقيم الأخلاقية التي تحكم تطوير أنظمة الذكاء الاصطناعي ونشرها واستخدامها، وهو يشمل مجموعة واسعة من القضايا، ولكن من المهم ملاحظة أنه لا توجد مجموعة واحدة من القواعد الأخلاقية للذكاء الاصطناعي متفق عليها عالمياً.

ومع ذلك، فإن تطوير المبادئ التوجيهية الأخلاقية يُعد خطوة مهمة في ضمان استخدام الذكاء الاصطناعي بطريقة آمنة ومسؤولة. فيما يلي بعض القضايا الرئيسية التي تؤخذ في الاعتبار في السباق لوضع قواعد أخلاقية للذكاء الاصطناعي:

  • التحيز والتمييز: يمكن أن تكون أنظمة الذكاء الاصطناعي متحيزة ضد مجموعات معينة من الأشخاص، مثل الأقليات أو النساء.
  • الشفافية والمساءلة: يمكن أن تكون أنظمة الذكاء الاصطناعي معقدة وغامضة، ما يجعل من الصعب فهم كيفية اتخاذ القرارات.
  • الخصوصية والأمان: يمكن لأنظمة الذكاء الاصطناعي جمع كميات كبيرة من البيانات الشخصية وتخزينها دون موافقة المستخدمين.
  • التحكم البشري: يجب أن تكون أنظمة الذكاء الاصطناعي دائماً خاضعة لسيطرة البشر، لذا من المهم التأكد من قدرة البشر دائماً على تجاوز قرارات الذكاء الاصطناعي.

اقرأ أيضاً: هل نستطيع وضع قواعد أخلاقية للذكاء الاصطناعي؟

ما المبادئ الأخلاقية الرئيسية في الذكاء الاصطناعي؟

إن تطوير القواعد الأخلاقية للذكاء الاصطناعي عملية معقدة ومستمرة، ومع ذلك فهي خطوة مهمة في ضمان استخدام الذكاء الاصطناعي لتحقيق الصالح العام، ومن ثَمَّ عند تطويرها يجب أخذ المبادئ التالية بعين الاعتبار:

  • عدم الإيذاء: ينبغي ألّا تسبب أنظمة الذكاء الاصطناعي أي ضرر، ويجب أن يسترشد تطويرها واستخدامها بمبدأ عدم الإضرار.
  • النفع: ينبغي تصميم أنظمة الذكاء الاصطناعي لتعود بالنفع على البشرية وتعزيز رفاهية الأفراد والمجتمع.
  • الاستقلالية: ينبغي أن يتمتع الأفراد بالقدرة على اتخاذ خياراتهم وقراراتهم دون أي تأثير غير مبرر من أنظمة الذكاء الاصطناعي.
  • العدالة: ينبغي أن تكون أنظمة الذكاء الاصطناعي عادلة وغير متحيزة وألّا يوجد تمييز ضد الأفراد أو المجموعات.
  • الشفافية: ينبغي أن تكون أنظمة الذكاء الاصطناعي منفتحة وشفافة بحيث يمكن فهم عمليات اتخاذ القرار والتدقيق فيها.
  • المساءلة: يجب أن تكون هناك مسؤولية واضحة عن تطوير أنظمة الذكاء الاصطناعي ونشرها واستخدامها.
  • الخصوصية: ينبغي أن يكون حماية خصوصية الأفراد من ضمن الأولويات الرئيسية.
  • السلامة: ينبغي أن تكون أنظمة الذكاء الاصطناعي آمنة وألا تشكل خطراً على الأفراد أو المجتمعات.
  • التأثير الاجتماعي: ينبغي أخذ التأثير الاجتماعي لأنظمة الذكاء الاصطناعي في الاعتبار وأن يسترشد تطويرها واستخدامها بمبدأ الابتكار المسؤول.

اقرأ أيضاً: شركات ناشئة تساعد الشركات الأخرى في توفير متطلبات أخلاقيات الذكاء الاصطناعي

أين وصلنا في سباق وضع قواعد لأخلاقيات الذكاء الاصطناعي؟

حالياً هناك سباق مهم يجري لوضع قواعد أخلاقية للذكاء الاصطناعي، حيث تعمل الحكومات والشركات ومراكز الأبحاث والأكاديميون على تطوير مبادئ توجيهية يمكن أن تضمن استخدام الذكاء الاصطناعي بأمان ومسؤولية، علاوة على ذلك هناك إجماع متزايد على ضرورة تطوير الذكاء الاصطناعي واستخدامه بطريقة أخلاقية وعادلة وشفافة.

هذا يعني أنه ينبغي ألّا تُستخدم أنظمة الذكاء الاصطناعي للتمييز ضد الأفراد أو المجموعات أو الإضرار بها، وينبغي تصميمها لتكون مسؤولة وقابلة للتفسير، وهناك عدد من المبادرات الجارية لوضع مبادئ توجيهية أخلاقية للذكاء الاصطناعي، أهمها:

مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي في الإمارات العربية المتحدة

أعلن مكتب مدينة دبي الذكية بدولة الإمارات العربية المتحدة في شهر يناير من عام 2019 عن إطلاق “مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي” كأول مدينة عربية تنضم إلى جهود وضع قواعد لأخلاقيات الذكاء الاصطناعي، حيث تهدف وثيقة المبادئ إلى ضرورة تحقيق الاستخدام العادل لأنظمة الذكاء الاصطناعي، وجعلها قابلة للمساءلة، وقابلة للشرح تقنياً قدر الإمكان، وتحقيق الشفافية فيها.

تتضمن الوثيقة أربعة مبادئ أساسية، هي:

  1. الأخلاقيات: تعني أن أنظمة الذكاء الاصطناعي ينبغي أن تكون عادلة وشفافة وخاضعة للمساءلة وقابلة للفهم.
  2. الأمان: تعني ضمان أن أنظمة الذكاء الاصطناعي آمنة ومسخرة لخدمة وحماية الإنسانية
  3. الشمولية: يعني أن ينفع الذكاء الاصطناعي أفراد المجتمع كافة مع احترام كرامتهم وحقوقهم.
  4. البشرية: تعني أن يكون الذكاء الاصطناعي نافعاً للبشرية ومنسجماً مع القيم الإنسانية، على المدى القصير والبعيد.

وتعالج مبادئ وإرشادات أخلاقيات الذكاء الاصطناعي قضايا مختلفة منها التحول السريع لواقع الذكاء الاصطناعي الذي أدّى إلى نهج مجزأ في الأخلاقيات، بحيث تتعامل كل شركة مع القضايا الأخلاقية بطريقتها الخاصة. وتسعى هذه المبادئ إلى توضيح الغموض المحيط بمفهوم الأخلاق في الذكاء الاصطناعي، لا سيّما أن هذا الغموض قد يؤدي -كما يعتقد البعض- إلى كبت الابتكار داخل المنشآت، التي تختار وقف جهودها البحثية تحسباً للإجراءات الحكومية المستقبلية.

اقرأ أيضاً: دليل شركات التكنولوجيا الكبرى للحديث عن أخلاقيات الذكاء الاصطناعي

التوصية بشأن أخلاقيات الذكاء الاصطناعي من الأمم المتحدة

تُعد (التوصية بشأن أخلاقيات الذكاء الاصطناعي) أولَ وثيقة عالمية ملزمة حول أخلاقيات الذكاء الاصطناعي، وقد اعتمدتها الدول الأعضاء الـ 193 في منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) في شهر نوفمبر/تشرين الثاني من عام 2021.

تهدف التوصية إلى تعزيز تطوير الذكاء الاصطناعي واستخدامه بطريقة أخلاقية وشفافة وتحترم حقوق الإنسان وكرامته، وتعتمد على ثلاثة مبادئ أساسية، هي:

  1. الشفافية والعدالة.
  2. المساءلة.
  3. الرقابة البشرية.

كما توفّر التوصية أيضاً إطاراً لتقييمات الأثر الأخلاقي لضمان توافق تطورات الذكاء الاصطناعي مع تعزيز وحماية حقوق الإنسان والكرامة الإنسانية، والاستدامة البيئية، والعدالة، والشمول، والمساواة بين الجنسين. هذه التوصية موجَّهة إلى أصحاب المصلحة جميعهم المشاركين في تطوير الذكاء الاصطناعي ونشره واستخدامه، بما في ذلك الحكومات والصناعة والمجتمع المدني والأوساط الأكاديمية والأفراد.

اقرأ أيضاً: تُرى ما الذي دعا الصين فجأة إلى الاهتمام بأخلاقيات الذكاء الاصطناعي؟

المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي من الاتحاد الأوروبي

اعتمد الاتحاد الأوروبي مجموعة من المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي، وتم تطوير الإرشادات بواسطة فريق من الخبراء رفيع المستوى معني بالذكاء الاصطناعي، ونُشرت في شهر أبريل/نيسان من عام 2019، وتهدف المبادئ التوجيهية إلى ضمان تطوير الذكاء الاصطناعي واستخدامه بطريقة أخلاقية وشفافة وتحترم الحقوق الأساسية.

وتستند المبادئ التوجيهية الأوروبية إلى ثلاثة مبادئ أساسية:

  1. احترام استقلالية الإنسان.
  2. منع الضرر.
  3. تعزيز الرفاهية.

بالإضافة إلى ذلك، توفّر المبادئ التوجيهية أيضاً قائمة بالمبادئ الأخلاقية وقائمة تقييم عملية لضمان تنفيذ هذه المبادئ بشكل سليم. علاوة على ذلك، فإن المبادئ التوجيهية موجهة إلى أصحاب المصلحة جميعهم في مجال الذكاء الاصطناعي الذين يقومون بتصميم أو تطوير أو نشر أو تنفيذ أو استخدام الذكاء الاصطناعي في الاتحاد الأوروبي أو يتأثرون به، بما في ذلك الشركات والباحثون والخدمات العامة والوكالات الحكومية والمؤسسات ومنظمات المجتمع المدني والأفراد والعمال والمستهلكين.

اقرأ أيضاً: تعرّف على الباحثة السعودية لطيفة محمد العبد الكريم وعملها بمجال أخلاقيات الذكاء الاصطناعي

قواعد أخلاقية للذكاء الاصطناعي من القطاع الخاص

تؤدي شركات القطاع الخاص دوراً مهماً في تعزيز الذكاء الاصطناعي الأخلاقي، حيث اعترف العديد من المطورين في القطاع الخاص بالتهديدات التي يشكّلها الذكاء الاصطناعي، وقد أنشأوا قواعد أخلاقية خاصة بهم لمراقبة تطوير الذكاء الاصطناعي واستخدامه بطريقة مسؤولة.

حيث يتحمل القطاع الخاص بموارده وخبراته ونفوذه الهائلين مسؤولية كبيرة للمساهمة في هذا المسعى، وفيما يلي بعض المساهمات للقطاع الخاص في وضع قواعد لأخلاقيات الذكاء الاصطناعي:

  • تشارك شركات التكنولوجيا بنشاط في تطوير المبادئ والمبادئ التوجيهية الأخلاقية للتطوير والاستخدام المسؤول للذكاء الاصطناعي. على سبيل المثال، طوّرت شركة جوجل مبادئ الذكاء الاصطناعي الخاصة بها، والتي تحدد التزام الشركة بضمان استخدام الذكاء الاصطناعي لتحقيق الخير وتوافقه مع القيم الإنسانية.
  • تجري شركات القطاع الخاص بشكلٍ متزايد تقييمات الأثر الأخلاقي (EIA) لأنظمة الذكاء الاصطناعي الخاصة بها قبل نشرها، حيث تساعد هذه التقييمات الشركات على تحديد المخاطر المحتملة والتخفيف منها، مثل التحيز والتمييز وانتهاكات الخصوصية.
  • تعمل شركات القطاع الخاص على جعل أنظمة الذكاء الاصطناعي أكثر شفافية وقابلية للتفسير، ويتضمن ذلك تزويد المستخدمين بمعلومات واضحة حول كيفية عمل أنظمة الذكاء الاصطناعي، وما البيانات التي يستخدمونها، وكيفية اتخاذ القرارات.
  • يستثمر القطاع الخاص بكثافة في البحث والتطوير لتعزيز التنمية الأخلاقية واستخدام الذكاء الاصطناعي، ويتضمن ذلك استكشاف تقنيات التخفيف من التحيز، وتطوير أساليب لضمان العدالة، وتصميم أنظمة الذكاء الاصطناعي بمسؤولية وشفافية.

ومع ذلك، يعتقد العديد من الخبراء أن التنظيم الحكومي قد يكون مطلوباً لحل مشكلات الذكاء الاصطناعي التي تتراوح من التحيز العنصري في برامج التعرف على الوجه، إلى استخدام الأسلحة ذاتية التحكم في الحرب.

اقرأ أيضاً: أهم 5 مخاطر ومسائل أخلاقية مرتبطة باستخدام الذكاء الاصطناعي

التحديات البارزة التي تحد من سرعة وضع قواعد لأخلاقيات الذكاء الاصطناعي

هناك عدد من التحديات التي تواجه وضع قواعد أخلاقية للذكاء الاصطناعي يمكن أن يلتزم بها الجميع، ومن ضمن هذه التحديات:

  • الوتيرة السريعة لتطوير الذكاء الاصطناعي: تجعل الوتيرة السريعة لتطوير أنظمة الذكاء الاصطناعي من الصعب على الجميع مواكبة أحدث التقنيات وآثارها الأخلاقية المحتملة.
  • تعقيد الذكاء الاصطناعي: يمكن أن تكون أنظمة الذكاء الاصطناعي معقدة ومبهمة، ما يجعل من الصعب فهم كيفية اتخاذ القرارات وكيفية تحديد التحيزات المحتملة والتخفيف منها.
  • عدم وجود توافق في الآراء بشأن المبادئ الأخلاقية: لا توجد وثيقة واحدة من المبادئ الأخلاقية المعترف بها عالمياً في مجال الذكاء الاصطناعي، ما يجعل من الصعب تطوير المبادئ التوجيهية الأخلاقية وتنفيذها.