الوجه الآخر للذكاء الاصطناعي التوليدي: تقرير من شركة سعودية عن مخاطر الذكاء الاصطناعي

5 دقائق
الوجه الآخر للذكاء الاصطناعي التوليدي: تقرير من شركة سعودية عن مخاطر الذكاء الاصطناعي
حقوق الصورة: shutterstock.com/LuckyStep
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

أجرت الشركة السعودية لتقنية المعلومات (سايت)، المختصة بالأمن السيبراني وحلول السحابة، بحثاً معمّقاً في مخاطر الذكاء الاصطناعي التوليدي، وطرحت حلولاً لمعالجتها بشكلٍ عاجل، وذلك بالاستعانة بخبراء في الذكاء الاصطناعي والبيانات والأمن السيبراني، وحددت المخاطر العشرين الكبرى له، وقد جُمعت النتائج في تقرير مطوّل بعنوان “الوجه الآخر للذكاء الاصطناعي التوليدي”.

يوضّح التقرير أن معظم مخاطر الذكاء الاصطناعي التوليدي تنبع من قدرته على التعلم السريع والتطور الذاتي المستمر دون الحاجة في كثيرٍ من الأحيان إلى تدخل الإنسان، وهذا قد يؤدي في نهاية المطاف إلى تفوق الآلة على صانعها وتجاوز قدراته وسيطرته. لذلك ينبغي على العالم أن يتحرك بشكلٍ عاجل لوضع ضوابط وقوانين تحكم استخدام الذكاء الاصطناعي وتضمن سلامة البشرية.

المخاطر العشرون للذكاء الاصطناعي التوليدي

صنّف التقرير المخاطر العشرين ضمن فئات أساسية، تطول العديد من الجوانب التي تهم البشرية، وفيما يلي نظرة سريعة على هذه المخاطر: 

المخاطر السياسية 

  • التأثير على الرأي العام والتلاعب به: عن طريق توظيف القدرات المتقدمة للذكاء الاصطناعي التوليدي في إنتاج التقارير والصور ومقاطع الفيديو المفبركة، التي يصعب تمييزها عن تلك التي يصممها البشر، واستخدامها في انتحال الشخصيات السياسية المؤثرة لتحقيق أهداف مثل زعزعة استقرار المجتمعات والحكومات. 
  • تمكين الهجمات السيبرانية والتجسس بين الدول المتنازعة: يوفّر الذكاء الاصطناعي التوليدي أيضاً فرصة للدول المتنازعة للتجسس وتمكين الهجمات السيبرانية وتصنيع الأسلحة ذاتية التحكم والطائرات المسيَّرة، ما يؤدي إلى توتر العلاقات الدولية وتصعيد الحروب السيبرانية والعسكرية، وجعل العمليات والهجمات التي تقودها دولٌ ضد أخرى أكثر ضراوة، بل قـد يؤدي ذلك إلى إقحام دول جديدة في الصراع السيبراني.  
  • تعزيز الشركات التقنية الكبرى قوة دولها: تزيد بذلك تأثيرها السياسي والاقتصادي والاجتماعي بشكلٍ أكبر عبر الذكاء الاصطناعي، وذلك لامتلاك هذه الشركات ثلاث ميزات تنافسية هي: امتلاك كميات ضخمة من البيانات، والموارد والقوة الحوسبية والجيوسياسية، ما يعزز سيادة هذه الدول الوطنية وتأثيرها الدولي.
  • انكشاف المعلومات الحساسة والحرجة لجهات وطنية أو شركات أو شخصيات مهمة: عند استخدام برامج الذكاء الاصطناعي، لا سيّما تلك التي تمتلكها شركات أجنبية وتستضيفها وتديرها، وبالتالي تعرضها للاستغلال والتلاعب والتهديد من قِبل أصحاب النوايا السيئة. 

اقرأ أيضاً: كيف يساعد التركيز على تطبيقات الذكاء الاصطناعي العادية في درء مخاطره العسكرية؟

المخاطر الاقتصادية 

  • زيادة البطالة وفقدان البعض وظائفهم: قد تؤدي قدرات الذكاء الاصطناعي التوليدي إلى استبداله بالبشر في بعض الوظائف، وبالتالي التأثير على سوق العمل عموماً وانتشار البطالة، وذلك نتيجة قدرات الذكاء الاصطناعي التي تضاهي قدرات البشر في بعض الأحيان، وإمكانية أتمتة المهام، ما قد يوفّر التكاليف ويرفع الإنتاجية.
  • إفلاس الشركات أو زيادة خسائرها: قد يؤدي الذكاء الاصطناعي إلى إفلاس أو خسائر للشركات التي تعتمد في أعمالها على تقديم خدمات يمكنه القيام بها، مثل وكالات التسويق وخدمة العملاء وبعض المؤسسات التعليمية. يؤدي ذلك إلى اضطراب الأسواق المالية والقطاعات التجارية والتأثير على توازنها. 
  • الاحتكار الاقتصادي والمالي للشركات التقنية الرائدة في مجال الذكاء الاصطناعي: بالإضافة إلى المجالات المتعلقة به كعمل المطورين والمشغلين وموفري الخدمات السحابية ومصنّعي المعدات. وقد يضر ذلك بالمنافسة في الاقتصاد الرقمي، خاصة بسبب قلة الكفاءات المتخصصة، واحتكار الموارد وبراءات الاختراع، والحاجة إلى رأس مال استثماري أكبر مع التقدم التقني الكبير. 
  • اتساع الفجوة الاقتصادية والرقمية بين ميسوري الموارد ومحدودي الموارد: ويكون ذلك على مستوى الدول والأفراد؛ أي أن الأفراد والمؤسسات التي تمتلك موارد كافية تمكّنها من الاستفادة من قدرات الذكاء الاصطناعي ستزداد إنتاجيتها، بينما سيتضرر الأفراد محدودو الدخل والتعليم، والدول النامية.

اقرأ أيضاً: هل نحن أمام مخاطر وجودية فعلاً من الذكاء الاصطناعي؟

المخاطر الاجتماعية 

  • التحيز: قد “تُهلوس” نماذج الذكاء الاصطناعي التوليدي، وتعطي نتائج ومعلومات خاطئة أو متحيزة ضد عرق أو جنس أو ديانة. يؤدي نشر هذه المعلومات إلى صناعة محتوى مضلل ومزيف، ما قد يتسبب في أضرار اجتماعية، فالمعلومة الخاطئة قد تؤدي إلى اتخاذ قرارات خاطئة. 
  • تزييف المحتوى والتضليل: يستغل البعض أدوات الذكاء الاصطناعي التوليدي لأغراض ضارة بالآخرين، مثل تزييف المحتوى بغرض التخويف أو التلاعب أو التحريض، أو توليد محتوى يسهم في نشر الكراهية أو العنف مثل الاطلاع على طرق تصنيع الأسلحة أو الدعوة للانتحار، أو نشر المحتوى الإباحي أو تصنيع المخدرات والمواد المحظورة. 
  • إضعاف قدرات المستخدمين على التحليل والتفكير الإبداعي: الاعتماد المتزايد عليه في العمل والتعليم والحياة اليومية قد يؤدي إلى إضعاف قدرات المستخدمين على التحليل النقدي والإنتاج الفكري والإبداعي، وعدم تلبية الغرض من العملية التعليمية في المدارس والجامعات.
  • تهديد الروابط الاجتماعية والاستقرار الأمني والنفسي: فالتفاعل اليومي لملايين الناس مع أنظمة الذكاء الاصطناعي قد يؤدي إلى مشكلات أمنية كانتحال الشخصيات، ومشكلات نفسية كزيادة العزلة والوحدة وزيادة معدلات القلق والاكتئاب.

اقرأ أيضاً: أهم 5 مخاطر ومسائل أخلاقية مرتبطة باستخدام الذكاء الاصطناعي

المخاطر التقنية 

  • تهديد الأمن السيبراني: وتفاقمت الهجمات والاختراقات بشكلٍ كبير نظراً لقدرة بعض أنظمة الذكاء الاصطناعي التوليدي على اكتشاف الثغرات وتوليد البرامج الضارة والروبوتات الخبيثة.
  • انتهاك خصوصية البيانات وكشف المعلومات الشخصية والحساسة: سواء كانت خاصة بالحكومات أو المؤسسات أو الأفراد، حيث يتم تدريب الكثير من نماذج الذكاء الاصطناعي التوليدي على كميات هائلة من البيانات التي تم الحصول عليها من مصادر عديدة. 
  • زعزعة الثقة في المحتوى الرقمي والهوية الرقمية: الإنتاج المؤتمت للمحتوى الرقمي، من نصوص وصور وغيرها، قد يزعزع الثقة في المحتوى الرقمي والهوية الرقمية، لأن النتائج غير قابلة للتميز غالباً لدى معظم الأشخاص عن تلك التي ينتجها البشر، ما يقلل الثقة في مصداقية مخرجاته لدى المستخدمين، وفي هوية الأفراد في التواصل عن بُعد.
  • فقدان السيطرة على الذكاء الاصطناعي: مع التطور المتسارع لأبحاثه، والخوف من الوصول إلى الذكاء الاصطناعي العام الذي يمكّن الآلة من التفكير والتصرف بشكلٍ مستقل. 

اقرأ أيضاً: خطر داهم سيدمر حضارة البشر: مطورو الذكاء الاصطناعي يتبرؤون منه!

المخاطر القانونية 

  • انتهاك حقوق الملكية الفكرية: إن جمع البيانات من الإنترنت لتدريب نماذج الذكاء الاصطناعي دون أخذ الإذن من أصحابها يُعد انتهاكاً لحقوق الملكية الفكرية واستخداماً للأصول الإبداعية للأشخاص، وذلك لعدم أخذ الموافقات والتراخيص من مالكي الحقوق الفكرية
  • انتهاك قوانين حماية البيانات الشخصية والحساسة وحقوق الإنسـان: نظراً لطريقة التعامل مع البيانات الضخمة والممارسات التجارية التي تطبّقها معظم الشركات المطورة لأنظمة الذكاء الاصطناعي، وانتهاك قوانين المنافسة العادلة التي تمنع الممارسات الاحتكارية بين الشركات وتركّز السيطرة في سوق الذكاء الاصطناعي على عدة شركات كبرى متحكمة في البنية التحتية أو الاستحواذ على الشركات الناشئة. 

اقرأ أيضاً: هل يهددنا الذكاء الاصطناعي بذكائه أم أنها رومانسيتنا وغباؤه؟

المخاطر البيئية 

  • زيادة التلوث البيئي: بسبب الاستهلاك المتزايد للطاقة، لأن عملية تدريب النماذج التوليدية تنتج أطناناً من انبعاثات ثاني أوكسيد الكربون.
  • هدر كميات هائلة من المياه العذبة: في تبريد الخوادم ومراكز البيانات والأجهزة التي تُستخدم في تدريب وإدارة النماذج التوليدية، ما قد يُفاقم أزمة المياه عالمياً.  

التوصيات المقترحة

إن المخاطر والتهديدات الناجمة عن انتشار استخدام الذكاء الاصطناعي التوليدي تؤكد أهمية الاستجابة الوطنية والدولية العاجلة للحد من آثارها، وقد أورد التقرير مجموعة من التوصيات لتعزيز جهود الجهات الوطنية في هذا المجال، ولخّصها كالآتي:

  • تطوير أو استحداث التشريعات الوطنية ذات العلاقة: بما في ذلك تطوير ضوابط الأمن السيبراني لأنظمة الذكاء الاصطناعي وتطبيقاته، ومراجعة ضوابط ومواصفات إدارة البيانات الوطنية وحوكمتها وحماية البيانات الشخصية لضمان شموليتها. بالإضافة إلى مراجعة وثيقة مبادئ أخلاقيات الذكاء الاصطناعي لضمان شموليتها، وتطوير ضوابط ومواصفات استخدام الذكاء الاصطناعي التوليدي من قِبل الجهات الوطنية، ومراجعة السياسات والأنظمة والتشريعات الوطنية الأخرى ذات العلاقة.
  • توطين الذكاء الاصطناعي وتحسين البنية التحتية الرقمية الوطنية: بما في ذلك توطين نماذج الأساس، وتوفير مراكز البيانات والحوسبة السحابية فائقة الأداء، وتصنيع المعدات والأجهزة التقنية المتقدمة. بالإضافة إلى التركيز على بناء القدرات البشرية الوطنية في الذكاء الاصطناعي والبيانات، وتطوير قدرات الجهات الوطنية في التعامل مع البيانات، وتوجيه صناديق الاستثمار والشركات الوطنية للاستثمار في الذكاء الاصطناعي.
  • دعم البحث والتطوير والابتكار: من خلال تطوير بيئة تشريعية تجريبية تختصُّ بتقنيات الذكاء الاصطناعي التوليدي، وتطوير وابتكار تقنيات الذكاء الاصطناعي التوليدي في تعزيز الأمن الوطني والأمن السيبراني، وتضمينه كإحدى الأولويات الوطنية في الأبحاث والتطوير والابتكار، ومواءمة جهود الجهات الوطنية في استراتيجيات التعامل مع الذكاء الاصطناعي ومبادراته.

اقرأ أيضاً: 3 مخاطر حقيقية موثقة لاستخدام أنظمة الذكاء الاصطناعي

وقد ختم التقرير التوصيات بالحث على تطوير آلية لقياس نضج الجهات الوطنية في تبني الذكاء الاصطناعي، وتعزيز جهود الجهات الوطنية في التعاون الدولي، وجهود الجهات الوطنية في التوعية والتثقيف.