3 مخاطر حقيقية موثقة لاستخدام أنظمة الذكاء الاصطناعي

4 دقائق
3 مخاطر حقيقية موثقة لاستخدام أنظمة الذكاء الاصطناعي
حقوق الصورة: shutterstock.com/Suri_Studio
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

حضرت عدة جلسات من مؤتمر رايتس كون (RightsCon) في أوائل شهر يونيو/ حزيران 2023 بينما كنت أتعافى. هذا الحدث هو أكبر مؤتمر للحقوق الرقمية في العالم، وبعد عدة سنوات من إجراء الجلسات الافتراضية حصرياً، التقى كبار علماء أخلاقيات الإنترنت والنشطاء وصانعو السياسات شخصياً في كوستاريكا.

ما لم يكن غريباً هو أن الخبراء جميعهم تحدّثوا عن الذكاء الاصطناعي وحول ازدياد الحديث عن رواج استخدام النماذج اللغوية الكبيرة. أصدرت منظّمة الأمم المتحدة قبل المؤتمر بياناً شجّعت فيه المشاركين على التركيز على الرقابة والشفافية في مجال الذكاء الاصطناعي.

مع ذلك، فوجئت بمدى اختلاف المحادثات حول مخاطر الذكاء الاصطناعي التوليدي التي خاضها الخبراء في مؤتمر رايتس كون عن تحذيرات أهم خبراء وادي السيليكون التي قرأتها في الأخبار.

في أواخر شهر مايو/ أيار وأوائل شهر يونيو/ حزيران 2023، دعت شخصيات بارزة في مجال التكنولوجيا مثل الرئيس التنفيذي لشركة أوبن أيه آي، سام ألتمان، والموظف السابق في شركة جوجل، جيف هينتون، والباحث البارز في مجال الذكاء الاصطناعي، يوشوا بنجيو، بالإضافة إلى إيلون ماسك وغيرهم الكثير إلى ممارسة الرقابة واتخاذ إجراءات عاجلة لمعالجة “المخاطر الوجودية” (التي تشمل انقراض البشر) التي يفرضها الذكاء الاصطناعي على البشرية.

اقرأ أيضاً: بوت تشات جي بي تي مبدع وسهل الاستخدام لكن مخاطره كثيرة

سعي الشركات لتحقيق الربح أولاً

لا شك في أن التطبيق السريع للنماذج اللغوية الكبيرة من دون تقييم المخاطر أو الإفصاح عن بيانات التدريب وعملياته، ومن دون إظهار الاهتمام بالطرق التي يمكن من خلالها إساءة استخدام هذه التكنولوجيا هو أمر مثير للقلق. لكن المتحدثين أكدوا في عدة جلسات من مؤتمر رايتس أن هذا الانتشار الواسع لأدوات الذكاء الاصطناعي هو نتاج سعي الشركات لتحقيق الربح، وليس بالضرورة نتيجة لنقص الكفاءة من الناحية الرقابية أو لحتمية تكنولوجيّة.

في الجلسة الأولى، ناقش كل من كبير المحررين في موقع وايرد (ورئيس التحرير السابق لمجلة إم آي تي تكنولوجي ريفيو)، غيديان ليتشفيلد، ومؤسس شبكة ديجيتال فيوتشرز لاب (Digital Futures Lab)، أورفاشي أنيجا، المستشار العام في شركة جوجل، كينت ووكر.

قال ليتشفيلد: “إن الرئيس التنفيذي لشركة مايكروسوفت، ساتيا ناديلا، ذكر أنه يريد أن يتسبب بإحداث تغيير كبير في شركة جوجل. وهذا ما حدث بالفعل. نحن الآن، جميعاً، ندلف إلى المجهول لأن هاتين الشركتين تحاولان هزيمة بعضهما بعضاً”. رداً على ذلك، شدد ووكر على الفوائد الاجتماعية المحتملة للتقدّم في مجال الذكاء الاصطناعي في مجالات مثل تطوير الأدوية، وأكّد مجدداً التزام جوجل بحقوق الإنسان.

في اليوم التالي، تناولت الباحثة في مجال الذكاء الاصطناعي، تيمنيت غيبرو، موضوع المخاطر الوجودية التي يفرضها الذكاء الاصطناعي، وقالت: “منح السلطة للأدوات هو خطأ، وهو ليس أكثر من وسيلة للإلهاء. لكن إذا حاولت معرفة من يتحدّث بهذه الطريقة، ستلاحظ أنهم الأشخاص أنفسهم الذين ضخوا مليارات الدولارات في هذه الشركات.

اقرأ أيضاً: لماذا أثار ادعاء الملياردير مارك أندرسون أن الذكاء الاصطناعي قد ينقذ العالم كل هذا الجدل؟

خطر وجودي حقيقي لنماذج الذكاء الاصطناعي، فما أبرز وجوهه؟

تحدّث جيف هينتون قبل بضعة أشهر فقط حول تسبب نموذج جي بي تي-4 في إحداث تغييرات بسيطة لكنها قد تؤدي إلى حدوث فوضى في العالم. لا، بل إن هذا النموذج أسوأ من ذلك، وأدرك هؤلاء فجأة أنه يشكّل خطراً وجودياً. لماذا يأخذ الكثيرون هؤلاء الأشخاص على محمل الجد؟”.

يقترح الخبراء الذين سئموا من الروايات المتعلقة بالذكاء الاصطناعي، مثل مديرة التكنولوجيا وحقوق الإنسان في منظمة هيومن رايتس ووتش، فريدريكه كالتهونر، أن نركّز على المخاطر التي نعرف بالفعل أن الذكاء الاصطناعي يفرضها بدلاً من التكهن بما قد يحدث في المستقبل.

ثمة أضرار واضحة وموثقة جيداً يتسبب بها استخدام الذكاء الاصطناعي، وتشمل هذه الأضرار:

  • الانتشار المتزايد للمعلومات المضللة. ثبت أن خوارزميات التوصية على منصات وسائل التواصل الاجتماعي مثل إنستغرام وتويتر ويوتيوب تعطي الأولوية للمحتوى المتطرف والمُقنع عاطفياً، بغض النظر عن دقته. تسهم النماذج اللغوية الكبيرة في هذه المشكلة من خلال توليد المعلومات المضللة المقنعة، ويحمل هذا السلوك اسم “الهلوسة” (وسنتحدّت عن ذلك أكثر أدناه).
  • بيانات التدريب والنتائج المنحازة. تُدرّب الشركات نماذج الذكاء الاصطناعي عادة باستخدام مجموعات بيانات منحازة، ما يمكن أن يؤدي إلى توليد نتائج منحازة. يمكن أن يعزز ذلك جوانب عدم العدالة الاجتماعية التي نعاني منها بالفعل، كما في حالة الخوارزميات التي تميّز بين الأفراد عند منح درجات تحدد احتمال الاحتيال في مجال الإعانة الاجتماعية، أو أنظمة التعرف إلى الوجه المعروفة بأنها أقل كفاءة في التعرّف إلى وجوه النساء ذوات البشرة الداكنة مقارنة بالرجال البيض. وُثّقت أيضاً حالات ولّد فيها نموذج تشات جي بي تي محتوى عنصرياً.
  • تراجع خصوصية المستخدم. يتطلّب تدريب نماذج الذكاء الاصطناعي استخدام كميات هائلة من البيانات، وتُستخلص هذه البيانات عادة من الإنترنت أو تُشترى، ما يثير تساؤلات حول الموافقة والخصوصية. لم يصرّح الكثير من الشركات التي طورت النماذج اللغوية الكبيرة مثل تشات جي بي تي وبارد عن المعلومات حول مجموعات البيانات المستخدمة لتدريب هذه النماذج، ولكن لا شك في أن هذه المجموعات تحتوي على الكثير من البيانات المأخوذة من الإنترنت.

تقول كالتهونر إنها قلقة بصورة خاصة من استخدام بوتات الدردشة المدعومة بالذكاء الاصطناعي في سياقات خطيرة مثل علاج المشكلات النفسية؛ إذ تقول: “أنا قلقة بشأن حالات الاستخدام المتهور للذكاء الاصطناعي التوليدي في مجالات لم تُصمم هذه التكنولوجيا من أجلها وقد لا تكون مناسبة لها”.

أكّدت غيبرو المخاوف المتعلقة بالتأثيرات البيئية الناجمة عن القدرة الحوسبيّة الهائلة المتطلبة لتشغيل النماذج اللغوية الكبيرة والمعقدة. (وهي تقول إنها طُردت من جوجل لأنها أثارت هذه المخاوف وغيرها في الأبحاث ضمن الشركة). أشارت غيبرو إلى أن المشرفين على نموذج تشات جي بي تي، الذين يعملون بأجور منخفضة، عانوا أيضاً من اضطراب ما بعد الصدمة بسبب عملهم الهادف لجعل النتائج التي يولّدها النموذج غير مسيئة.

اقرأ أيضاً: تعرّف إلى أبرز الجهود الدولية لتنظيم الذكاء الاصطناعي

بما يخص المخاوف المتعلقة بمستقبل البشر، سألت كالتهونر قائلة: “انقراض من بالضبط؟ الجنس البشري بأكمله؟ هناك بشر هُمّشوا تاريخياً ويتعرّضون للضرر حالياً بالفعل. ولهذا أرى أن فكرة الانقراض ساخرة بعض الشيء”.