كيف يمكن جعل الذكاء الاصطناعي أكثر ملاءمة للبشر عام 2024؟

3 دقيقة
كيف يمكن جعل الذكاء الاصطناعي أكثر ملاءمة للبشر عام 2024؟
حقوق الصورة: shutterstock.com/Ivan Baranov
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

عندما تمكن حاسوب ديب بلو (Deep Blue) عام 1997 من هزيمة بطل العالم في الشطرنج الروسي غاري كاسباروف، انتقل الذكاء الاصطناعي إلى مستوى جديد من الأبحاث والأهداف؛ إذ أصبح المجال الذي يسعى إلى تطوير آلات وبرامج قادرة على محاكاة القدرات البشرية في التفكير والتعلم والإبداع.

في العقود التالية، تحوّل الذكاء الاصطناعي من مجال بحثي متخصص إلى قوة تحويلية تؤثّر في كل جانب من جوانب حياتنا تقريباً؛ من المساعِدات الافتراضية مثل سيري وأليكسا، إلى القيادة الذاتية للسيارات. ومع التقدم في التعلم الآلي والتعلم العميق أصبح بالإمكان تعليم أجهزة الكمبيوتر عبر كميات هائلة من البيانات للقيام بالتنبؤات أو القرارات دون برمجتها، فتطورت أنظمة ذكاء اصطناعي يمكنها أداء المهام التي كان يُعتقد سابقاً أنها حكر على البشر. 

ومع ذلك، وعلى الرغم من هذه التطورات، لا تزال هناك فجوة بين الذكاء الاصطناعي والبشر؛ مثل مخاوف الخصوصية ومخاطر إنشاء أنظمة متحيزة وتمييزية والتي غالباً ما تكون انعكاساً للتحيزات في البيانات التي دُرِّبت عليها أو وجهات نظر مطوريه. 

على سبيل المثال، شبّه الباحث في أوبن أيه آي إيليا ساتسكفر (Ilya Sutskever)، الذكاء الاصطناعي بـ “الدماغ الرقمي”، حيث صُمّم بشكلٍ مشابه للدماغ البشري. وعلى غرار الطفل الصغير، يمكنه أن يتعلم من محيطه بتأثير دوافعه.

وبإسقاط ذلك على نموذج الذكاء الاصطناعي تشات جي بي تي، فإنه سيتعلم داخل بيئته (شركة أوبن أيه أي) تعظيم الأرباح، لذا يتساءل ساتسكفر: إذا طُلِب من تشات جي بي تي الذي يهدف للربح اقتراح علاج للسرطان، فهل سيقدّم علاجاً مناسباً أمْ سيقترح علاجاً يُدِرّ أرباحاً أكثر؟ بعبارة أكثر وضوحاً: كيف نجعل الذكاء الاصطناعي أكثر شبهاً بالبشر من حيث الأخلاق والعواطف والإبداع والمهارات الاجتماعية؟ وما التحديات والفوائد المترتبة على ذلك؟ 

اقرأ أيضاً: ما حقيقة تسريب بوتات الدردشة المخصصة بيانات المستخدمين؟

يعتقد العديد من مطوري الذكاء الاصطناعي والباحثين والمنظمين، مثل عضو الكونغرس رو خانا (Ro Khanna)، الذي تضم منطقته وادي السيليكون، أن الحل يكمن في وضع الذكاء الاصطناعي في أيدي أكبر عدد ممكن من الناس، وألّا يكون حكراً على شركات التكنولوجيا الكبرى، لأنه لطالما كانت التكنولوجيا انعكاساً للمجتمعات التي بنتها. ومن السبل إلى ذلك:

الذكاء الاصطناعي المفتوح المصدر: الاستفادة من تجربة الإنترنت 

تدين الإنترنت بالكثير من فائدتها لانفتاحها، وهي تجربة ناجحة يمكن للذكاء الاصطناعي أن يستفيد منها ليصبح أكثر ملاءمة للبشر وشبهاً بهم بأن يصبح بدوره مفتوح المصدر، أي يمكن لأي شخص استخدامه وتعديله بطريقة تفيد المستخدمين جميعهم، تماماً مثل الإنترنت، ما يعزز الشفافية ويمكّن المزيد من الأشخاص من المساهمة في تطويره.

يرى  رئيس مؤسسة موزيلا مارك سورمان (Mark Surman)، أن الإنترنت نموذج ناجح يمكن تطبيقه على تطوير الذكاء الاصطناعي، في إشارة إلى المؤسسات غير الربحية المفتوحة المصدر كويكيبيديا وموزيلا ولينوكس. حيث يتصور سورمان مستقبلاً يمكن للجميع فيه الوصول إلى مجموعة من لبنات بناء الذكاء الاصطناعي. ستكون هذه أدوات مفتوحة المصدر وموثوقة وسهلة الاستخدام، وتحترم خصوصية بيانات المستخدم، على غرار مكعبات الليغو مفتوحة المصدر (Open Source Legos).

الاستثمار في الذكاء الاصطناعي

تعتقد الأستاذة في جامعة كارنيغي ميلون الأميركية (Carnegie Mellon)، رامايا كريشنان (Ramayya Krishnan)، أنه ينبغي زيادة الاستثمار في أبحاث الذكاء الاصطناعي، وكذلك في الكيانات الصغيرة والشركات الناشئة، والتي استُبعدت إلى حد كبير من الابتكارات المهمة في هذا المجال. على سبيل المثال، أنشأ أعضاء مجلس الشيوخ الأميركي الموارد الوطنية لأبحاث الذكاء الاصطناعي (NAIRR)، التي تقدّم موارد الحوسبة السحابية للجامعات الأميركية.

اقرأ أيضاً: كيف تهيمن الشركات التكنولوجية الكبرى على مشهد الذكاء الاصطناعي؟

دمج المنطق الأخلاقي في الذكاء الاصطناعي

يمكن دمج الأخلاق في الذكاء الاصطناعي عبر عدة استراتيجيات:

  • دمج التفكير الأخلاقي مباشرة في خوارزميات التعلم الآلي للذكاء الاصطناعي، وهو ما يتطلب تطوير أنظمة ذكاء اصطناعي قادرة على فهم وتطبيق المبادئ الأخلاقية في عمليات صنع القرار. ومن الأمثلة على ذلك نموذج الآلة الأخلاقية الذي طوّره باحثون من معهد ماساتشوستس للتكنولوجيا لتوجيه المركبات الذاتية القيادة في اتخاذ القرارات الأخلاقية في مواقف مختلفة في القيادة. يجمع النموذج بين التعلم الآلي والمدخلات البشرية لتحديد الإجراء الأكثر ملاءمة من الناحية الأخلاقية في موقف معين.
  • وضع مبادئ توجيهية وأطر أخلاقية للمطورين، لاتباعها عند تصميم أنظمة الذكاء الاصطناعي. على سبيل المثال، تضع العديد من المنظمات، بما في ذلك المفوضية الأوروبية، مبادئ توجيهية بشأن أخلاقيات الذكاء الاصطناعي، بحيث يمكن اعتبارها خريطة طريق للمطورين لإنشاء أنظمة ذكاء اصطناعي تلتزم بالمبادئ الأخلاقية.
  • التعاون بين التقنيين وعلماء الأخلاق وصانعي السياسات، من الممكن أن يساعد هذا على ضمان أخذ مجموعة واسعة من وجهات النظر في الاعتبار، ودمج الاعتبارات الأخلاقية في مراحل تطوير الذكاء الاصطناعي جميعها.

اقرأ أيضاً: ما حقيقة الضجيج الإعلامي حول اقتراب أوبن إيه آي من تطوير الذكاء الاصطناعي العام؟

تعزيز الذكاء العاطفي في الذكاء الاصطناعي

وفقاً لعالمي النفس بيتر سالوفي (Peter Salovey) وجون ماير (John Mayer)، يمكن تعريف الذكاء العاطفي بأنه القدرة على التعرف على عواطف الآخرين ومشاعرهم وفهمها وإدارتها. إذاً، لفهم المشاعر الإنسانية والاستجابة لها، ينبغي أن تكون أنظمة الذكاء الاصطناعي قادرة على التعرف على الإشارات المختلفة التي يستخدمها الناس للتعبير عن مشاعرهم وتفسيرها، مثل تعابير الوجه ونبرة الصوت وإيماءات الجسد، وهو ما يُعرف بالحوسبة العاطفية، ويمكن تحقيقه من خلال تطوير تقنيات تطوير الذكاء الاصطناعي العاطفي التالية:

  • معالجة اللغة الطبيعية (NLP): تسمح تقنيات معالجة اللغة الطبيعية بتحليل النص والكلام للمحتوى العاطفي.
  • الرؤية الحاسوبية والتعرف على تعابير الوجه: يمكن باستخدام خوارزميات التعلم الآلي تصنيف المعلومات المرئية، مثل الصور ومقاطع الفيديو بناءً على مجموعة محددة مسبقاً من المشاعر.
  • خوارزميات التعلم الآلي لتحليل المشاعر: يمكن تدريب خوارزميات التعلم الآلي، مثل الانحدار اللوجستي، وآلة متجه الدعم (SVM)، وأشجار القرار لتؤدي دوراً مهماً للتعرف على الأنماط والميزات المرتبطة بمشاعر معينة.