Article image
مصدر الصورة: جيريمي بروتجي
Article image مصدر الصورة: جيريمي بروتجي

الذكاء الاصطناعي حب

هذا القسم يأتيكم بالتعاون مع:

يجب على الشركات التكنولوجية أن تتوقع هذا الخطر، ويجب على الحكومات تطبيق قوانين أكثر صرامة، وفق أحد خبراء الذكاء الاصطناعي في مايكروسوفت.

يجب أن تتخذ الشركات التكنولوجية خطوات استباقية لتفادي الأخطار الناجمة عن تزايد قدرات الذكاء الاصطناعي على الابتكار، واتخاذ سلوكه طابعاً بشرياً أكثر وضوحاً، وذلك كما حذر هاري شوم من مايكروسوفت في مؤتمر إيمتيك ديجيتال الذي نظمته إم آي تي تكنولوجي ريفيو مؤخراً.

قال شوم، وهو نائب المدير التنفيذي لمجموعة الذكاء الاصطناعي والأبحاث في الشركة التكنولوجية العملاقة، على مسرح المؤتمر: “سنصل إلى مرحلة في هذه الحلقة يتوجب عندها أن نستخدم الهندسة لإدماج الشعور بالمسؤولية في البنية الأساسية لهذه التكنولوجيا”.

لحظ شوم أن العاملين في هذا المجال فشلوا سابقاً في توقع العيوب في هذه التكنولوجيا، إضافة إلى بعض أساليب استخدامها في العالم الحقيقي بشكل مثير للقلق. وعلى سبيل المثال، فقد أثبتت برامج التعرف على الوجوه أنها سيئة الدقة عند التعرف على وجوه ذات بشرة داكنة. وقد قامت الصين بجمع هذه الأدوات مع كاميرات المراقبة لمراقبة الأقليات، ووصم المدينين بالأموال والذين يقطعون الشارع بشكل مخالف لقوانين السير بالعار عن طريق عرض وجوههم على لوحات إعلانية. كما أن إحدى سيارات أوبر ذاتية القيادة صدمت أحد المشاة وتسببت بمقتله العام الماضي، وقالت بعض التقارير إن نظام واتسون من آي بي إم وصف بعض العلاجات “غير الآمنة والخاطئة” للسرطان.

ستصبح هذه التحديات أكثر تعقيداً مع تزايد قدرة الذكاء الاصطناعي على تحليل المشاعر البشرية، وخوض حوارات معقدة، وإنتاج القصص والشعر والأغاني والرسومات التي أصبح من الصعب تمييزها عن الإنتاج البشري، كما قال شوم. ويمكن أن تؤدي هذه القدرات الجديدة إلى تسهيل عمليات إنتاج ونشر المواد المزيفة، مثل التسجيلات الصوتية والصور والفيديو، ما يفاقم من تحديات مواجهة الدعاية المغرضة وتزييف المعلومات على الإنترنت.

تحاول مايكروسوفت مواجهة هذه التحديات الجديدة بعدة طرق. وقد قال شوم إن الشركة قامت بتحسين أدواتها للتعرف على الوجوه عن طريق إضافة نسخ معدلة من الصور التي تحمل مجموعة منوعة من ألوان البشرة والحواجب وظروف الإضاءة إلى قاعدة بياناتها.

قامت الشركة أيضاً بتأسيس لجنة مختصة بأخلاقيات الذكاء الاصطناعي، وانضمت إلى مشاريع مشتركة في هذا المجال مثل شراكة الذكاء الاصطناعي. وستقوم مايكروسوفت “قريباً جداً”، كما قال شوم، بإضافة خطوة للتحقق من أخلاقيات الذكاء الاصطناعي إلى قائمة التدقيق المعيارية للخصوصية والأمان وإمكانية الوصول، والتي يتم التحقق منها قبل طرح أية منتجات جديدة.

غير أن شوم يعترف، من جهة أخرى، بأن التنظيم الذاتي لن يكون كافياً.

وبالفعل، فقد تزايدت الأصوات الداعية إلى قوانين أكثر صرامة للذكاء الاصطناعي، سواء من داخل صناعة التكنولوجيا أو خارجها. ففي ديسمبر، قال معهد إيه آي ناو في جامعة نيويورك، وهو مجموعة تتضمن موظفين من مايكروسوفت وجوجل، إن الوكالات الحكومية تحتاج إلى نفوذ أكبر حتى تتمكن من تطبيق “الإشراف والتدقيق والمراقبة” على هذه التكنولوجيات، ودعا إلى “قوانين صارمة” لأدوات التعرف على الوجوه بشكل خاص.

قال شوم: “نحن نعمل بجد حتى نتغلب على تحديات الذكاء الاصطناعي. ولكنها مشاكل صعبة لا يمكن حلها بأساليب تكنولوجية صِرفة، ولهذا فنحن بحاجة إلى التعاون في المجالين الأكاديمي والعملي. كما أننا يجب أن نثقف المستهلكين حول مصدر المحتوى الذي يرونه ويسمعونه”.

المزيد من المقالات حول الذكاء الاصطناعي

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!