Article image



هذا القسم يأتيكم بالتعاون مع:


في السنة الماضية، أدت مجموعة من الحوادث المثيرة من الجدل إلى الكشف عن جانب أكثر ظلمة (وغباء) للذكاء الاصطناعي.

كان من الشائع أن نسمع النقاش حول فكرة سيطرة الآلات خارقة الذكاء على العالم. غير أن السنة الماضية أظهرت لنا أن الذكاء الاصطناعي قد يتسبب بالكثير من المشاكل والأخطار قبل حدوث ذلك.

لا شك في أن أحدث أساليب الذكاء الاصطناعي أصبحت بارعة للغاية في مهام إدراكية مثل تصنيف الصور وتحويل النص المنطوق إلى نص مكتوب، غير أن الضجيج والحماس المرافقين لهذه المهارات جعلنا ننسى إلى أي مدى ما زلنا بعيدين عن بناء آلات تماثلنا ذكاء. وقد برزت 6 حوادث مثيرة للجدل في 2018 كنُذُر تحذرنا من أن أذكى خوارزميات الذكاء الاصطناعي يمكن أن تسيء العمل، أو أن الإهمال في تطبيقها قد يؤدي إلى عواقب وخيمة.

1. السيارات ذاتية الحوادث

بعد الحادث القاتل الذي وقع مع إحدى سيارات أوبر ذاتية القيادة في مارس، اكتشف المحققون أن التكنولوجيا التي اعتمدتها الشركة فشلت فشلاً ذريعاً، وبطريقة كان يسهل تفاديها.

تعمل الكثير من الشركات في هذا المجال، بدءاً من كبار صانعي السيارات مثل فورد وجنرال موتورز، والشركات التي انضمت حديثاً مثل أوبر، وصولاً إلى حشد كامل من الشركات الناشئة. وجميعها تتسابق على طرح هذه التكنولوجيا للاستخدام العام، والتي حصلت على استثمارات وصلت إلى المليارات من الدولارات على الرغم من عدم وصولها إلى مرحلة النضج. وقد حققت وايمو، وهي شركة تابعة لألفابيت، أكبر شوط من التقدم، فقد أطلقت أول خدمة سيارات أجرة تعمل بشكل ذاتي تماماً في أريزونا في العام الماضي. ولكن حتى تكنولوجيا وايمو ما زالت محدودة، وما زالت السيارات ذاتية التحكم عاجزة عن القيادة في كل مكان ضمن جميع الظروف.

ما الذي يجب أن نتوقعه في 2019: حتى الآن، حاول المشرّعون في الولايات المتحدة وغيرها الابتعاد عن التعامل مع هذه المسألة خوفاً من إعاقة الابتكار فيها. بل إن الإدارة الأميركية الوطنية لسلامة السير في الطرقات السريعة أشارت حتى إلى إمكانية التراخي في تطبيق قواعد السلامة الحالية. غير أن المشاة والسائقين البشر لم يوافقوا على أن يتحولوا إلى فئران تجارب. وقد يؤدي حادث خطير آخر في 2019 إلى تغيير هذا السلوك لدى المشرعين.

2. روبوتات التلاعب السياسي البرمجية

في مارس، انتشرت الأخبار حول قيام كامبريدج أناليتيكا، وهي شركة للاستشارات السياسية، باستغلال سياسات فيسبوك في مشاركة البيانات للتأثير على الانتخابات الرئاسية الأميركية في 2016. وقد كشفت الضجة الناتجة عن هذا الخبر أنه يمكن التلاعب بالخوارزميات التي تختار طريقة عرض الأخبار والمعلومات في وسائل التواصل الاجتماعي، وذلك بهدف نشر المعلومات المزيفة، وتقويض النقاش البناء، وعزل المواطنين ذوي التوجهات المختلفة عن بعضهم البعض.

خلال جلسة استنطاق في الكونجرس، وعد المدير التنفيذي لفيسبوك مارك زوكربيرج أنه يمكن تدريب الذكاء الاصطناعي نفسه على كشف وحظر المحتوى الخبيث، على الرغم من أنه ما زال عاجزاً إلى حد كبير عن فهم معنى النص أو الصور أو الفيديو.

ما الذي يجب أن نتوقعه في 2019: ستوضع وعود زوكربيرج على المحك في الانتخابات في أكبر بلدين في أفريقيا: جنوب أفريقيا ونيجيريا. وقد بدأ التحرك الطويل نحو الانتخابات الرئاسية الأميركية في 2020، ويمكن أن يؤدي إلى أنواع جديدة من تكنولوجيا نشر المعلومات الزائفة التي تعتمد على الذكاء الاصطناعي، بما فيها بوتات الدردشة الخبيثة.

3. خوارزميات للسلام

في السنة الماضية، بدأت حركة للسلام في الذكاء الاصطناعي بالتشكل عندما علم موظفو جوجل أن شركتهم كانت تقدم التكنولوجيا إلى سلاح الجو الأميركي لتصنيف صور الطائرات المسيرة. وخشي العاملون أن تكون هذه خطوة مشؤومة تؤدي لاحقاً إلى تقديم التكنولوجيا اللازمة لأتمتة الضربات الجوية القاتلة للطائرات المسيرة. واستجابة لموظفيها، تخلت الشركة عن مشروع مافن، كما كانت تسميه، ووضعت مجموعة من المبادئ الأخلاقية للذكاء الاصطناعي.

دعم الكثير من الأكاديميين والنافذين في التكنولوجيا حملة تهدف إلى حظر استخدام الأسلحة المؤتمتة. وعلى الرغم من هذا، يزداد زخم الاستخدامات العسكرية للذكاء الاصطناعي، وقد أظهرت شركات أخرى مثل مايكروسوفت وأمازون أنها جاهزة للمساعدة في هذا المجال بدون أية تحفظات.

ما الذي يجب أن نتوقعه في 2019: على الرغم من أن إنفاق البنتاجون على مشاريع الذكاء الاصطناعي يتزايد باستمرار، يأمل الناشطون بظهور اتفاقية استباقية لحظر الأسلحة المؤتمتة بعد سلسلة من اللقاءات في الأمم المتحدة هذا العام.

4. مراقبة الوجوه

أدت القدرات الهائلة للذكاء الاصطناعي في التعرف على الوجوه إلى استخدام العديد من البلدان لهذه التكنولوجيا بوتيرة عالية. كما أصبح التعرف على الوجه وسيلة لفك قفل الهاتف ووضع إشارات تلقائية على الصور في وسائل التواصل الاجتماعي.

تحذر مجموعات الحريات المدنية من مستقبل كئيب تتحول فيه التكنولوجيا إلى سيف مسلط على رقاب الجميع. حيث أنها تتمتع بقدرة كبيرة على انتهاك الخصوصية، كما أن التحيز في بيانات التدريب يرجح ظهور تحيز مؤتمت.

في الكثير من البلدان، خصوصاً الصين، بدأ استخدام التعرف على الوجوه على نطاق واسع في عمل الشرطة والمراقبة الحكومية. كما أن أمازون تبيع هذه التكنولوجيا إلى وكالات الهجرة وتطبيق القانون في أميركا.

ما الذي يجب أن نتوقعه في 2019: سينتشر التعرف على الوجوه وصولاً إلى المركبات الآلية وكاميرات الويب، وسيستخدم لتتبع عواطفك إضافة إلى هويتك. ولكن قد نشهد هذه السنة بداية لتنظيمه أيضاً.

5. تزييف على أعلى المستويات

أظهر انتشار الفيديوهات “عميقة التزييف” في السنة الماضية سهولة تركيب مقاطع مزيفة باستخدام الذكاء الاصطناعي. وهذا يعني مقاطع إباحية مزيفة للمشاهير، والكثير من اللقطات الغريبة التي تجمع ما بين عدة أفلام، وربما أيضاً حملات سياسية خبيثة لتشويه السمعة.

تستطيع الشبكات التوليدية التنافسية “GANs“، والتي تتضمن شبكتين عصبونيتين في حالة مواجهة حاسوبية، أن تجترح صوراً ومقاطع فيديو فائقة الواقعية ولكنها مزيفة تماماً. وقد استعرضت إنفيديا مؤخراً قدرة الشبكات التوليدية التنافسية على توليد وجوه واقعية من أي عرق وجنس وعمر كان.

ما الذي يجب أن نتوقعه في 2019: مع تحسن التزييف العميق، سيبدأ انتشار استخدامه للخداع في هذا العام على الأرجح. وستختبر داربا وسائل جديدة لكشف التزييف العميق، ولكن بما أن هذه الوسائل تعتمد أيضاً على الذكاء الاصطناعي، فسوف يتحول الأمر إلى ما يشبه لعبة القط والفأر.

6. التمييز الخوارزمي

تم اكتشاف التحيز في العديد من الأدوات التجارية في العام الماضي. حيث أن خوارزميات الرؤية التي تم تدريبها باستخدام مجموعات بيانات غير متوازنة فشلت في التعرف على النساء أو الأشخاص من غير العرق الأبيض، كما أن خوارزميات التوظيف التي تعتمد على بيانات تاريخية أثبتت أنها تعزز التمييز الموجود مسبقاً.

من المسائل المرتبطة بالتحيز، والتي تعتبر عصية على الحل إلى حد أبعد، هي مسألة نقص التنوع في حقل الذكاء الاصطناعي نفسه. حيث أن النساء يشغلن في أفضل التقديرات 30% من الوظائف في هذا المجال، وأقل من 25% من المناصب التعليمية في الجامعات الكبرى. هناك أيضاً نقص مماثل في أعداد الباحثين من الأصول الأفريقية واللاتينية.

ما الذي يجب أن نتوقعه في 2019: سنرى وسائل جديدة لكشف التحيز والتخفيف منه وخوارزميات يمكن أن تعطي نتائج غير متحيزة بناء على بيانات متحيزة. أيضاً، سيتم عقد المؤتمر العالمي للتعلم الآلي، وهو من أهم المؤتمرات حول الذكاء الاصطناعي، في أثيوبيا في العام 2020، لأن العلماء الأفارقة الذين يبحثون في مشاكل التحيز يواجهون متاعب كبيرة في الحصول على سمات الدخول اللازمة للسفر إلى مناطق أخرى. وقد تحذو أحداث أخرى الحذو نفسه.