بيل غيتس يطمئنك: لا تقلق من الذكاء الاصطناعي

5 دقائق
بيل غيتس يطمئنك: لا تقلق من الذكاء الاصطناعي
مصدر الصورة: غيتي إيميدجيز
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

انضم بيل غيتس إلى جوقة الشخصيات التكنولوجية البارزة التي أدلت بدلوها في مسألة المخاطر المتعلقة بالذكاء الاصطناعي. أما رأيه باختصار؟ أنه لا يشعر بالقلق، فقد تعرضنا إلى وضع مماثل من قبل.

لا شك في أن هذا التفاؤل يدعو إلى شيء من الارتياح بعد أسابيع من التشاؤم والتوقعات المُنذرة بالكوارث، ولكن غيتس يطرح أيضاً بضع أفكار جديدة.

عبّر رجل الأعمال الملياردير وصاحب المبادرات الخيرية عن رأيه في منشور على مدونته الشخصية غيتس نوتس (GatesNotes) مؤخراً. يكتب غيتس: “أريد التحدث بشأن المخاوف التي أسمع وأقرأ عنها في الكثير من الأحيان، والتي أشعر بالكثير منها شخصياً، وأشرح أفكاري حولها”.

الذكاء الاصطناعي: أكثر التكنولوجيات قدرة على إحداث التحولات

وفقاً لغيتس، “يُعد الذكاء الاصطناعي أكثر التكنولوجيات التي سيراها أيٌّ منا في حياته قدرة على إحداث تحولات جذرية في العالم”. وهو ما يجعله أكثر أهمية من الإنترنت، والهواتف الذكية، والحواسيب الشخصية، وهي التكنولوجيا التي أسهم غيتس في تقديمها إلى العالم أكثر من معظم الشخصيات التكنولوجية البارزة. (تشير هذه العبارة أيضاً إلى أننا لن نخترع أي شيء يضاهي الذكاء الاصطناعي في العقود القليلة المقبلة).

انضم غيتس إلى مجموعة من عشرات الشخصيات البارزة في توقيع بيان نشره مركز أمان الذكاء الاصطناعي الموجود في مدينة سان فرانسيسكو منذ عدة أسابيع، الذي أورد التالي بالكامل: “يجب أن يكون تخفيف خطر الانقراض بسبب الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى، مثل الأوبئة والجائحات والحروب النووية”.

ولكن منشور المدونة الحالي لا يتضمن أي تحذيرات أو مخاوف. في الواقع، فإن الخطر الوجودي غير مذكور حتى. وبدلاً من ذلك، يصف غيتس النقاش الدائر بأنه مقارنة بين المخاطر “البعيدة الأمد” والمخاطر “الفورية”، ويختار التركيز على “المخاطر الموجودة حالياً، أو التي ستظهر قريباً”.

اقرأ أيضاً: الذكاء الاصطناعي: هل حان الوقت للحديث عن النفوذ بدلاً من مناقشة الأخلاقيات؟

تغير في موقف بيل غيتس تجاه الذكاء الاصطناعي

يقول مدير أبحاث الأخلاقيات والابتكار المسؤول في معهد ألان تورينغ في المملكة المتحدة، ديفيد ليسلي: “لقد كان غيتس يتحدث عن الفكرة نفسها منذ فترة طويلة”. كان غيتس واحداً من بضع شخصيات عامة تحدثت عن الخطر الوجودي للذكاء الاصطناعي منذ عقد مضى، عندما كان التعلم العميق في بداياته، كما يقول ليسلي: “في ذلك الحين، كان أكثر قلقاً تجاه الذكاء الاصطناعي الخارق. لكن موقفه أصبح أقل حدة على ما يبدو”.

غير أن غيتس لا ينفي المخاطر الوجودية بالكامل. ويتساءل عما قد يحدث “عندما نتمكن” -وليس “إذا ما تمكنا”- “من تطوير نظام ذكاء اصطناعي قادر على تعلم أي موضوع أو إنجاز أي مهمة”.

ويكتب: “سواء وصلنا إلى هذه المرحلة خلال عقد أو قرن من الزمن، سيضطر المجتمع إلى الإجابة عن أسئلة جوهرية. ماذا لو وضع الذكاء الاصطناعي الخارق أهدافاً تخصه؟ ماذا لو تضاربت هذه الأهداف مع أهداف البشرية؟ هل يجب أن نصنع ذكاء اصطناعياً خارقاً في المقام الأول؟ ولكن التفكير في هذه المخاطر البعيدة الأمد يجب ألا يشغلنا عن التفكير في المخاطر الأقرب إلينا”.

اتخذ غيتس موقفاً وسطياً نوعاً ما بين رائد التعلم العميق جيفري هينتون، الذي استقال من شركة جوجل وكشف للعامة عن مخاوفه المتعلقة بالذكاء الاصطناعي في مايو/ أيار، وآخرين مثل يان ليكون وجويل بيناو في قسم الذكاء الاصطناعي في شركة ميتا (Meta) (اللذين يعتقدان أن التحدث عن وجود مخاطر وجودية “محض سخافة” و”جنون”) أو ميريديث ويتاكر في شركة سيغنال (Signal) (التي تعتقد أن المخاوف التي أفصح عنها هينتون وغيره ليست سوى “قصص أشباح”).

من المثير للاهتمام أن نتساءل عن المساهمة التي قدّمها غيتس من خلال التعبير عن رأيه الآن، كما يقول ليسلي: “يتحدث الجميع عن هذه المسألة، ما أوصلنا إلى حالة من الإشباع”.

وعلى غرار غيتس، لا ينفي ليسلي السيناريوهات السيئة بالكامل. ويقول: “يمكن للأطراف الخبيثة أن تستفيد من هذه التكنولوجيات وتتسبب بأضرار كارثية. ولا داعي لتصديق وجود الذكاء الاصطناعي الخارق والروبوتات التي ستدمر العالم وتوقعات الذكاء الاصطناعي العام لتقبُّل هذا الاحتمال.

اقرأ أيضاً: شركات ناشئة تساعد الشركات الأخرى في توفير متطلبات أخلاقيات الذكاء الاصطناعي

ضرورة توزيع الأولويات: المخاطر الفورية أولاً

ولكنني أوافق على الفكرة التي تقول إن الأولوية يجب أن تُعطى للتعامل مع المخاطر الموجودة الناجمة عن الترويج التجاري المتسارع للذكاء الاصطناعي التوليدي. إن التركيز على المخاطر الحالية ومحاولة تحديدها والتعامل معها فكرة إيجابية”.

يشير غيتس في منشوره إلى أن الذكاء الاصطناعي يمثِّل منذ الآن تهديداً للكثير من النواحي الرئيسية في المجتمع، بدءاً من الانتخابات وصولاً إلى التعليم والتوظيف. وبطبيعة الحال، ليست هذه المخاوف شيئاً جديداً. ما يريد غيتس أن يقوله لنا هو أن هذه المخاطر جسيمة، وعلى الرغم من هذا، فإن الوضع ليس سلبياً تماماً، لأن: “أفضل سبب يدعونا إلى الاعتقاد بقدرتنا على التعامل مع المخاطر هو تعاملنا مع أشياء مماثلة من قبل”.

اقرأ أيضاً: بيل غيتس: الذكاء الاصطناعي سيغزو القطاعات كافة ويتولى مهام الموظفين

التاريخ يعيد نفسه

في السبعينيات والثمانينيات، أدت الآلات الحاسبة إلى إحداث تغيير في طريقة تعلم الرياضيات لدى الطلاب، فقد أتاحت لهم التركيز على ما يسمّيه غيتس “مهارات التفكير الكامنة خلف العمليات الحسابية” بدلاً من العمليات الحسابية الأساسية نفسها. وهو يرى التطبيقات التي على شاكلة تشات جي بي تي (ChatGPT) اليوم، تُحدث الأثر نفسه بالنسبة لموضوعات دراسية أخرى.

في الثمانينيات والتسعينيات، أدت تطبيقات معالجة النصوص وجداول البيانات الحسابية إلى تغيير جذري في الأعمال المكتبية، وهي تغييرات كانت تقودها شركة مايكروسوفت المملوكة لغيتس.

ومرة أخرى، يتأمل غيتس ما فعله الناس للتكيف في ذلك الحين، ويزعم أننا قادرون على فعل هذا مرة أخرى. ويكتب: “لم تؤدِّ تطبيقات معالجة النصوص إلى القضاء على العمل المكتبي، ولكنها غيّرته إلى الأبد. لا شك في أن النقلة التي سيتسبب بها الذكاء الاصطناعي لن تكون سلسة، غير أنه ثمة الكثير من الأسباب التي تدعونا إلى الاعتقاد بأننا سنتمكن من تخفيف الزعزعة التي ستصيب حياة الناس وسبل كسب عيشهم”.

يمكن أن ننظر إلى المعلومات المزيفة على نحو مماثل، فقد تعلمنا كيفية التعامل مع رسائل البريد الإلكتروني المزعجة (أو السبام)، وسنتمكن أيضاً من التعامل مع المواد العميقة التزييف. يكتب غيتس: “في نهاية المطاف، تعلَّم معظم الناس ضرورة تفقد رسائل البريد الإلكتروني هذه بدقة. ومع زيادة تعقيد عمليات الاحتيال، ارتفع مستوى الوعي والمعرفة لدى الكثير من الناس الذين يمثلون أهدافاً لهذه العمليات. وسنحتاج إلى بناء قدرات مماثلة لمواجهة المواد العميقة التزييف”.

اقرأ أيضاً: على طريقة مايكروسوفت: كيف يغيّر الذكاء الاصطناعي طريقة العمل ويرفع الإنتاجية؟

لا جديد في أقوال غيتس وبعضها سطحي!

يدعو غيتس إلى معالجة سريعة، وحذرة في الوقت نفسه، لجميع المخاطر الموجودة على قائمته. غير أن المشكلة تكمن في أنه لم يقدم أي شيء جديد. فغالبية اقتراحاته مُجَرَّبة، وبعضها سطحي.

وعلى غرار ما اقترحه آخرون في الفترة الماضية، يدعو غيتس إلى تأسيس كيان دولي لتنظيم الذكاء الاصطناعي، بصورة مماثلة للوكالة الدولية للطاقة الذرية. يعتقد غيتس أنها طريقة جيدة لمنع تطوير أسلحة الذكاء الاصطناعي السيبرانية. ولكنه لا يوضح طبيعة القيود التي ستفرضها هذه القوانين، أو كيفية فرضها.

أيضاً، يقول إنه يتوجب على الحكومات والشركات الحفاظ على فرص الناس في سوق العمل، من خلال تقديم مبادرات داعمة لهم، مثل إعادة التدريب. ويضيف قائلاً إنه يجب تقديم الدعم للمعلمين في الانتقال إلى عالم تمثِّل فيه تطبيقات مثل تشات جي بي تي الاتجاه السائد. ولكن غيتس لا يحدد طبيعة هذا الدعم.

ويقول إنه يتعين علينا أن نحسِّن قدرتنا على كشف المواد العميقة التزييف، أو على الأقل أن نستخدم أدوات قادرة على كشفها لنا. لكن أحدث مجموعة من هذه الأدوات غير قادرة بما يكفي على كشف الصور أو النصوص التي ولّدها الذكاء الاصطناعي كي تكون ذات فائدة. ومع تحسّن قدرات الذكاء الاصطناعي التوليدي، هل ستتمكن برامج الكشف من مجاراتها؟

غيتس محق في أن “إطلاق نقاش عام إيجابي سيعتمد على انتشار الثقافة حول هذه التكنولوجيات وفوائدها ومخاطرها لدى الجميع”. ولكنه يعود في أغلب الأحيان إلى فكرة تقول إن الذكاء الاصطناعي سيتولى حل مشاكل الذكاء الاصطناعي، وهي قناعة لا يشاركه فيها الجميع.

اقرأ أيضاً: خطر داهم سيدمر حضارة البشر: مطورو الذكاء الاصطناعي يتبرؤون منه!

نعم، يجب منح الأولوية للمخاطر الحالية. ونعم، لقد تمكّنا من تجاوز العقبات التكنولوجية (أو تحطيمها) من قبل، وسنتمكن من فعل هذا مرة أخرى. ولكن كيف؟

يكتب غيتس: “بعد أن رأيت ما كتبه الجميع حتى الآن عن مخاطر الذكاء الاصطناعي -وقد كُتِب الكثير- يمكنني تأكيد شيء واحد، وهو أنه لا أحد يمتلك جميع الإجابات”.

وما زال هذا صحيحاً حتى الآن.