4 توجهات أحدثت تغييراً في نظرتنا للذكاء الاصطناعي عام 2023

6 دقيقة
4 توجهات أحدثت تغييراً في نظرتنا للذكاء الاصطناعي عام 2023
مصدر الصورة: ستيفاني آرنيت إم آي تي تي آر. ميدجورني
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

كان العام المنصرم من أكثر الأعوام تشويقاً وأحداثاً في مجال الذكاء الاصطناعي منذ فترة طويلة، فقد شهد إطلاق عدد هائل من المنتجات، وانقلابات في قاعات اجتماعات مجالس إدارة الشركات، ونقاشات حادة فيما يخص السياسات المتعلقة بالخطر الوجودي للذكاء الاصطناعي، إضافة إلى سباق محموم متواصل نحو اكتشاف تكنولوجيات ثورية جديدة. غير أننا شهدنا أيضاً ظهور أدوات وسياسات راسخة تهدف إلى ضبط سلوكيات قطاع الذكاء الاصطناعي، وتحميل المسؤولية للأطراف الفاعلة القوية؛ وهو ما يمنحنا الكثير من الأمل فيما يتعلق بمستقبل الذكاء الاصطناعي.

1. الذكاء الاصطناعي التوليدي يخرج من المختبرات باندفاع قوي؛ لكن ليس واضحاً ما هو الاتجاه الذي سيسلكه

بدأ هذا العام بإقبال الشركات التكنولوجية الكبيرة على وضع ثقلها كله في مجال الذكاء الاصطناعي التوليدي. فقد دفع النجاح الكاسح لتشات جي بي تي (Chat GPT) من أوبن أيه آي (OpenAI) بالشركات التكنولوجية الكبرى كلها إلى إطلاق نسخها الخاصة من هذا النظام. ومن المحتمل لهذا العام أن يدخل التاريخ بوصفه العام الذي شهد إطلاق أكبر عدد من أنظمة الذكاء الاصطناعي؛ مثل لاما 2 (LLaMA2) من شركة ميتا (Meta)، وبوت الدردشة بارد (Bard) من شركة جوجل (Google)، وجي بي تي 4 (GPT-4) من شركة أوبن أيه آي (OpenAI)، إضافة إلى مجموعة من النماذج الأخرى؛ بما فيها نموذج مفتوح المصدر من شركة فرنسية منافسة وهي شركة ميسترال (Mistral).

لكن، وعلى الرغم من الضجيج الإعلامي الأولي، لم نر أي نجاحات كاسحة وفورية لأي من تطبيقات الذكاء الاصطناعي. فقد قدمت كل من شركتي مايكروسوفت وجوجل أدوات بحث عالية القدرة وتعتمد على الذكاء الاصطناعي؛ غير أن هذه الأدوات آلت إلى الإخفاق بدلاً من أن تتحول إلى تطبيقات رائعة. تعاني النماذج اللغوية من عيوب جوهرية؛ مثل اختلاقها للأكاذيب والمعلومات المزيفة على نحو متكرر، وقد أدت هذه العيوب إلى بعض الحوادث المحرجة، بل والمضحكة أيضاً في بعض الأحيان. فقد كان محرك البحث بينغ (Bing) من مايكروسوفت يجيب عن أسئلة المستخدمين في أغلب الأحيان معتمداً على نظريات المؤامرة؛ بل واقترح على مراسل في صحيفة نيويورك تايمز (New York Times) أن يهجر زوجته. أما نظام بارد من جوجل فقد ولّد إجابات تتضمن معلومات خاطئة في حملته التسويقية؛ ما أدى إلى تخفيض قيمة أسهم الشركة بمقدار 100 مليار دولار.

وحالياً، ثمة بحث محموم للعثور على تطبيق ذكاء اصطناعي يحظى بشعبية كبيرة ويرغب الجميع في تبنّيه. تجري كل من أوبن أيه آي وجوجل تجارب على مبادرات تسمح للشركات والمطورين ببناء بوتات دردشة مخصصة تعتمد على الذكاء الاصطناعي وتتيح للأفراد بناء تطبيقاتهم الخاصة باستخدام الذكاء الاصطناعي، دون الحاجة إلى أي مهارات في البرمجة. من المحتمل أن ينتهي المطاف بالذكاء الاصطناعي التوليدي مُدمَجاً في أدوات رتيبة للعمل ولكنها مفيدة وتساعدنا على تعزيز إنتاجيتنا في العمل. ومن المحتمل أن يأخذ شكل برامج مساعدة تعتمد على الذكاء الاصطناعي، وقد تكون هذه البرامج مزودة بقدرات صوتية ودعم للبرمجة. سيكون هذا العام حاسماً في تحديد القيمة الحقيقية للذكاء الاصطناعي التوليدي.

اقرأ أيضاً: بسبب تشات جي بي تي: كبير علماء ميتا حذّر زوكربيرغ من نهاية فيسبوك وإنستغرام

2. تعلّمنا الكثير حول الآلية الفعلية لعمل النماذج اللغوية؛ لكن معلوماتنا ما تزال محدودة للغاية

على الرغم من أن الشركات التكنولوجية تعمل على إطلاق المنتجات التي تحتوي النماذج اللغوية الكبيرة بوتيرة عالية، فما نزال نجهل الكثير حول طريقة عملها. فهذه النماذج تختلق الأكاذيب، علاوة على أنها تعاني تحيزات شديدة تتعلق بالعرق ونوع الجنس. إضافة إلى هذا، اكتشفنا في العام المنصرم أيضاً أن النماذج اللغوية المختلفة تتباين من حيث التحيزات السياسية في النصوص التي تولدها، وأنها تمثل أدوات فعالة للغاية لقرصنة المعلومات الخاصة للأشخاص. فمن الممكن توجيه أوامر نصية إلى نماذج تحويل النصوص إلى صور لإنتاج صور خاضعة لحقوق التأليف والنشر وصور لأشخاص حقيقيين؛ كما يمكن خداعها بسهولة لدفعها إلى توليد صور مزعجة. لقد سررنا لرؤية الكثير من الأبحاث المخصصة لدراسة عيوب هذه النماذج؛ لأن هذا يمكن أن يجعلنا أقرب إلى فهم أسباب هذا السلوك، وإصلاحه في نهاية المطاف.

عادة ما يكون التنبؤ بسلوك النماذج التوليدية صعباً للغاية، وقد شهد هذا العام الكثير من المحاولات الرامية إلى ضبط سلوكها وفقاً لمعايير مصمميها. وصرحت أوبن أيه آي بأنها تستخدم تقنية تحمل اسم “التعلم المعزز اعتماداً على الملاحظات البشرية“؛ حيث تستخدم ملاحظات المستخدمين للمساعدة على توجيه تشات جي بي تي إلى تقديم إجابات أفضل. كما بينت دراسة أجراها مختبر الذكاء الاصطناعي أنثروبيك (Anthropic) أن الأوامر البسيطة باللغة الطبيعية قادرة على توجيه النماذج اللغوية الكبيرة إلى تقديم نتائج أقل إساءة. لكن، ومن سوء الحظ، تؤول الكثير من هذه المحاولات إلى حلول سطحية وسريعة بدلاً من حلول جذرية ودائمة. إضافة إلى ما سبق، ثمة أساليب خاطئة تعتمد على حظر كلمات بريئة ظاهرياً على سبيل المثال؛ مثل “placenta” (مشيمة)، من نظام توليد الصور بالذكاء الاصطناعي لمنع توليد صور دموية. تلجأ الشركات التكنولوجية إلى حلول التفافية كهذا الحل لأنها لا تدري ما يدفع النماذج إلى إنتاج المحتوى الذي تولده.

أيضاً، أصبح لدينا تصور أفضل حول الأثر الكربوني الحقيقي للذكاء الاصطناعي. فتوليد صورة باستخدام نموذج ذكاء اصطناعي عالي القدرة يستهلك قدراً كبيراً من الطاقة يكفي لشحن هاتفك الذكي بالكامل؛ وفقاً للنتائج التي توصل إليها الباحثون في شركة الذكاء الاصطناعي الناشئة هاغينغ فيس (Hugging Face) وجامعة كارنيغي ميلون. فحتى الآن، كان المقدار الدقيق من الطاقة التي يستهلكها نظام الذكاء الاصطناعي التوليدي مجهولاً. ويمكن لمزيد من الأبحاث أن يساعدنا على إحداث تحول في طريقة استخدامنا للذكاء الاصطناعي حتى تصبح أكثر استدامة.

اقرأ أيضاً: هلوسات الذكاء الاصطناعي: ما الذي يدفع النماذج اللغوية لاختلاق المعلومات؟

3. الخوف من الخطر الوجودي للذكاء الاصطناعي يصبح واسع الانتشار

أصبحت الحوارات حول احتمال تحول الذكاء الاصطناعي إلى خطر وجودي أمراً مألوفاً في العام المنصرم. وقد تحدث المئات من العلماء وقادة الأعمال وصناع السياسات عن هذا الموضوع، بدءاً من رواد التعلم العميق جيفري هينتون ويوشوا بنجيو، وصولاً إلى الرؤساء التنفيذيين لكبرى شركات الذكاء الاصطناعي؛ مثل سام ألتمان وديميس هاسابيس، وعضو الكونغرس عن ولاية كاليفورنيا تيد ليو، والرئيسة السابقة لإستونيا كيرتسي كاليولايد.

وأصبح الخطر الوجودي أحد أكثر ميمات الذكاء الاصطناعي انتشاراً. تقول الفرضية إننا سنبني يوماً ما نظام ذكاء اصطناعي أذكى بكثير من البشر، وإن هذا سيؤدي إلى عواقب وخيمة. يدعم الكثير من الشخصيات في وادي السيليكون هذه الإيديولوجيا؛ مثل كبير علماء أوبن أيه آي، إيليا ساتسكيفر الذي تولى دوراً رئيساً في الإطاحة بالرئيس التنفيذي لأوبن أيه آي، سام ألتمان (وإعادته إلى منصبه بعد عدة أيام).

لكن هذه الفكرة ليست مقبولة لدى الجميع، فقد قال قائدا قسم الذكاء الاصطناعي في شركة ميتا، يان ليكون وجويل بينو، إن هذه المخاوف “سخيفة”، وإن الحوار حول مخاطر الذكاء الاصطناعي أصبح “غير منطقي”. ويقول الكثير من كبار الشخصيات في مجال الذكاء الاصطناعي؛ مثل الباحثة جوي بولامويني، إن التركيز على المخاطر الافتراضية يشتت انتباهنا عن المخاطر الحقيقية والحالية للذكاء الاصطناعي.

على أي حال، فإن زيادة التركيز على الأخطار الشديدة الكامنة لهذه التكنولوجيا أدى إلى إطلاق العديد من الحوارات المهمة حول سياسات الذكاء الاصطناعي، ودفع بالمشرعين في أنحاء العالم كافة إلى اتخاذ إجراءات عملية.

اقرأ أيضاً: كيف يمكن جعل الذكاء الاصطناعي أكثر ملاءمة للبشر عام 2024؟

4. نهاية أيام الانفلات في مجال الذكاء الاصطناعي

بفضل تشات جي بي تي (ChatGPT)، أصبحت سياسات الذكاء الاصطناعي والقوانين الناظمة للذكاء الاصطناعي محط اهتمام الجميع في العام المنصرم، بدءاً من مجلس الشيوخ الأميركي وصولاً إلى قمة السبعة الكبار. ففي بدايات ديسمبر/كانون الأول، اختتم المشرعون الأوروبيون عاماً تشريعياً حافلاً بإقرار قانون الذكاء الاصطناعي الذي سيفرض قواعد ومعايير إلزامية على كيفية تطوير أخطر أنواع الذكاء الاصطناعي على نحو أكثر مسؤولية. كما سيحظر هذا القانون التطبيقات “غير المقبولة” للذكاء الاصطناعي؛ مثل استخدام الشرطة لأنظمة التعرف على الوجوه في الأماكن العامة.

في هذه الأثناء، أصدر البيت الأبيض أمراً تنفيذياً حول الذكاء الاصطناعي، إضافة إلى التزامات طوعية من كبرى شركات الذكاء الاصطناعي. وتهدف جهود البيت الأبيض إلى تعزيز الشفافية وتطبيق المعايير على الذكاء الاصطناعي، علاوة على أنه منح درجة عالية من الحرية للوكالات الحكومية من حيث تكييف قواعد الذكاء الاصطناعي حتى تتناسب مع قطاعات عملها.

كانت العلامات المائية من أكثر السياسات المقترحة واقعية، وأكثرها جذباً للاهتمام، وهي إشارات خفية في النصوص والصور، ويمكن للحواسيب كشفها من أجل تحديد المحتوى المُوَلَّد باستخدام الذكاء الاصطناعي. ويمكن استخدامها لتتبع السرقات الأدبية أو المساعدة على مكافحة المعلومات المزيفة، وقد شهدنا في العام المنصرم عدة أبحاث نجحت في تطبيقها على النصوص والصور الموَلَّدة باستخدام الذكاء الاصطناعي.

غير أن الانشغال لم يقتصر على المشرعين؛ بل طال المحامين أيضاً. فقد شهدنا رقماً قياسياً من الدعاوى القضائية، حيث قال الكثير من الفنانين والكتّاب إن شركات الذكاء الاصطناعي جمعت نتاجهم المحمي بموجب قوانين الملكية الفكرية من دون موافقتهم ومن دون تقديم أي تعويضات إليهم.

وفي هجمة مضادة مثيرة للإعجاب، طوّر باحثون في جامعة شيكاغو أداة جديدة من أجل “تسميم البيانات” باسم “نايتشيد” (Nightshade)، وتتيح هذه الأداة للفنانين مواجهة الذكاء الاصطناعي التوليدي من خلال إفساد بيانات التدريب بأساليب يمكن أن تُحدث أضراراً فادحة في نماذج توليد الصور بالذكاء الاصطناعي.

اقرأ أيضاً: ما الحل إذا نفدت بيانات تدريب الذكاء الاصطناعي؟

بدأت ملامح مقاومة المؤسسات الكبرى في مجال التكنولوجيا تتشكل، وأتوقع هذا العام أن يتضافر المزيد من القوى الشعبية لتغيير ميزان القوى.