لماذا لم يصمد أحدث النماذج اللغوية الكبيرة من ميتا على الإنترنت أكثر من 3 أيام؟

5 دقائق
لماذا لم يصمد أحدث النماذج اللغوية الكبيرة من ميتا على الإنترنت أكثر من 3 أيام؟
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

في 15 نوفمبر/ تشرين الثاني، كشفت شركة ميتا (Meta) الستار عن نموذج لغوي كبير جديد يحمل اسم غالاكتيكا (Galactica)، وهو نموذج يهدف إلى مساعدة العلماء. ولكن، وبدلاً من تحقيق النجاح المدوي الذي كانت ميتا تأمل به، انتهى أمر غالاكتيكا بصورة مهينة بعد ثلاثة أيام من الانتقادات الشديدة. وهكذا، أزالت الشركة النموذج التجريبي العام الذي شجعت الجميع على تجريبه.

حدود النماذج اللغوية الكبيرة

ومرة أخرى، يبين هذا الإخفاق الجديد لميتا –إضافة إلى عجرفتها- أن الشركات التكنولوجية الكبيرة ما زالت غير مدركة لحدود النماذج اللغوية الكبيرة. فهناك الكثير من الأبحاث التي تبرز عيوب هذه التكنولوجيا، بما فيها ميلها إلى إنتاج المحتوى المتحيز، والتأكيد على المعلومات الخاطئة كحقائق.

ولكن ميتا وغيرها من الشركات التي تعمل على النماذج اللغوية الكبيرة، مثل جوجل (Google)، لم تأخذ هذه الأبحاث بعين الاعتبار.

اقرأ أيضاً: ريترو: نموذج لغوي جديد من ديب مايند يستطيع التفوق على نماذج تفوقه حجماً

تم تصميم غالاكتيكا كنموذج لغوي كبير مخصص للأغراض العلمية، فقد تم تدريبه على 48 مليون مثال علمي من المقالات، ومواقع الويب، والكتب، والمحاضرات، والموسوعات. وقد روّجت ميتا لهذا النموذج بوصفه أداة مساعدة سريعة للباحثين والطلبة. ووفقاً لتوصيف الشركة، فإن غالاكتيكا "يستطيع تلخيص الأوراق البحثية الأكاديمية، وحل المسائل الرياضية، وتوليد مقالات ويكيبيديا (Wikipedia)، وكتابة البرمجيات العلمية، ووضع التسميات المعيارية للجزيئات والبروتينات، وغير ذلك".

غالاكتيكا: نموذج عاجز عن التفكير

ولكن هذا المظهر الخارجي اللامع لم يصمد طويلاً. فعلى غرار جميع النماذج اللغوية، ليس غالاكتيكا سوى بوت عاجز عن التفكير، ولا يستطيع تمييز الحقيقة من الخيال. وخلال ساعات، كان العلماء يشاركون نتائجه المتحيزة والخاطئة على وسائل التواصل الاجتماعي.

يقول تشيراغ شاه من جامعة واشنطن، والذي يدرس تكنولوجيات البحث: "أشعر بالدهشة إزاء هذا العمل الجديد، ولكنني في نفس الوقت غير متفاجئ. فعند استعراض هذه الأشياء التجريبية، تبدو للوهلة الأولى مذهلة وسحرية وبالغة الذكاء. ولكن يبدو أن الكثيرين ما زالوا غير مدركين أن هذه الأشياء، مبدئياً، لا تستطيع العمل كما نروّج لها".

اقرأ أيضاً: لماذا لا يمكن للنموذج اللغوي لامدا أن يمتلك وعي البشر كما قال مهندس في جوجل؟

وعندما طلبت إم آي تي تكنولوجي ريفيو من ميتا تصريحاً حول سبب إزالتها للنموذج التجريبي، أشارت ميتا إلى تغريدة تقول: "شكراً للجميع على تجربتهم للنسخة التجريبية من نموذج غالاكتيكا. ونحن نقدر الملاحظات التي حصلنا عليها حتى الآن من الأوساط المختلفة، وقد قررنا إيقاف هذا النموذج حالياً. وما زالت نماذجنا متاحة للباحثين الراغبين بمعرفة المزيد عن هذا العمل، وإعادة إنتاج النتائج لأغراض بحثية".

تكمن مشكلة غالاكتيكا الأساسية في عجزه عن تمييز الحقيقة عن التزييف، وهو شرط أساسي لأي نموذج لغوي مصمم لتوليد النصوص العلمية. وقد اكتشف الأشخاص الذين جربوه أنه قام بصياغة أبحاث مزيفة (وكان ينسبها في بعض الأحيان إلى أشخاص حقيقيين)، كما كان يقوم بتوليد مقالات ويكيبيديا حول تاريخ الدببة في الفضاء بشكل مماثل لمقالات حول المركبات البروتينية وسرعة الضوء. من السهل كشف المعلومات المزيفة عندما تتضمن دببة فضائية، ولكن ليس عندما تتحدث عن موضوع لا يعرف المستخدم الكثير عنه.

اقرأ أيضاً: ما الذي يعرفه نموذج الذكاء الاصطناعي جي بي تي 3 عني؟

نظام خطير

وقد وجه العلماء انتقادات حادة. فقد غرّد مدير معهد ماكس بلانك لأنظمة الذكاء الاصطناعي، والمختص بالتعلم العميق، مايك بلاك، قائلاً: "في جميع الحالات، كان النظام خاطئاً أو متحيزاً، ولكنه بدا صحيحاً وجازماً. وأعتقد أنه خطير".

وحتى الآراء الإيجابية لم تخل من التحذيرات: فقد غرّد مايلز كرانمر، وهو فيزيائي فلكي في برينستون، قائلاً: "أشعر بالحماس لرؤية ما سينتج عن هذا التوجه! ولكن، يجب ألا تحتفظ بالخرج بحرفيته، أو تثق به. وبشكل أساسي، يمكنك أن تتعامل معه كمحرك بحث متطور يعتمد على مصادر ثانوية مريبة!".

يعاني غالاكتيكا أيضاً من ثغرات في المواضيع التي يستطيع معالجتها. فعندما طُلب منه توليد نصوص حول مواضيع معينة، مثل "العنصرية" و"الإيدز"، استجاب النموذج بالعبارة التالية: "عذراً، لم يتوافق طلبك مع معايير فلاتر المحتوى. يرجى المحاولة مرة أخرى، مع مراعاة أنه نموذج لغوي علمي".

يقول فريق ميتا الذي صمم غالاكتيكا إن النماذج اللغوية أفضل من محركات البحث. وكتب الباحثون قائلين: "نعتقد أن هذا سيكون الواجهة الجديدة التي يستخدمها البشر للوصول إلى المعرفة العلمية".

ويعود هذا إلى أن النماذج اللغوية "تمتلك قدرات كامنة لتخزين وجمع ومعالجة" المعلومات. ولكن كلمة "كامنة" أساسية هنا. فهي اعتراف مبطن بعجز النماذج اللغوية عن القيام بكل هذه الأشياء حتى اللحظة. وهو ما قد لا يتحقق على الإطلاق.

يقول شاه: "إن إمكانات النماذج اللغوية لا تتجاوز فعلياً قدرتها على التقاط أنماط سلاسل الكلمات وتوليدها وفق أساليب احتمالية. إنها تعطي انطباعاً خاطئاً بالذكاء".

اقرأ أيضاً: ميتا تبني ذكاءً اصطناعياً لغوياً جديداً وضخماً ومتاحاً للجميع مجاناً

بضع كلمات حول الهراء

أما غاري ماركوس، وهو عالم مختص بالإدراك في جامعة نيويورك، وأحد كبار منتقدي التعلم العميق، فقد قدم وجهة نظره في منشور على منصة سابستاك (Substack) بعنوان "بضع كلمات حول الهراء"، قائلاً إن قدرة النماذج اللغوية الكبيرة على تقليد النصوص البشرية ليست سوى "إنجاز إحصائي كبير".

وعلى الرغم من هذا، فإن ميتا ليست الشركة الوحيدة التي تروّج للفكرة التي تقول إن النماذج اللغوية يمكن أن تحل محل محركات البحث. ففي السنتين الماضيتين، كانت جوجل تستعرض نموذجها اللغوي بالم (PaLM) وتروج له كنظام للبحث عن المعلومات.

إنها فكرة جذابة. ولكن مجرد التلميح إلى أن النصوص الشبيهة بالنصوص البشرية، والتي تولدها هذه النماذج، ستحتوي على الدوام على معلومات موثوقة، كما يبدو أن ميتا تفعل في ترويجها لغالاكتيكا، هو عمل متهور وغير مسؤول. إنه خطأ يدل على حماقة وسوء تقدير.

ولكن هذا لم يكن خطأ فريق التسويق في ميتا وحسب. فقد استمات يان ليكون، وهو أحد الفائزين بجائزة تورينغ، وكبير علماء ميتا، في الدفاع عن غالاكتيكا حتى آخر لحظة. وغرّد ليكون في 15 نوفمبر/ تشرين الثاني قائلاً: "عند تلقيم غالاكتيكا بتعليمة نصية، سيقوم بتوليد ورقة بحثية مع مراجع ومعادلات صحيحة وكل ما يلزم من متطلبات أخرى". وبعد ثلاثة أيام، غرّد قائلاً: "تم إيقاف النسخة التجريبية من غالاكتيكا. ولم يعد من الممكن إساءة استخدامه عمداً بغرض التسلية. أيسرّكم هذا؟"

يذكرنا هذا بما حدث في 2016، عندما أطلقت مايكروسوفت (Microsoft) بوت دردشة باسم تاي على تويتر (Twitter)، ثم أوقفته عن العمل بعد 16 ساعة، بعدما علمه مستخدمو تويتر العنصرية والتمييز على أساس الجنس وغير ذلك. وعلى الرغم من أن طريقة ميتا في إدارة غالاكتيكا لم تكن سيئة إلى هذه الدرجة، فإنها تنم عن نفس السذاجة.

اقرأ أيضاً: معهد الابتكار التكنولوجي يطلق “نور”: نموذج الذكاء الاصطناعي القادر على معالجة اللغة العربية

يقول شاه: "ستواصل الشركات التكنولوجية الكبيرة القيام بهذا، وأعدكم بأنها لن تتوقف، لأنها قادرة على مواصلة ذلك. وتشعر الشركات أنها يجب أن تفعل هذا، مخافة أن تسبقها جهة أخرى. وهي تعتقد أن هذه النماذج تمثل مستقبل الوصول إلى المعلومات والأنظمة المعرفية، حتى لو لم يطلب أحد تحقيق هذا المستقبل".