هل يوجد تعريف موحد للذكاء الاصطناعي المفتوح المصدر؟

11 دقيقة
هل يوجد تعريف موحد للذكاء الاصطناعي المفتوح المصدر؟
حقوق الصورة: ستيفاني أرنيت/ميتر | إنفاتو
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

تحول مصطلح “مفتوح المصدر” على حين غرة إلى أحدث تقليعة في أوساط الذكاء الاصطناعي. فقد تعهدت شركة ميتا (Meta) ببناء ذكاء اصطناعي عام مفتوح المصدر. ويقاضي إيلون ماسك شركة أوبن أيه آي (OpenAI) لأنها لم تطرح أي نموذج ذكاء اصطناعي مفتوح المصدر.

في هذه الأثناء، بدأ عدد متزايد من القادة والشركات في قطاع التكنولوجيا الإعلان عن تأييده الأسلوب المفتوح المصدر في العمل.

لكن، ثمة مشكلة جوهرية، وهي عدم وجود اتفاق حول معنى “الذكاء الاصطناعي المفتوح المصدر”.

يوحي المصطلح ظاهرياً بأن الذكاء الاصطناعي المفتوح المصدر يعني إمكانية مشاركة أي شخص في تطوير هذه التكنولوجيا في المستقبل. وهو ما يمكن أن يسرّع وتيرة الابتكار، ويعزز الشفافية، ويمنح المستخدمين درجة أعلى من السيطرة على الأنظمة التي يمكن أن تؤدي قريباً إلى تغييرات جذرية في الكثير من جوانب حياتنا. لكن ما تعريف هذا الذكاء الاصطناعي فعلياً؟ ما الذي يجعل نموذج ذكاء اصطناعي ما مفتوح المصدر؟ وما الميزة التي تنفي عنه هذه الصفة؟

يمكن أن تؤدي الإجابات عن هذه الأسئلة إلى نتائج مهمة للغاية فيما يخص مستقبل هذه التكنولوجيا. وإلى أن تستقر صناعة التكنولوجيا على تعريف محدد، تستطيع الشركات ذات النفوذ الكبير تحريف هذا المفهوم بسهولة حتى يتناسب مع احتياجاتها الخاصة، ومن الممكن أن يتحول هذا المفهوم إلى أداة تعزز هيمنة الجهات الفاعلة الرائدة حالياً.

قررت مؤسسة مبادرة المصدر المفتوح (Open Source Initiative) (اختصاراً: أو إس آي) أن تدخل هذه المعركة بعد أن عيّنت نفسها حكماً يحدد معنى “مفتوح المصدر”. تأسست هذه المنظمة اللاربحية عام 1998، وهي الجهة الراعية لتعريف المصدر المفتوح، وهو مجموعة من القواعد التي تحظى بتأييد واسع النطاق لتحديد إمكانية تصنيف برنامج ما ضمن فئة البرامج المفتوحة المصدر.

والآن، شكّلت المنظمة مجموعة تتألف من 70 شخصاً من الباحثين والمحامين وصُنّاع السياسات والناشطين وممثلي شركات التكنولوجيا الكبرى مثل ميتا وجوجل وأمازون للتوصل إلى تعريف عملي للذكاء الاصطناعي المفتوح المصدر،

غير أن مجتمعات المصادر المفتوحة كبيرة وواسعة الانتشار، وتشمل العديد من الأشخاص والجهات، بدءاً من الناشطين في مجال القرصنة السياسية على الإنترنت، وصولاً إلى الشركات ضمن قائمة فورتشن 500 (Fortune 500). وعلى الرغم من وجود اتفاق واسع النطاق على المبادئ الشاملة، كما يقول المدير التنفيذي لأو إس آي، ستيفانو مافولي، فقد أصبح من الواضح، على نحو متزايد، أن المشكلة الحقيقية تكمن في التفاصيل. بوجود عدد كبير من المصالح المتضاربة التي يجب أن تُؤخذ بعين الاعتبار، أصبح من الصعب العثور على حل يرضي الجميع ويضمن في الوقت نفسه امتثال الشركات الكبرى لهذا الحل.

اقرأ أيضاً: غروك 1.5 فيجن: إليك ما نعرفه عن نموذج الذكاء الاصطناعي المتعدد الوسائط

معايير غامضة

لم يؤدِّ غياب تعريف حاسم ومتفق عليه إلى ردع الشركات التكنولوجية عن تبنّي هذا المصطلح.

ففي شهر يوليو/تموز الماضي، أطلقت ميتا نموذج لاما 2 (Llama 2)، الذي وصفته بأنه مفتوح المصدر، ومتاح مجاناً، كما أن الشركة تتميز بسجل حافل بالإنجازات المتعلقة بإطلاق تكنولوجيات متاحة للعموم في مجال الذكاء الاصطناعي. وقد قال لنا المستشار العام المساعد للذكاء الاصطناعي والمصادر المفتوحة والترخيص في ميتا، جوناثان توريس: “نحن ندعم جهود أو إس آي لتعريف الذكاء الاصطناعي المفتوح المصدر، ونتطلع قدماً إلى الاستمرار في المشاركة في عمليتهم التي تهدف إلى إفادة مجتمعات المصادر المفتوحة في أنحاء العالم كافة”.

يتناقض هذا التوجه بصورة ملحوظة مع توجه الشركة المنافسة أوبن أيه آي، التي قللت من التفاصيل التي تفصح عنها حول نماذجها الرائدة على مر السنين، ما أثار المخاوف المتعلقة بالأمن والسلامة لدى البعض. وقد قال ناطق باسم الشركة: “لا نجعل نماذج الذكاء الاصطناعي العالية القدرة مفتوحة المصدر إلّا بعد إجراء دراسة دقيقة للمقارنة بين الفوائد والمخاطر، بما في ذلك إساءة الاستخدام وتسريع وتيرة التطور”.

أيضاً، عمدت شركات رائدة أخرى في مجال الذكاء الاصطناعي، مثل ستابيليتي أيه آي (Stability AI) وأليف ألفا (Aleph Alpha)، إلى إطلاق نماذج وُصِفَت بأنها مفتوحة المصدر، كما تستضيف شركة هاغينغ فيس (Hugging Face) مكتبة كبيرة من نماذج الذكاء الاصطناعي المتاحة مجاناً.

وعلى حين اتبعت جوجل نهجاً منغلقاً بدرجة أكبر مع نماذجها الأعلى قدرة، مثل جيميناي (Gemini) وبالم 2 (PaLM 2)، فإن نماذج جيما (Gemma) التي أطلقتها مؤخراً متاحة مجاناً ومصممة لتنافس لاما 2، على الرغم من أن الشركة وصفتها بأنها “مفتوحة” بدلاً من “مفتوحة المصدر”.

لكن ثمة خلافات واضحة حول إمكانية تصنيف أي من هذه النماذج فعلياً ضمن فئة النماذج المفتوحة المصدر. ففي البداية، يرتبط كل من لاما 2 وجيما بتراخيص تقيد ما يمكن للمستخدم فعله بهذه النماذج. يمثّل هذا انتهاكاً واضحاً لمبادئ المصادر المفتوحة: فأحد البنود الرئيسية في تعريف المصدر المفتوح يحظر فرض أي قيود بناءً على حالات الاستخدام.

المعايير غامضة حتى بالنسبة إلى النماذج التي لا تتضمن شروطاً كهذه. لقد طُوِّر مفهوم المصدر المفتوح حتى يضمن للمطورين إمكانية استخدام البرمجيات ودراستها وتعديلها ومشاركتها دون قيود. لكن الذكاء الاصطناعي يعمل بطرق مختلفة جذرياً، ولا يمكن تطبيق المفاهيم الرئيسية المتعلقة بالبرمجيات على الذكاء الاصطناعي بسلاسة، كما يقول مافولي.

يمثّل العدد الضخم من العناصر التي تدخل في بناء نماذج الذكاء الاصطناعي الحالية أحد أكبر العوائق. فالتلاعب ببرنامج ما لا يتطلب سوى إحداث تغيير في الشيفرة البرمجية المصدرية، كما يقول مافولي. لكن التلاعب بأحد نماذج الذكاء الاصطناعي يعتمد على الهدف النهائي، فقد يتطلب الوصول إلى النموذج المُدَرَّب، أو بياناته التدريبية، أو الرموز البرمجية المستخدمة في المعالجة الأولية لهذه البيانات، أو الرموز البرمجية التي تحكم عملية التدريب، أو البنية الأساسية للنموذج، أو مجموعة أخرى من التفاصيل الأدق.

وما زالت العناصر المطلوبة لإجراء دراسة مجدية وتعديلات حقيقية على النموذج محط تأويلات مختلفة ومفتوحة حتى الآن. يقول مافولي: “لقد حددنا الحريات الأساسية أو الحقوق الأساسية التي نود أن نكون قادرين على ممارستها. غير أن آليات ممارسة هذه الحقوق لا تزال غير واضحة”.

يمثّل حسم هذا الجدل عاملاً أساسياً في تمكين أوساط الذكاء الاصطناعي من جني المكاسب نفسها التي حصل عليها مطورو البرمجيات من المصادر المفتوحة، والتي اعتمدت على إجماع واسع النطاق حول معنى هذا المصطلح، كما يقول مافولي. يقول مافولي: “سيكون الوضوح مكفولاً إذا تمكنا من التوصل إلى تعريف يحظى باحترام نطاق واسع من قطاع الذكاء الاصطناعي وإقراره. وعندما يتوفر الوضوح تنخفض تكاليف الامتثال للمعايير المتفرعة عن هذا التعريف، وتراجع الخلافات، وزيادة التفاهم المشترك”.

تمثّل البيانات أكثر المسائل إثارة للخلاف حتى الآن. فقد اكتفت شركات الذكاء الاصطناعي الكبرى جميعاً بإطلاق النماذج المدربة مسبقاً، دون أن تكشف عن مجموعات البيانات المستخدمة في تدريبها. وبالنسبة إلى من يسعون إلى فرض تعريف أكثر صرامة للذكاء الاصطناعي المفتوح المصدر، فإن هذه المسألة تمثّل مشكلة كبيرة تعوق تعديل هذه النماذج ودراستها، ما يعني استبعادها تلقائياً من تصنيف النماذج المفتوحة المصدر، كما يقول مافولي.

ورأى آخرون أن الوصف البسيط للبيانات غالباً ما يكون كافياً لفحص آليات النموذج، كما يقول مافولي، كما أن إجراء التعديلات لا يتطلب بالضرورة إعادة تدريب النموذج من نقطة الصفر. وعادة ما تخضع النماذج المدربة مسبقاً إلى التعديل عبر عملية معروفة باسم “الضبط الدقيق” (fine-tuning)، حيث يُعاد تدريبها جزئياً باستخدام مجموعة بيانات أصغر، وغالباً ما تكون مصممة لتطبيق محدد.

يمثّل نموذج لاما 2 مثالاً على هذه الطريقة، كما يقول الرئيس التنفيذي لشركة الذكاء الاصطناعي المفتوح المصدر أينيكو (Ainekko) ونائب رئيس الشؤون القانونية لمؤسسة أباتشي سوفتوير فاونديشن (Apache Software Foundation) المشاركة في عملية أو إس آي، رومان شابوشنيك. فعلى الرغم من أن ميتا اكتفت بإطلاق نموذج مدرب مسبقاً، فقد تمكن مجتمع مزدهر من المطورين من تنزيل النموذج وتعديله، ونشر هذه التعديلات للعموم.

“يستخدم عدد كبير من الأشخاص هذا النموذج في شتى أنواع المشاريع. وثمة بيئة عمل كاملة مبنية حوله”، كما يقول. ويُضيف قائلاً: “ولهذا يجب أن نُطلق عليه تسمية ما. هل هو نصف مفتوح؟ هل هو مفتوح جزئياً؟”

قد يكون تعديل النموذج دون بياناته التدريبية الأصلية ممكناً من الناحية الفنية، لكن تقييد الوصول إلى أحد مكوناته الرئيسية لا ينسجم على الإطلاق مع روح المصدر المفتوح، كما تقول مديرة الأبحاث في المؤسسة اللاربحية أوبن فيوتشر (Open Future) التي تشارك في نقاشات أو إس آي، زوزانا وارسو. كما أن إمكانية إجراء دراسة حرة فعلياً للنموذج دون معرفة المعلومات المستخدمة في تدريبه ما زالت موضوعاً مطروحاً للنقاش.

تقول وارسو: “تمثّل البيانات عنصراً جوهرياً في هذه العملية بأسرها. إن كنا حريصين على الانفتاح، فيجب أن نحرص على أن تكون البيانات مفتوحة أيضاً”.

اقرأ أيضاً: كيف ستنعكس لعبة المصادر المفتوحة على تفوق الشركات في نماذج الذكاء الاصطناعي؟

تحقيق عدة أهداف متضاربة

من المهم أن نفهم السبب الذي يدعو الشركات إلى الإعلان عن تأييدها لتوجه المصدر المفتوح، ورفضها تسليم بيانات التدريب في الوقت نفسه. فالوصول إلى بيانات التدريب العالية الجودة يمثّل عائقاً كبيراً أمام أبحاث الذكاء الاصطناعي، وميزة تنافسية تتوق الشركات الكبرى إلى الحفاظ عليها، كما تقول وارسو.

في الوقت نفسه، يحمل توجه “المصدر المفتوح” مجموعة من الفوائد التي ترغب هذه الشركات في نقلها إلى مجال الذكاء الاصطناعي. من الناحية الظاهرية، يحمل مصطلح “مفتوح المصدر” دلالات إيجابية بالنسبة إلى الكثير من الأشخاص، ولهذا فإن الانخراط فيما يُسمّى “الغسل المفتوح” يمثّل مسألة سهلة وإيجابية على صعيد العلاقات العامة، كما تقول وارسو.

كما يمكن أن يحدث أثراً إيجابياً واضحاً على صافي أرباح هذه الشركات. وقد وجد الاقتصاديون في كلية هارفارد للأعمال مؤخراً أن البرمجيات المفتوحة المصدر وفرت على الشركات 9 تريليونات دولار تقريباً من تكاليف التطوير، وذلك من خلال تمكينها من بناء منتجاتها بالاعتماد على برمجيات مجانية وعالية المستوى، بدلاً من كتابة الرموز البرمجية هذه البرمجيات بنفسها.

أمّا بالنسبة للشركات الأكبر، فإن تحويل برمجياتها إلى برمجيات مفتوحة المصدر يُتيح للمطورين إمكانية تعديلها وإعادة استخدامها، ما يساعد على بناء بيئة عمل قوية وفعّالة تحتضن هذه المنتجات، كما تقول وارسو. يُعدّ قرار جوجل بجعل نظامها المخصص لتشغيل الهواتف الخلوية أندرويد (Android) مفتوح المصدر مثالاً نموذجياً على هذه المسألة، فقد أدى هذا الإجراء إلى تعزيز مكانته المهيمنة في قلب ثورة الهواتف الذكية. وكانت شركة ميتا التابعة لمارك زوكربيرغ صريحة حول هذا الدافع في اجتماعاتها المتعلقة بالأرباح، حيث قالت إنه “غالباً ما تصبح البرمجيات المفتوحة المصدر معياراً معتمداً على مستوى الصناعة، وعندما تتبع الشركات معياراً موحداً للبناء باستخدام حزمنا البرمجية، يصبح من الأسهل بعد ذلك إدماج الابتكارات الجديدة في منتجاتنا”.

ومن المهم للغاية أن الذكاء الاصطناعي المفتوح المصدر، على ما يبدو، قد يحظى بمعاملة تفضيلية في أوساط الجهات الرقابية والتنظيمية في بعض الأماكن، كما تقول وارسو، مشيرة إلى قانون الذكاء الاصطناعي الذي أقره الاتحاد الأوروبي مؤخراً، والذي يستثني بعض المشاريع المفتوحة المصدر من بعض متطلباته الصارمة.

عندما نأخذ هذه العوامل جميعاً بعين الاعتبار، يصبح من الواضح أن مشاركة النماذج المدربة مسبقاً وتقييد الوصول إلى البيانات المطلوبة لتدريبها أمر منطقي من الناحية التجارية، كما تقول وارسو. لكنه يبين أن الشركات تحاول تحقيق عدة أهداف متضاربة في الوقت نفسه، كما تضيف. وإذا كانت هذه الاستراتيجية تساعد على ترسيخ المكانة المهيمنة للشركات التكنولوجية الكبيرة حالياً، فمن الصعب أن نجد ما يشير إلى توافق هذا الأمر مع المبادئ الأساسية للمصدر المفتوح.

تقول وارسو: “يمثّل الانفتاح بالنسبة إلينا إحدى الأدوات التي تساعد على مواجهة تركيز النفوذ الذي تتمتع به بضعة أطراف مهيمنة وحسب. وإذا كان من المفترض أن يساعدنا هذا التعريف على مواجهة تركيز النفوذ، فإن مسألة البيانات تزداد أهمية”.

يعتقد شابوشنيك أنه من الممكن التوصل إلى تسوية لهذه المسألة. فنسبة كبيرة من البيانات المستخدمة في تدريب أكبر النماذج تُجمع في المقام الأول من مصادر مفتوحة، مثل موسوعة ويكيبيديا (Wikipedia) أو مؤسسة كومون كرول (Common Crawl) التي تستخرج البيانات من الإنترنت آلياً وتشاركها مجاناً. ويقول إنه يمكن للشركات ببساطة أن تفصح عن المصادر المفتوحة المستخدمة في تدريب نماذجها، ما يُتيح إعادة تشكيل مجموعات بيانات مشابهة إلى حد معقول، الأمر الذي ينبغي له أن يُتيح للآخرين دراسة النماذج وفهمها.

تقول مديرة السياسات والأخلاقيات في مجموعة أبحاث الذكاء الاصطناعي اللاربحية إليوثر أيه آي (EleutherAI) المشاركة أيضاً في عملية أو إس آي، آفيا سكاورون، إن عدم الوضوح بشأن إن كان التدريب على الأعمال الفنية أو الكتابة انطلاقاً من نصوص مستخرجة آلياً من الإنترنت يُعدّ انتهاكاً لحقوق الملكية الفكرية لصُنّاع المحتوى، يمكن أن يتسبب بمشكلات قانونية لهذه الشركات. هذا يجعل المطورين حذرين من الانفتاح بشأن بياناتهم.

بالنسبة إلى أستاذ علوم الكمبيوتر في معهد البوليتكنيك (Polytechnic) في باريس والمشارك في تعريف أو إس آي أيضاً، ستيفانو زاكيرولي، فإن يقدر الحاجة إلى البراغماتية في هذه المسألة. وتقول وجهة نظره الشخصية إن التوصيف الكامل لبيانات التدريب للنموذج يمثّل الحد الأدنى الذي يُتيح تصنيفه ضمن فئة النماذج المفتوحة المصدر، لكنه يعترف أن التعاريف الأكثر صرامة للذكاء الاصطناعي المفتوح المصدر قد لا تحظى بقبول واسع النطاق.

وفي نهاية المطاف، يجب على أوساط الذكاء الاصطناعي أن تحدد الأهداف التي تحاول تحقيقها بالضبط، كما يقول زاكيرولي: “هل تكتفي هذه الأوساط باتباع توجهات السوق بحيث تتفادى عملياً وضع تعريف خاص بها ويتجاهل الآخرين لمصطلح “الذكاء الاصطناعي المفتوح المصدر”، أمْ أنها تحاول جذب السوق نحو درجة أعلى من الانفتاح، وتشجيعها على تقديم المزيد من الحريات للمستخدمين؟”

ما الغاية من المصدر المفتوح؟

تقول المديرة التنفيذية المشاركة في معهد أيه آي ناو (AI Now)، سارة مايرز ويست، إنه ثمة جدل حول مدى قدرة أي تعريف للذكاء الاصطناعي المفتوح المصدر على تحقيق تكافؤ الفرص على أي حال. وقد شاركت في تأليف ورقة بحثية نُشِرت في أغسطس/آب من عام 2023 وكشفت عن عدم الانفتاح في العديد من مشاريع الذكاء الاصطناعي المفتوحة المصدر. لكن هذه الورقة البحثية سلّطت الضوء أيضاً على الكميات الهائلة من البيانات والقدرات الحاسوبية العالية المطلوبة لتدريب أحدث نماذج الذكاء الاصطناعي، ما يؤدي إلى خلق حواجز بنيوية كبيرة أمام الجهات الفاعلة الأصغر في هذا المجال، بصرف النظر عن مدى انفتاح النماذج نفسها.

تعتقد مايرز ويست أنه ثمة نقص في الوضوح أيضاً بشأن الآمال المعقودة على جعل الذكاء الاصطناعي مفتوح المصدر. وتتساءل: “هل تتعلق آمالهم بالأمن والسلامة، أم القدرة على إجراء الأبحاث الأكاديمية، أم رفع مستوى التنافسية؟ يجب أن نتحلى بمزيد من الدقة فيما يتعلق بالهدف الذي نسعى إلى تحقيقه، وبعد ذلك، يجب أن نحدد كيف يؤثر جعل النظام مفتوحاً في المساعي الرامية إلى تحقيق هذا الهدف”.

تبدو أو إس آي مصممة على تفادي هذه الحوارات. فمسودة التعريف تذكر الاستقلالية والشفافية بوصفهما من الفوائد الرئيسية، لكن مافولي رفض الإفصاح عن السبب الذي يدعو أو إس آي إلى منح قيمة خاصة لهذه المفاهيم، على الرغم من إصرارنا على الحصول على إجابة. تتضمن الوثيقة أيضاً قسماً بعنوان “مسائل خارج نطاق التعريف”، حيث توضح أن التعريف لن يخوض في أي تساؤلات تتعلق بالذكاء الاصطناعي “الأخلاقي أو الجدير بالثقة أو المسؤول”.

يقول مافولي إن أوساط المصدر المفتوح كانت تركّز من قبل على تمكين المشاركة السلسة للبرمجيات، وتفادي الغوص في مستنقعات الجدل حول كيفية استخدام هذه البرمجيات. ويقول: “هذه ليست مهمتنا”.

لكن وارسو تقول إنه لا يمكن تجاهل هذه الأسئلة ببساطة، بصرف النظر عن مدى صعوبة المحاولات على مدى العقود السابقة. وتُضيف قائلة إن الفكرة التي تقول إن التكنولوجيا محايدة وإن المواضيع مثل الأخلاقيات هي “خارج النطاق” ليست سوى فكرة خرافية. تشك وارسو في أن الحاجة إلى التمسك بهذه الفكرة الخيالية تُعزى إلى محاولة الحفاظ على التحالف الهش لأوساط المصدر المفتوح ومنعه من التفكك. تقول وارسو: “أعتقد أن الجميع يدركون أنها ليست فكرة حقيقية، لكننا في حاجة إليها حتى نتمكن من تحقيق التقدم”.

سلكت مجموعات أخرى غير أو إس آي أساليب مختلفة. ففي 2022، طرحت مجموعة من الباحثين تراخيص الذكاء الاصطناعي المسؤول (RAIL) التي تشبه تراخيص المصدر المفتوح، لكنها تتضمن بنوداً تفرض قيوداً على حالات استخدام محددة. يقول باحث الذكاء الاصطناعي الذي أسهم في صياغة الرخصة، دانيش كونتراكتور، إن الهدف هو السماح للمطورين بمنع استخدام عملهم في أشياء يعتبرونها غير مناسبة أو غير أخلاقية.

ويقول: “بصفتي باحثاً، أكره أن يُستخدم عملي بأساليب قد تكون ضارة”. لا تقتصر وجهة النظر هذه على كونتراكتور، فقد أظهر تحليل أجراه مؤخراً مع مجموعة من زملائه على المنصة الذائعة الصيت التي خصصتها شركة الذكاء الاصطناعي الناشئة هاغينغ فيس لاستضافة النماذج، أن 28% من النماذج تستخدم تراخيص الذكاء الاصطناعي المسؤول.

تتبع الرخصة التي ربطتها جوجل بنموذج جيما أسلوباً مشابهاً. وتتضمن قائمة شروط الاستخدام مجموعة متنوعة من حالات الاستخدام المحظورة التي تعدّها “ضارة”، والتي تعكس “التزامها بتطوير الذكاء الاصطناعي على نحو مسؤول”، كما قالت الشركة مؤخراً في منشور مدونة. إضافة إلى هذا، طوّر معهد آلين للذكاء الاصطناعي (Allen Institute for AI) أسلوبه الخاص في التعامل مع الترخيص المفتوح. حيث تفرض رخصه التي تندرج تحت مسمى “إمباكت لايسنسز” (ImpACT Licenses) قيوداً على إعادة توزيع النماذج والبيانات بناء على استخداماتها المحتملة.

نظراً للاختلافات الكبيرة بين الذكاء الاصطناعي والبرمجيات التقليدية، فإن إجراء مستوى معين من التجارب بدرجات مختلفة من الانفتاح أمر لا مفر منه، بل ومن المحتمل أن يكون مفيداً لهذا المجال، كما يقول المؤسس المشارك والمسؤول القانوني الرئيسي في شركة إدارة البرمجيات المفتوحة المصدر تايدليفت (Tiedlift)، لويس فيلا. لكن ما يقلقه هو أن انتشار التراخيص “شبه المفتوحة” التي تفتقر إلى التوافق المتبادل، يمكن أن يبطل مفعول العمل التعاوني السلس الذي جعل توجه المصدر المفتوح ناجحاً للغاية، ويبطئ وتيرة الابتكار في الذكاء الاصطناعي، ويخفّض درجة الشفافية، ويجعل من الصعب على الجهات الفاعلة الصغيرة في السوق التطوير بالاعتماد على منجزات بعضها بعضاً.

اقرأ أيضاً: لماذا جعل إيلون ماسك نموذج اللغة الكبير غروك (Grok) مفتوح المصدر؟

في نهاية المطاف، يعتقد فيلا أن أوساط الذكاء الاصطناعي يجب أن تتحد حول معيار واحد، وإلّا فإن الصناعة ستتجاهله ببساطة، وتقرر بنفسها ما يعنيه مصطلح “مفتوح”. غير أنه لا يحسد أو إس آي على عملها. فعندما وضعت تعريفاً للبرمجيات المفتوحة المصدر، كان لديها متسع من الوقت، ولم تتعرض إلى تدقيق خارجي يستحق الذكر. أمّا الآن، فقد أصبح الذكاء الاصطناعي بين كفي رحى؛ الشركات الكبرى من جانب، والجهات الرقابية من جانب آخر.

لكن، إذا لم تستطع مجتمعات المصادر المفتوحة أن تستقر على تعريف محدد، وبسرعة، فسوف تتوصل جهة ما إلى تعريف يناسب احتياجاتها. يقول فيلا: “ستملأ أطراف أخرى هذا الفراغ. وسيخبرنا مارك زوكربيرغ عن معنى “مفتوح” وفقاً لوجهة نظره، وهو يمتلك الوسائل اللازمة لنشر وجهة النظر هذه على أوسع نطاق ممكن”.