فائز بجائزة تورينج: لا بُدّ من الاعتماد على الذكاء الاصطناعي نفسه لضمان سلامة أنظمته

4 دقيقة
فائز بجائزة تورينج: لا بُدّ من الاعتماد على الذكاء الاصطناعي نفسه لضمان سلامة أنظمته
حقوق الصورة: أنسبلاش

قرر الفائز بجائزة تورينغ، الذي يمثل أحد "الآباء الروحيين" للذكاء الاصطناعي المعاصر، يوشوا بنجيو، أن يلقي بكامل ثقله في مشروع تموله الحكومة البريطانية لدمج آليات السلامة في أنظمة الذكاء الاصطناعي.

يحمل المشروع اسم "سيف غارديد أيه آي" (Safeguarded AI)، ويهدف إلى بناء نظام ذكاء اصطناعي يستطيع التحقق مما إذا كانت أنظمة الذكاء الاصطناعي الأخرى المطبقة في مجالات حيوية وفائقة الأهمية، آمنة أم لا. انضم بنجيو إلى المشروع بصفة مدير علمي، وسيقدم مدخلات مهمة ونصائح علمية قيمة. سيتلقى المشروع تمويلاً بقيمة 59 مليون جنيه إسترليني على مدى السنوات الأربع المقبلة، وذلك عن طريق وكالة الأبحاث والابتكارات المتقدمة ( Advanced Research and Invention Agency) أو اختصاراً "آريا" (ARIA) التابعة للمملكة المتحدة، والتي باشرت عملها في شهر يناير/كانون الثاني من العام الماضي للاستثمار في الأبحاث العلمية التي يمكن أن تؤدي إلى إحداث تغييرات جذرية.

اقرأ أيضاً: ما أبرز الأساليب والاختبارات التي طوِّرت لتقييم ذكاء أنظمة الذكاء الاصطناعي؟

ما هي أهداف المشروع؟

يهدف سيف غارديد أيه آي إلى بناء أنظمة ذكاء اصطناعي يمكنها تقديم ضمانات كمية، مثل درجة الخطورة، حول تأثيرها في العالم الحقيقي، كما يقول مدير برنامج سيف غارديد أيه آي في آريا، ديفيد دالريمبل، الملقب بـ "ديفيداد". تكمن الفكرة في تعزيز الاختبارات البشرية من خلال التحليل الرياضي للأضرار المحتملة التي يمكن أن تتسبب بها الأنظمة الجديدة.

يهدف المشروع إلى بناء آليات سلامة للذكاء الاصطناعي من خلال الجمع بين النماذج العلمية العالمية، وهي نماذج تحاكي العالم في جوهرها، والبراهين الرياضية. تتضمن هذه البراهين توضيحات عن كيفية عمل الذكاء الاصطناعي، وسيتولى البشر مهمة التحقق مما إذا كانت اختبارات السلامة التي يخضع لها نموذج الذكاء الاصطناعي صحيحة.

يقول بنجيو إنه يريد أن يساعد على ضمان منع أنظمة الذكاء الاصطناعي المستقبلية من التسبب بأي أضرار جسيمة.

ويقول: "نحن نهرول مندفعين نحو مرحلة ضبابية في الوقت الحالي، التي قد تودي بنا فجأة إلى شفير الهاوية . لا نعرف كم تبعد هذه الهاوية، أو إن كانت موجودة حتى، ولهذا قد تمر سنوات أو عقود كاملة ونحن لا نزال نجهل مدى خطورة هذا الأمر. علينا بناء الأدوات اللازمة لإزالة ذلك الضباب، والتأكد من عدم وقوعنا في هذه الهاوية إن كانت موجودة".

ويضيف قائلاً إنه ليس لدى شركات العلوم والتكنولوجيا أي طريقة لتقديم ضمانات رياضية بأن أنظمة الذكاء الاصطناعي ستتصرف طبقاً لما تنص عليه التعليمات البرمجية التي تقود عملها. ويقول إن انعدام الموثوقية هذا يمكن أن يؤدي إلى نتائج كارثية.

مَن الأفضل في ضمان سلامة عمل الذكاء الاصطناعي: البشر أم الذكاء الاصطناعي؟

يقول دالريمبل وبنجيو إن التقنيات الحالية التي نستخدمها لتخفيف مخاطر أنظمة الذكاء الاصطناعي المتطورة (مثل استخدام أسلوب الفريق الأحمر، حيث تعمل مجموعة من الأفراد المختصين على سبر أنظمة الذكاء الاصطناعي بحثاً عن الأخطاء) تنطوي على أوجه قصور حادة، ولا يمكن الاعتماد عليها لضمان عدم انحراف الأنظمة الحساسة والحرجة عن مسارها المطلوب في العمل.

اقرأ أيضاً: أنظمة الذكاء الاصطناعي الجديدة يمكن أن تعزز قدرتنا على التنبؤ بالطقس

بدلاً من ذلك، يأملان بأن يوفر البرنامج طرقاً جديدة لضمان سلامة عمل أنظمة الذكاء الاصطناعي الأقل اعتماداً على الجهود البشرية، والأكثر اعتماداً على اليقين الرياضي. تتضمن رؤية المشروع بناء نظام ذكاء اصطناعي "حارس"، حيث يتولى مهمة إدراك المخاطر المتعلقة بالسلامة في وكلاء الذكاء الاصطناعي (AI agents) الآخرين، وتخفيف هذه المخاطر. سيضمن هذا الحارس أن وكلاء الذكاء الاصطناعي الذين يعملون في القطاعات التي تنطوي على مخاطر عالية، مثل أنظمة النقل أو الطاقة، سيعملون كما نطلب منهم. تتمثل الفكرة في التعاون مع الشركات في المراحل المبكرة لفهم السبل التي يمكن فيها الاستفادة من آليات السلامة للذكاء الاصطناعي في قطاعات مختلفة، على حد قول دالريمبل.

وبما أن الأنظمة المتطورة معقدة للغاية، فهذا يعني أنه ليس أمامنا خيار سوى استخدام الذكاء الاصطناعي لمراقبة الذكاء الاصطناعي، على حد قول بنجيو. "هذه هي الطريقة الوحيدة، لأن أنظمة الذكاء الاصطناعي هذه ستصبح معقدة للغاية عاجلاً أم آجلاً. وحتى الأنظمة الموجودة لدينا اليوم، لا نستطيع فعلياً أن نحلل إجاباتها إلى تسلسلات من خطوات التفكير المفهومة بالنسبة إلى البشر"، على حد قوله.

تتضمن الخطوة التالية بناء النماذج الفعلية التي يمكنها التحقق من أنظمة الذكاء الاصطناعي الأخرى، وهي الخطوة التي يأمل سيف غارديد أيه آي وآريا بأن تؤدي أيضاً إلى إحداث تغيير في الوضع الراهن لصناعة الذكاء الاصطناعي.

تقدم آريا أيضاً التمويل لمن يعمل في القطاعات التي تنطوي على درجة عالية من المخاطر من أفراد أو مؤسسات، مثل النقل والاتصالات وسلاسل التوريد والأبحاث الطبية، لمساعدتهم على بناء تطبيقات قد تستفيد من آليات السلامة للذكاء الاصطناعي. تقدم آريا للمتقدمين ما مجموعه 5.4 ملايين جنيه إسترليني في السنة الأولى، ومبلغاً آخر قدره 8.2 ملايين جنيه إسترليني في سنة أخرى. وآخر موعد لتقديم الطلبات هو 2 أكتوبر/تشرين الأول.

وتعمل الوكالة أيضاً على إنشاء شبكة عمل واسعة تربط بين الأشخاص الذين قد يبدون اهتماماً ببناء آلية السلامة لسيف غارديد أيه آي من خلال مؤسسة غير ربحية. تتطلع آريا إلى تخصيص مبلغ يصل إلى 18 مليون جنيه إسترليني لتأسيس هذه المؤسسة، وستقبل طلبات التمويل في أوائل السنة المقبلة.

يبحث البرنامج عن مقترحات لإطلاق مؤسسة غير ربحية يقودها مجلس إدارة متنوع يشمل العديد من القطاعات المختلفة لتنفيذ هذا العمل بأسلوب يمكن الاعتماد عليه وجدير بالثقة، على حد قول دالريمبل. هذا الأسلوب مشابه للأسلوب الذي كانت تتبعه أوبن أيه آي (OpenAI) في بدايتها، قبل أن تغير استراتيجيتها لتكون أكثر توجهاً نحو المنتجات والربح.

ويضيف قائلاً إن مجلس إدارة المؤسسة لن يكون مسؤولاً عن إخضاع الرئيس التنفيذي للمساءلة فحسب، بل سيشارك حتى في اتخاذ القرارات المتعلقة بتولّي مشاريع بحثية معينة، وإمكانية نشر أوراق بحثية وواجهات برمجة تطبيقات معينة.

يمثل مشروع سيف غارديد آيه آي جزءاً من سعي المملكة المتحدة إلى تبوء مكانة ريادية في مجال سلامة الذكاء الاصطناعي. ففي نوفمبر/تشرين الثاني من عام 2023، استضافت البلاد أول قمة لسلامة الذكاء الاصطناعي (AI Safety Summit)، حيث اجتمع قادة العالم مع خبراء التكنولوجيا لمناقشة كيفية بناء هذه التكنولوجيات بأسلوب آمن.

وعلى حين يفضل برنامج التمويل المتقدمين المقيمين داخل المملكة المتحدة، فإن آريا تسعى إلى استقطاب الكفاءات العالمية التي قد تكون مهتمة بالمجيء إلى المملكة المتحدة، على حد قول دالريمبل. وتمتلك آريا أيضاً آلية تتعلق بالملكية الفكرية لتمويل الشركات الهادفة للربح التي تقع خارج البلاد، ما يسمح بعودة عائدات حقوق الملكية الفكرية إلى البلاد.

يقول بنجيو إنه انجذب إلى المشروع من أجل الترويج للتعاون الدولي في مجال سلامة الذكاء الاصطناعي. ويترأس بنجيو اللجنة المسؤولة عن إعداد "التقرير الدولي العلمي حول سلامة الذكاء الاصطناعي المتطور" (the International Scientific Report on the safety of advanced AI)، الذي يشارك فيه 30 دولة، إضافة إلى الاتحاد الأوروبي والأمم المتحدة. وبما أنه من أقوى المدافعين الذين ينادون بسلامة الذكاء الاصطناعي، فقد كان جزءاً من مجموعة ضغط مؤثرة تحذر من أن الذكاء الاصطناعي الخارق يشكل خطراً وجدياً.

يقول بنجيو: "يجب أن نوسع نطاق النقاش حول كيفية التعامل مع مخاطر الذكاء الاصطناعي بحيث يشمل مجموعة عالمية أكبر من الجهات الفاعلة. وسيمكّننا هذا البرنامج من إحراز تقدم في هذا الاتجاه".