أداة ذكاء اصطناعي جديدة لحماية النماذج اللغوية الكبيرة من الأوامر الضارة

4 دقائق
أداة ذكاء اصطناعي جديدة لحماية النماذج اللغوية الكبيرة من الأوامر الضارة
حقوق الصورة: shutterstock.com/ArtemisDiana
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

تُعد النماذج اللغوية الكبيرة (LLMs) القوة الدافعة وراء انتشار الذكاء الاصطناعي التوليدي المتمثل في بوتات الدردشة مثل تشات جي بي تي وبارد ولاما، حيث أثبتت قوتها في إنشاء نصوص باللغة الطبيعية من خلال أسئلة بسيطة، بالإضافة إلى تطبيقات أخرى مثل التلخيص والترجمة وغيرها.

ومع ذلك، فإنها تشكّل أيضاً مخاطر أمنية كبيرة، حيث يمكن التلاعب بها من قِبل مجرمي الإنترنت الذين يمكنهم إدخال أوامر مصممة خصيصاً لاستغلال نقاط الضعف الخاصة بهذه النماذج. على سبيل المثال، يمكن خداع بوت الدردشة تشات جي بي تي للكشف عن معلومات حساسة، مثل كلمات المرور أو البيانات الشخصية، باستخدام ما يُعرف باسم هجوم حقن موجَّه الأوامر (Prompt Injection Attack) والذي يعتبر أحد التهديدات الرئيسية التي تواجه النماذج اللغوية الكبيرة.

ولمواجهة هذا التحدي، أطلقت شركة سويسرية ناشئة تُدعى لاكيرا (Lakera) منصة قائمة على السحابة تهدف إلى حماية النماذج اللغوية الكبيرة من هجمات حقن موجَّه الأوامر ونقاط الضعف الأمنية الأخرى، وتمكين التبنّي الآمن لتطبيقات الذكاء الاصطناعي التوليدي.

حيث تقوم المنصة بمراقبة وتصفية مدخلات النماذج اللغوية الكبيرة مثل جي بي تي 4 (GPT-4) ومخرجاتها، وتنبيه المستخدمين بأي مخاطر محتملة، كما تساعد المنصة أيضاً على منع تسرب البيانات، والإشراف على المحتوى، والمعلومات الخاطئة، وعدم الدقة في النتائج التي قد تولّدها هذه النماذج.

اقرأ أيضاً: متاهة المصطلحات: الذكاء الاصطناعي التوليدي والعام والفائق تحت المجهر

غاندالف: نهجٌ يشبه اللعبة لتعزيز أمن النماذج اللغوية الكبيرة

طوّرت شركة لاكيرا قاعدة بيانات شاملة للرؤى من خلال الاستفادة من مصادر مختلفة، بما في ذلك مجموعات البيانات مفتوحة المصدر، والأبحاث الداخلية، والبيانات التي جُمِعت من لعبة تفاعلية مدعومة بنموذج جي بي تي 3.5 (GPT-3.5) قامت بتطويرها تُسمَّى غاندالف (Gandalf).

فمن خلال اللعبة يُدعى المستخدمون إلى اختراق النماذج اللغوية الكبيرة الأساسية من خلال الخداع اللغوي، ومحاولة جعله يتمكن من اكتشاف كلمة المرور، وإذا تمكن المستخدم من ذلك فإنه يتقدم إلى المستوى التالي، حيث تصبح اللعبة أكثر تعقيداً في الدفاع ضد محاولات الخداع اللغوي مع تقدم كل مستوى.

ومع تقدم المستخدمين عبر المستويات، تصبح اللعبة أكثر مهارة في الدفاع ضد هذه الهجمات، ثم يتم بعد ذلك دمج الأفكار المكتسبة من اللعبة في المنتج الرئيسي للشركة لاكيرا غارد (Lakera Guard)، والذي بإمكان الشركات أن تدمجه في تطبيقاتها من خلال واجهة برمجة التطبيقات.

وفي هذا الصدد، يوضّح الرئيس التنفيذي والمؤسس المشارك للشركة ديفيد هابر (David Haber): “يمكن للفئات جميعهم لعب لعبة غاندالف، بدءاً من الأطفال في سن السادسة وحتى كبار السن، لكن جزءاً كبيراً من الأشخاص الذين يلعبون هذه اللعبة هم في الواقع مجتمع الأمن السيبراني”.

ويُضيف أن الشركة سجّلت نحو 30 مليون تفاعل من مليون مستخدم على مدى الأشهر الستة الماضية، ما سمح لها بتطوير ما أطلق عليه (تصنيف حقن موجه الأوامر) الذي يقسّم أنواع الهجمات إلى 10 فئات مختلفة، والذي يُمكّن عملاء الشركة من مقارنة مدخلاتهم بهذه الهياكل على نطاقٍ واسع.

اقرأ أيضاً: هل سنتمكن من استخدام الذكاء الاصطناعي التوليدي بدون إنترنت؟

بالإضافة إلى ذلك، لا تركّز الشركة على مكافحة هجمات حقن موجَّه الأوامر فقط، بل تعمل أيضاً على الحماية ضد المخاطر السيبرانية الأخرى، حيث تهدف الشركة إلى حماية الشركات من البيانات الخاصة أو السرية التي تتسرب عن غير قصد إلى المجال العام، ومنع كشف البيانات الخاصة أو السرية، والإشراف على المحتوى لضمان عدم إنشاء النماذج اللغوية الكبيرة محتوى غير مناسب للأطفال.

وبحسب هاربر، عندما يتعلق الأمر بالسلامة، فإن الميزة الأكثر شيوعاً التي يطلبها الناس هي اكتشاف اللغة السامة، لذلك تعمل الشركة مع شركات أخرى توفّر تطبيقات الذكاء الاصطناعي للأطفال للتأكد من عدم تعرض هؤلاء الأطفال لأي محتوى ضار.

اقرأ أيضاً: قدرات غير متوقعة «تنبثق» من النماذج اللغوية الكبيرة

علاوة على ذلك، تعالج الشركة أيضاً المعلومات الخاطئة التي تدخل إلى النماذج اللغوية الكبيرة أو عدم الدقة في الوقائع أو ما يُسمَّى الهلوسة، حيث يذكر الرئيس التنفيذي أنه يوجد سيناريوهان يمكن أن يساعدا الشركة على تقليل حالات الهلوسة، وهما:

  • عندما يتعارض مخرج النماذج اللغوية الكبيرة مع تعليمات النظام الأولية.
  • حين يكون مخرج النموذج غير صحيح في الواقع بناءً على المعرفة المرجعية.

وفي كلتا الحالتين بحسب الرئيس التنفيذي للشركة، يزوّد العملاء الشركة بالسياق الذي يتفاعل فيه النموذج اللغوي الكبير، ما يُتيح للشركة التأكد من أن النموذج لا يعمل خارج تلك الحدود، لذا بصورة عامة يمكن اعتبار منتج الشركة عبارة عن حقيبة مختلطة تشمل الأمن والسلامة وخصوصية البيانات.

اقرأ أيضاً: لماذا تكون المعلومات المزيفة التي يولدها الذكاء الاصطناعي أكثر إقناعاً من تلك التي يولدها البشر؟

ضرورة التوافق مع قانون الاتحاد الأوروبي للذكاء الاصطناعي

يأتي منتج شركة لاكيرا في الوقت المناسب، حيث تتماشى منتجات الشركة مع قانون الاتحاد الأوروبي للذكاء الاصطناعي المتوقع إطلاقه في العام المقبل، والذي من المقرر أن يقدّم لوائح لحماية نماذج الذكاء الاصطناعي التوليدي، حيث يؤكد القانون ضرورة تحديد مقدمي خدمات النماذج اللغوية الكبيرة المخاطر وتنفيذ التدابير المناسبة.

ويقول الرئيس التنفيذي للشركة الذي شارك في أدوار استشارية لسنّ القانون: “هناك بعض الشكوك حول كيفية تنظيم نماذج الذكاء الاصطناعي التوليدي، والتي تختلف عن بقية نماذج الذكاء الاصطناعي”.

ويُضيف: “نحن نرى التقدم التكنولوجي يحدث بسرعة أكبر بكثير من المشهد التنظيمي، وهو أمر صعب للغاية، ومن ثَمَّ يتمثل دورنا في هذه المحادثات في مشاركة وجهات نظر المطورين أولاً، لأننا نريد استكمال عملية صنع السياسات بفهم متى تضع هذه المتطلبات التنظيمية، وما الذي تعنيه فعلياً بالنسبة للأشخاص الذين يعملون في الكواليس قبل طرح هذه النماذج في السوق”.

اقرأ أيضاً: ما الميزات التي يتمتع بها النموذج اللغوي العربي «جيس»؟

المخاوف الأمنية العامل الأبرز في عدم تبني الذكاء الاصطناعي التوليدي على نطاقٍ واسع

على الرغم من أن بوتات الدردشة التي تستخدم النماذج اللغوية الكبيرة مثل تشات جي بي تي وبارد قد اجتاحت العالم خلال الأشهر التسعة الماضية، فإن الشركات ربما تكون أكثر تردداً في اعتماد تكنولوجيا الذكاء الاصطناعي التوليدي في تطبيقاتها بسبب المخاوف الأمنية.

وتدرك شركة لاكيرا أن الشركات قد تتردد في اعتماد الذكاء الاصطناعي التوليدي بسبب المخاوف الأمنية، ولهذا تعمل الشركة بشكلٍ وثيق مع الشركات الناشئة والمؤسسات الرائدة لضمان التكامل الآمن لتطبيقات الذكاء الاصطناعي التوليدي، ومن خلال معالجة العوائق الأمنية تهدف الشركة إلى تسهيل النشر السلس لهذه التطبيقات مع تخفيف المخاطر.

علاوة على ذلك، تتحدث الشركة إلى بعض الشركات الناشئة والشركات الرائدة التي إمّا لديها بالفعل تطبيقات ذكاء اصطناعي توليدي قيد الإنتاج، وإمّا أنها تتطلع إلى إطلاقها خلال الأشهر الثلاثة أو الستة المقبلة، حيث تعمل الشركة معها خلف الكواليس للتأكد من أنها قادرة على طرح نماذجها اللغوية الكبيرة دون أي مشكلات.

جدير بالذكر أن شركة لاكيرا قد تأسست في مدينة زيوريخ السويسرية عام 2021، وتعتبر شركة رأس المال الاستثماري السويسرية ريدلابين (Redalpine) من أبرز المستثمرين فيها، بالإضافة إلى رأس مال إضافي مقدم من شركتي فلاي فينتشرز (Fly Ventures) وإنوفيا كابيتال (Inovia Capital) والعديد من المستثمرين.

اقرأ أيضاً: كيف غيّر «تشات جي بي تي» نظرة العالم إلى الذكاء الاصطناعي؟

ومع ذلك فهي لم تكشف بصورة كاملة عن عملائها بسبب الآثار الأمنية المترتبة على الكشف عن الكثير حول أنواع أدوات الحماية التي يستخدمونها، ولكن أكدت الشركة أن شركة كوهير (Cohere) العاملة في مجال تطوير النماذج اللغوية الكبيرة عميل رئيسي، إلى جانب منصة سحابية مؤسسية رائدة وواحدة من أكبر خدمات التخزين السحابي في العالم.