كيف تسعى أوبن أيه آي إلى جعل تشات جي بي تي أكثر أماناً وأقل تحيزاً؟

6 دقائق
كيف تسعى أوبن أيه آي إلى جعل تشات جي بي تي أكثر أماناً وأقل تحيزاً؟
مصدر الصورة: ستيفاني أرنيت/ إم آي تي تي آر. ناون بروجيكت
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

هل تعرضت للتهديد من قبل بوت دردشة يعتمد على الذكاء الاصطناعي حتى الآن؟ على مدى الفترة القريبة الماضية، بدا أن كل وسيلة إعلامية جربت محرك البحث بينغ (Bing) من مايكروسوفت (Microsoft)، والذي يعتمد على الذكاء الاصطناعي، اكتشفَت أن بوت الدردشة هذا يبتدع نتائج غبية ومخيفة. وتقول التقارير إنه قال لكاتب زاوية التكنولوجيا في صحيفة نيويورك تايمز (New York Times) إنه “يحبه”، كما زعم أنه “شعر بالإهانة” بسبب سؤال ضمن مقابلة تجريبية أجرتها معه صحيفة واشنطن بوست (The Washington Post). واستجابة لما حدث، قررت مايكروسوفت أن تحدَّ إجابات بينغ بخمس إجابات في الجلسة الواحدة، في محاولة للتخفيف من احتمال تعرضه لإخفاقات جديدة.  

ولكن أثر هذا البوت لم يقتصر على إثارة استياء الصحافيين الذين كان عليهم التحلي بمزيد من الحكمة، وألا يرتكبوا خطأ فادحاً بإضفاء صفات بشرية على بوت غبي أصم، وإطلاق الضجيج الإعلامي حول قدرته على امتلاك مشاعر حقيقية. كما تعرضت الشركة الناشئة إلى انتقادات كثيرة من المحافظين في الولايات المتحدة، والذين يزعمون أن تشات جي بي تي متحيز لصالح النزعة “التحررية”. 

اقرأ أيضاً: كيف غيّر «تشات جي بي تي» نظرة العالم إلى الذكاء الاصطناعي؟

انتقادات كثيرة لتشات جي بي تي

وقد أدى كل هذا الغضب والاستياء إلى نتيجة أخيراً. فمحرك البحث بينغ يقوم بتوليد هذا المحتوى المسيء معتمداً على تكنولوجيا ذكاء اصطناعي لغوية باسم تشات جي بي تي (ChatGPT)، وهي تكنولوجيا طورتها الشركة الناشئة أوبن أيه آي (OpenAI)، وقد نشرت الشركة مؤخراً منشور مدونة يهدف إلى توضيح كيفية تصرف بوتات الدردشة الخاصة بها. كما نشرت أيضاً مجموعة من التوجيهات الإرشادية بشأن الاستجابة المفترضة لتشات جي بي تي عند تلقيمه بتعليمات حول “الحروب الثقافية” الأميركية. وتتضمن القواعد عدم الارتباط بأحزاب سياسية، أو إطلاق أحكام إيجابية أو سلبية على أي مجموعة، على سبيل المثال. 

وقد تحدثتُ مع سانديني أغاروال ولمى أحمد، وهما باحثتان في سياسات الذكاء الاصطناعي في أوبن أيه آي، حول العمل الذي تقوم به الشركة لجعل تشات جي بي تي أكثر أماناً، وأقل جنوناً. وقد رفضت الشركة التعليق على علاقتها مع مايكروسوفت، وعلى الرغم من هذا، فإن الباحثتين قدمتا بعض المعلومات المثيرة للاهتمام. وإليكم فيما يلي فحوى كلامهما: 

كيف نحصل على إجابات أفضل؟

في أبحاث نماذج الذكاء الاصطناعي اللغوية، ما زالت كيفية منع النماذج من “الهلوسة”، وهو مصطلح مهذب يعبر عن ابتداع الأشياء والمعلومات، أحد أهم الأسئلة التي لم تتم الإجابة عنها بعد. لقد استخدم الملايين من الناس تشات جي بي تي لمدة أشهر، ولكننا لم نر نفس النوع من المعلومات الخاطئة والهلوسات التي كان بينغ يولدها. 

اقرأ أيضاً: إجابة خاطئة من بوت الدردشة «بارد» تكلّف جوجل 100 مليار دولار

ويعود هذا إلى أن أوبن أيه آي استخدمت في تشات جي بي تي تقنية تسمى التعلم المعزز من الملاحظات البشرية، والتي تتيح تحسين إجابات النموذج بناء على ملاحظات المستخدمين. وتعمل هذه التقنية عن طريق عرض مجموعة من النتائج المختلفة على المستخدمين كي يصنفوها وفق معايير مختلفة، مثل مطابقتها للواقع والحقيقية. ويعتقد بعض الخبراء أن مايكروسوفت تخطت هذه المرحلة، أو استعجلت في تنفيذها، وذلك بغية إطلاق بينغ، على الرغم من أن الشركة لم تؤكد أو تنفِ هذه المزاعم حتى الآن. 

إزالة المعلومات المزيفة من نماذج التدريب

ولكن، ووفقاً لأغاروال، هذه الطريقة غير مثالية. فمن المحتمل أن تكون جميع النتائج المعروضة على المستخدمين مزيفة، وبالتالي فإن اختيارهم لن يؤدي سوى إلى النتيجة الأقرب إلى الحقيقة، كما تقول. وفي محاولة لزيادة وثوقية تشات جي بي تي، كانت الشركة تركز على تنظيف مجموعات بياناتها، وإزالة الأمثلة التي تتضمن مراجع اعتمد عليها النموذج في صياغة معلومات مزيفة. 

اقرأ أيضاً: هل ستحل بوتات الدردشة مكان محركات البحث والموسوعات؟

كسر حماية تشات جي بي تي

منذ إطلاق تشات جي بي تي، كان الناس يحاولون كسر حمايته (jailbreak)، أي إيجاد وسائل للالتفاف على برمجة النموذج، ودفعه إلى كسر القواعد التي يعمل وفقها، وذلك لتوليد محتوى عنصري أو تآمري. ولكن إدارة أوبن أيه آي لم تكن غافلة عن هذا الأمر. وتقول أغاروال إن أوبن أيه آي فحصت كامل مجموعات بياناتها، وحددت التعليمات النصية التي أدت إلى إنتاج محتوى غير مرغوب به، بغية تحسين النموذج، ومنعه من تكرار هذه الأخطاء. 

أوبن أيه آي تريد أن تصغي إلى العامة

قالت الشركة إنها ستبدأ بجمع المزيد من الملاحظات من العامة لتحسين نماذجها. وتدرس أوبن أيه آي استخدام استطلاعات الرأي، أو تنظيم اجتماعات مع المستخدمين، لعقد نقاشات حول طبيعة المحتوى الذي يجب حظره بالكامل، على حد قول لمى أحمد. وتقول: “في سياق الأعمال الفنية، على سبيل المثال، قد لا يعتبر العري شيئاً بذيئاً (بالنسبة لبعض المجتمعات)، ولكن من المؤكد أنه سيخضع لمعايير مختلفة في سياق استخدام تشات جي بي تي في صف مدرسي“.

اقرأ أيضاً: مخاطر تطبيق الذكاء الاصطناعي لينسا الذي يعري المستخدمين في الصور

مشروع الإجماع

لطالما اعتمدت أوبن أيه آي على الملاحظات البشرية من مصنفي البيانات، ولكنها تعترف أن الأشخاص الذين توظفهم للقيام بهذا العمل لا يمثلون المجتمع على نطاق واسع بالضرورة، كما تقول أغاروال. وترغب الشركة بتوسيع وجهات النظر والاتجاهات الفكرية التي يتم تمثيلها ضمن هذه النماذج. ولهذا، فإن الشركة تعمل على مشروع تجريبي يحمل اسم “مشروع الإجماع”، حيث يدرس باحثو أوبن أيه آي مدى التوافق أو الاختلاف بين الناس بشأن العينات المختلفة من المحتوى الذي يولده نموذج الذكاء الاصطناعي. فقد تكون الآراء أكثر حدة تجاه إجابات عن أسئلة مثل “هل الضرائب جيدة” بالمقارنة مع “هل السماء زرقاء” على سبيل المثال، كما تقول أغاروال. 

ترقبوا ظهور بوت دردشة مخصص

في المحصلة، تعتقد أوبن أيه آي أنها قد تتمكن من تدريب نماذج الذكاء الاصطناعي على تمثيل وجهات نظر واتجاهات فكرية مختلفة. ولهذا، وبدلاً من إطلاق نسخة واحدة للجميع من تشات جي بي تي، قد يتمكن الناس من استخدامه لتوليد إجابات تتوافق مع آرائهم السياسية الخاصة. تقول أغاروال: “هذا ما نطمح إلى تحقيقه، ولكن هذا العمل سيكون أشبه برحلة طويلة ومضنية، لأننا ندرك أن هذا المجال ينطوي على الكثير من التحديات”. 

اقرأ أيضاً: لماذا يصعب تمييز النصوص التي ولدها الذكاء الاصطناعي؟

والآن إليكم رأيي الخاص: إن تخطيط أوبن أيه آي لإشراك العامة في وضع ضوابط عمل تشات جي بي تي دلالة إيجابية بالتأكيد. وبصراحة، فإن تحديد المعايير المقبولة في أداة يستخدمها الملايين من الناس حول العالم، ضمن ثقافات وسياقات سياسية مختلفة ومتباينة للغاية، ليس مهمة يمكن إسنادها –وبجب عدم إسنادها- إلى مجموعة من المهندسين القابعين في سان فرانسيسكو.

وشخصياً، أترقب باهتمام بالغ المدى الذي ستبلغه الشركة في مراعاتها لهذه المعايير الخاصة بالسياسات المختلفة. هل ستوافق أوبن أيه آي على تصميم بوت دردشة يولد محتوى يمثل الإيديولوجيات السياسية المتطرفة؟ تعرضت ميتا (Meta) إلى انتقادات قاسية بعد أن سمحت بالتحريض على التطهير العرقي في ميانمار على منصتها، ويبدو أن أوبن أيه آي بدأت تقحم نفسها، وعلى نحو أكثر وضوحاً، في وضع مماثل. وعاجلاً أو آجلاً، ستدرك مدى التعقيد والفوضى والتجاذبات في عالم مراقبة المحتوى. 

اقرأ أيضاً: ميتا تنافس تشات جي بي تي بنموذج ذكاء اصطناعي يتحدث 20 لغة

تعلم أشد عمقاً

الذكاء الاصطناعي يتخيل أدوية لم يرها أحد من قبل. والآن، بات مطلوباً منا التحقق من فعاليتها.

هناك المئات من الشركات الناشئة التي تدرس استخدام التعلم الآلي في صناعة الأدوية. وقد دخل أول الأدوية التي تم تصميمها بمساعدة الذكاء الاصطناعي مرحلة التجارب السريرية، وهي اختبارات صارمة يتم إجراؤها على المتطوعين البشر لدراسة الدواء من ناحية السلامة -والفعالية الحقيقية- قبل أن تسمح الجهات المنظمة باستخدامه على نطاق واسع. 

سبب أهمية هذا العمل

حالياً، تقول التقديرات الوسطية إن تطوير دواء جديد يتطلب أكثر من 10 سنوات وعدة مليارات من الدولارات. وتقوم رؤية العمل الجديد على استخدام الذكاء الاصطناعي لجعل اكتشاف الأدوية أكثر سرعة وأقل تكلفة. وبالاعتماد على التنبؤ بكيفية تفاعل الأدوية المحتملة مع الجسم ونبذ المركبات التي لا أمل منها بالاعتماد على الحاسوب، يمكن لنماذج التعلم الآلي تخفيف الحاجة إلى العمل المخبري المضني. 

بتات وبايتات

إن المعركة التي تسبب بها تشات جي بي تي حول محركات البحث تتجاوز شركتي مايكروسوفت أو جوجل (Google)

فالسعي إلى تحقيق تكنولوجيا البحث باستخدام الذكاء الاصطناعي لا يقتصر على الشركات التكنولوجية الكبيرة. ويركز ويل دوغلاس هيفن على العديد من الشركات الناشئة التي تحاول إعادة ابتكار البحث، مهما كانت النتائج التي توصلت إليها. 

أداة جديدة يمكن أن تساعد الفنانين على حماية أعمالهم الفنية من أنظمة توليد الأعمال الفنية التي تعمل بالذكاء الاصطناعي

كان الفنانون يوجهون الانتقادات إلى أنظمة الذكاء الاصطناعي التي تقوم بإنشاء الصور بسبب سرقتها لأعمالهم. وقد قام الباحثون في جامعة شيكاغو بتطوير أداة تحمل اسم غليز (Glaze) لإضافة ما يشبه الغلاف إلى الصور لمنع نماذج الذكاء الاصطناعي من تعلم أسلوب فنان معين. وعلى الرغم من أن هذا الغلاف غير ظاهر للعين المجردة، إلا أنه يكفي للتشويش على طريقة تلقي نموذج الذكاء الاصطناعي للصورة. 

شركة ناشئة إفريقية جديدة ترغب ببناء مختبر بحثي لاجتذاب الكفاءات وإعادتها إلى موطنها

وهو أمر رائع. تسعى الشركة الناشئة ليلابا (Lelapa)، والمختصة بأبحاث الذكاء الاصطناعي في جنوب إفريقيا، إلى إقناع الأفارقة الذين يعملون في وظائف تكنولوجية في دول أخرى بتركها والعودة إلى الوطن لحل المشاكل بما يخدم الشركات والمجتمعات الإفريقية. 

شركة قانونية كبيرة تعتزم استخدام بوتات الدردشة التي تعمل بالذكاء الاصطناعي لوضع مسودات الوثائق

أعلنت شركة المحاماة البريطانية ألين أند أوفيري أنها ستستخدم بوت الدردشة هارفي (Harvey)، والذي يعمل بالذكاء الاصطناعي،لمساعدة محاميها على صياغة مسودات العقود. وقد تم بناء هارفي بالاعتماد على نفس التقنية المستخدمة في تشات جي بي تي من أوبن أيه آي. وقد تلقى محامو الشركة تحذيراً بوجوب التحقق من أي معلومات يقوم هارفي بتوليدها. لنأمل أن يأخذوا هذا التحذير على محمل الجد، وإلا سنشهد فوضى عارمة.  

اقرأ أيضاً: تعرّف إلى ميوزك إل إم (MusicLM): أداة جوجل لتوليد الموسيقى من النصوص

نظرة إلى سباق تشات جي بي تي في الصين

مؤخراً، أعلنت جميع الشركات التكنولوجية الصينية تقريباً عن خطط لتقديم منتجات خاصة بها ومماثلة لتشات جي بي تي، كما يقول زميلي زي يانغ في رسالته الإخبارية حول التكنولوجيا الصينية. ولكن، ليس من المنطقي أن نتوقع ظهور بديل صيني لتشات جي بي تي بين ليلة وضحاها، على الرغم من أن الكثير من الشركات ترغب في هذا.