Article image
موقع ويب جديد يسمح لأي شخص بأن يلعب دور ذكاء اصطناعي مجادل.
مدونة أوبن إيه آي
Article image موقع ويب جديد يسمح لأي شخص بأن يلعب دور ذكاء اصطناعي مجادل.
مدونة أوبن إيه آي

الآلات الذكية

يتوقع الخبراء أن جعل أنظمة الذكاء الاصطناعي تحاول التفوق على بعضها قد يساعد البشر على تقدير نواياها.

يوماً ما، قد يكون من العادي جداً أن نشاهد نظام ذكاء اصطناعي يقاتل نفسه.

أتت الفكرة من باحثين في أوبن إيه آي OpenAI، وهي مؤسسة غير ربحية أسسها عدة أفراد بارزين من وادي السيليكون، بما فيهم سام ألتمان الشريك في واي كومبينيتور، وريد هوفمان عضو مجلس إدارة لينكد إن، وبيتر ثييل عضو مجلس إدارة فيسبوك ومؤسس بالانتير، وإيلون ماسك رئيس تسلا وسبيس إكس.

بين باحثو هذه المؤسسة سابقاً أن أنظمة الذكاء الاصطناعي التي تدرب نفسها بنفسها قد تطور في بعض الأحيان عادات غير متوقعة وغير مرغوبة. وعلى سبيل المثال، فقد يتمكن نظام ذكاء اصطناعي من التوصل إلى استغلال خطأ برمجي للفوز بأعلى نتيجة في لعبة فيديو. قد يكون من الممكن في بعض الحالات أن تجري عملية التدريب تحت إشراف بشري. ولكن إذا كان البرنامج ينفذ عملية شديدة التعقيد، فقد يكون هذا الإشراف مستحيلاً. وبالتالي، يقترح الباحثون حلاً بديلاً، وهو أن يقوم نظامان للذكاء الاصطناعي بمناقشة الهدف المطلوب.

كتب الباحثون في منشور ضمن مدونة أوبن إيه آي حول الفكرة: “نعتقد أن هذه المقاربة، أو ما يشابهها، قد تساعدنا في نهاية المطاف على تدريب أنظمة الذكاء الاصطناعي على تأدية مهام إدراكية أكثر تعقيداً من قدرات البشر، بدون الخروج عن المعايير البشرية”.

لنأخذ مثالاً حول نظام ذكاء اصطناعي مصمم للدفاع عن البشر ضد قراصنة المعلوماتية، سواء أكانوا بشراً أو أنظمة ذكاء اصطناعي. ولمنع هذا النظام من القيام بأية أفعال مؤذية أو لا أخلاقية، قد يكون من الضروري أن نطالبه بشرح المنطق الذي دفعه إلى القيام بفعل معين، وقد يكون هذا المنطق أكثر تعقيداً مما يمكن للبشر فهمه، ولذلك يقترح الباحثون جعل نظام ذكاء اصطناعي آخر يناقش النظام الأول حول جدوى هذا الفعل، باستخدام اللغة الطبيعية، وتحت مراقبة بشرية. ويمكن الاطلاع على التفاصيل في بحث منشور.

إن إطلاق نقاش بين نظامي ذكاء اصطناعي يتطلب تقنيات أكثر تعقيداً مما هو موجود حالياً. وحتى الآن، قام باحثو أوبن إيه آي بتجربة الفكرة بمثالين بسيطين للغاية، يتمحور أحدهما حول نظامين يحاولان إقناع مراقب بهوية شخصية مخفية بالكشف عنها بشكل تدريجي، كل بيكسل على حدة.

قام الباحثون بتصميم موقع ويب يتيح لأي شخصين لعب دور النظامين المتجادلين، على حين يلعب شخص ثالث دور الحكم. يتنافس المشاركان لإقناع الحكم بماهية الصورة مع التركيز على أجزاء منها. وفي نهاية المطاف، يصبح تمييز الطرف المحق والصادق سهلاً على المراقب.

يقول فنسنت كونيتزر، وهو باحث في جامعة ديوك يدرس المسائل الأخلاقية التي تتعلق بالذكاء الاصطناعي، أن العمل ما زال في مراحله المبكرة، ولكنه واعد: “إن تصميم أنظمة ذكاء اصطناعي قادرة على شرح قراراتها مجال بحثي مليء بالتحديات. ولكن في حال النجاح، سيشكل مساهمة كبيرة في مجال الاستخدام المسؤول للذكاء الاصطناعي”.

ما زلنا حالياً بعيدين عن إمكانية وجود أنظمة ذكاء اصطناعي قادرة على خداعنا والاحتيال علينا كما في أفلام الخيال العلمي، مثل Ex Machina وHer، على الرغم من بعض التصريحات المبالغ بها من أمثال إيلون ماسك، وهو أحد ممولي أوبن إيه آي وكان حتى وقت قريب عضواً في مجلس إدارتها.

ولكن، من ناحية أخرى، يعكف بعض الباحثين على دراسة الطرق التي تضمن ألا تتصرف هذه الأنظمة بشكل غير مرغوب به. وقد تزداد أهمية هذه المسألة مع ازدياد تعقيد وغموض برامج الذكاء الاصطناعي. تقول آرييل بروكاتشيا، بروفسورة في علوم الحاسوب في جامعة سينترال ميشيغان، وتدرس مسائل اتخاذ القرار بالأنظمة المؤتمتة: “أعتقد أن فكرة موائمة الذكاء الاصطناعي مع القيم البشرية عبر الجدال مثيرة للاهتمام، وقد تكون ذات فائدة”. ولكن بروكاتشيا تردف قائلة أن العمل ما زال في بداياته، وأن الفكرة قد تحتوي على تناقض مبدئي: “حتى يتمكن نظام الذكاء الاصطناعي من مناقشة الأسئلة المتعلقة بالقيم البشرية بشكل مفهوم من قبل محكم بشري، يجب أن يكون متمكناً من هذه القيم في المقام الأول. أي أنه يمكن القول، من وجهة نظر معينة، أن هذه المقاربة أشبه بوضع العربة أمام الحصان”.

يضيف إياد راوان، وهو باحث في مختبر الميديا في إم آي تي، أنه يجب على الباحثين أن ينتبهوا من احتمال دخول نظامي الذكاء الاصطناعي في نقاش متكرر لانهائي أشبه بحلقة مغلقة، ويقول: “أعتقد أن الباحثين سيضطرون إلى التعامل مع بعض المسائل المعقدة التي ستعترض طريقهم بسرعة، وأولها كيفية أتمتة النقاش باللغة الطبيعية، وهي مسألة لم تحل حتى الآن”.

المزيد من المقالات حول الآلات الذكية

  1. Article image
  2. Article image
  3. Article image
error: Content is protected !!