يجب أن تعلم | للاطلاع | في صلب الموضوع | رقم اليوم | شخصية اليوم | مصطلح اليوم
هل تمكن أحد أنظمة الذكاء الاصطناعي من تطوير لغة سرية فعلاً؟
في عام 2017، وجد باحثون في شركة ميتا (فيسبوك سابقاً) أن اثنين من الروبوتات التي طورها قسم الذكاء الاصطناعي بالشركة (FAIR) يتواصلان مع بعضهما بعضاً بطريقة غير متوقعة. استخدم الروبوتان أليس وبوب لغة غير مفهومة للتفاوض فيما بينهما، وقد شاع آنذاك أن الشركة أوقفتهما عن العمل خوفاً من خروجهما عن السيطرة. الآن، وبعد 5 أعوام على هذه الحادثة، يبدو أن نظام ذكاء اصطناعي آخر بدأ في ابتكار لغته السرية الخاصة.
يرى العلماء أن القدرة على فهم اللغة هي معيار تطور الذكاء الاصطناعي. لذلك، فاللغة هي محور "اختبار تورنج"، الذي اقترحه عالم الحاسوب والرياضيات الإنجليزي آلان تورنج عام 1950. لا يمكن للحاسوب تخطي الاختبار إلا في حال عدم قدرة حكم بشري على التمييز بينه وبين إنسان حقيقي في محادثة تُجرى باستخدام لغة طبيعية.
خلال الشهرين الماضيين، شهدنا سباقاً بين الشركات الكبرى لتطوير جيل جديد من نماذج الذكاء الاصطناعي التي يمكنها إنتاج صور عالية الدقة باستخدام أوامر مكتوبة باللغة الطبيعية. في أبريل الماضي، أعلنت "أوبن أيه آي" عن نموذج توليد الصور "دال-إي 2" (DALL-E 2)، وبعد أقل من شهر فقط أعلن فريق "جوجل براين" عن نظامه المماثل الذي يحمل اسم "إيماجن" (Imagen).
منذ يوم 31 مايو الماضي، بدأ العديد من باحثي الذكاء الاصطناعي في كتابة تغريدات على موقع تويتر تشير إلى "لغة سرية" طورها برنامج "دال-إي 2" لا يفهمها إلا البرنامج نفسه. على سبيل المثال، لاحظ يانيس داراس، طالب الدكتوراه في علوم الحاسوب بجامعة تكساس في أوستن، أن كلمة (Apoploe vesrreaitais) يستخدمها البرنامج بمعنى "الطيور"، وأن كلمة (Contarra ccetnxniams luryca tanniounons) تعني الحشرات أو الآفات. وبالتالي، إذا كتبت للبرنامج الوصف التالي: (Apoploe vesrreaitais eating Contarra ccetnxniams luryca tanniounons) سيرسم لك صوراً لطيور تأكل الحشرات.
وفي سلسلة طويلة من التغريدات المتتابعة، يشرح الباحث أننا إذا طلبنا من "دال-إي 2" أن يرسم لنا مثلاً صورة لـ "مزارعين يتحدثان عن الخضروات، مع وجود ترجمة على الشاشة"، فسينتج صورة يتحدث فيها مزارعان يحملان خضروات في أيديهما، مع ظهور كلمات بلا معنى مثل كلمة (Vicootes).
للمزيد حول اللغة السرية التي طورها البرنامج، تابع قراءة المقالة على موقعنا عبر هذا الرابط
مستوحى من حاسة اللمس للإنسان: مهندسون يطورون جلداً ذكياً يستشعر الألم
طور فريق من المهندسين من جامعة جلاسكو الإسكتلندية جلداً اصطناعياً إلكترونياً، يمكنه الشعور بالألم بطريقة تحاكي حاسة اللمس الإنسان، ويتعلّم كيفية التفاعل مع المحفزات الخارجية، ما يمكن أن يخلق جيلاً جديداً من الروبوتات الذكية الحساسة للمس.
وصف المهندسون كيف قاموا بتصميم النموذج الأولي للجلد الإلكتروني في دراسة نشرت في دورية "علم الروبوتات" (Science Robotics)، وقالوا إن الجلد الاصطناعي يعمل بنوع جديد من نظام المعالجة يعتمد على الترانزستورات المشبكية، التي تحاكي المسارات العصبية للدماغ من أجل التعلم. وقد اختبر المهندسون الجلد الذكي على يد روبوتية، فأظهرت قدرة رائعة على تعلم كيفية التفاعل مع المحفزات الخارجية.
يعمل العلماء منذ عقود لبناء جلد صناعي يتمتع بحساسية اللمس. إحدى الطرق التي تم استكشافها وتُدرس على نطاق واسع هي نشر مجموعة من مستشعرات الاتصال أو الضغط عبر سطح الجلد الإلكتروني ما يساعده على كشف ملامسته لأي شيء. ثم يتم إرسال البيانات من أجهزة الاستشعار إلى حاسوب لمعالجتها وتفسيرها. تنتج المستشعرات عادةً حجماً كبيراً من البيانات التي يمكن أن تستغرق وقتاً لتتم معالجتها والاستجابة لها بشكل صحيح، ما يؤدي إلى حدوث تأخيرات يمكن أن تقلل من الفعالية المحتملة للجلد عند استخدامه في مهام في العالم الحقيقي.
للتخلص من التأخيرات في معالجة البيانات، استلهم الفريق من آلية تفسير الجهاز العصبي المحيطي للإنسان للإشارات من الجلد، ما أدى أيضاً إلى التقليل من استهلاك الطاقة في الجلد الإلكتروني. في جلد الإنسان، بمجرد أن يستشعر الجلد بوجود محفّز ما، يبدأ الجهاز العصبي المحيطي بمعالجته عند نقطة التحفيز؛ حيث يتخلص من المعلومات غير الضرورية، ويرسل المعلومات الحيوية فقط إلى الدماغ. يسمح هذا التقليل من البيانات الحسية بالاستخدام الفعال لقنوات الاتصال اللازمة لإرسال البيانات إلى الدماغ، والذي يستجيب بعد ذلك على الفور تقريباً حتى يتفاعل الجسم بشكل مناسب.
للمزيد حول هذا الجلد الذكي، تابع قراءة المقالة على موقعنا عبر هذا الرابط
ما الذي يحتاج المطورون إلى معرفته عن أخلاقيات الذكاء الاصطناعي؟
يتعرض المطورين وفرق تكنولوجيا المعلومات لضغوط كبيرة لبناء قدرات الذكاء الاصطناعي في نقاط الاتصال وأنظمة اتخاذ القرار بالشركات التي يعملون بها. لكنهم يواجهون، في الوقت نفسه، سخطاً متزايداً من أن الذكاء الاصطناعي مليء بالتحيزات والانتهاكات للخصوصية. بعبارة أخرى، يمثل أرضاً خصبة للدعاوى القضائية.
قد تكون هناك بعض الأدوات والمنصات التي تِعد بذكاء اصطناعي عادل ومتوازن، إلا أن الأدوات والمنصات وحدها لن تقدم حلولاً أخلاقية للذكاء الاصطناعي، كما يقول ريد بلاكمان، الذي يقدم طرقاً للتغلب على مشكلات أخلاقيات الذكاء الاصطناعي الشائكة في كتابه القادم "الآلات الأخلاقية: دليلك الموجز إلى ذكاء اصطناعي غير متحيز وشفاف ويحظى بالاحترام".
يقدم الكاتب مشورة أخلاقية للمطورين الذين يعملون في مجال الذكاء الاصطناعي لأن "استخدام الأدوات يجري بكفاءة وفعالية عندما يكون مستخدموها مجهزين بالمعرفة والمفاهيم والتدريب المطلوب". وتحقيقاً لهذه الغاية، يوفر بلاكمان بعضاً من الرؤى التي يتعين على فرق تكنولوجيا المعلومات أن تمتلكها لتحقيق ذكاء اصطناعي أخلاقي.
يقول بلاكمان إن النظر في النظريات الأخلاقية والأدبية السائدة وتطبيقها على الذكاء الاصطناعي هو "طريقة بشعة لبناء ذكاء اصطناعي سليم أخلاقياً". بدلاً من ذلك، يجب العمل بشكل تعاوني مع الفرق على تطوير نُهج عملية. ويضيف: "ما يهم في القضية المطروحة هو ما يعتقد [أعضاء فريقك] أنه خطر أخلاقي يحتاج إلى تخفيف وطأته، ومن ثم يمكن العمل بشكل تعاوني لتحديد استراتيجيات التخفيف من المخاطر وتنفيذها".
من المنطقي أن تقلق بشأن الضرر الذي قد يتسبب فيه الذكاء الاصطناعي عن غير قصد للعملاء أو الموظفين، إلا أن التفكير الأخلاقي يجب أن يكون أوسع نطاقاً. يعتقد بلاكمان أن السياق المناسب هو التفكير من زاوية تجنب "ظلم" الناس. وهذا يشمل "ما هو مسموح به أخلاقياً، وما هي الحقوق التي قد تُنتهك، وما هي الالتزامات التي قد يتم الإخلال بها".
الرابط (إنجليزي)
|