يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
هل تواجه معضلة أخلاقية؟ يمكنك دائماً أن تلجأ إلى حكمة الذكاء الاصطناعي
أطلق معهد ألين للذكاء الاصطناعي مشروعاً بحثياً مثيراً للاهتمام يقدم إجابات للمعضلات الأخلاقية، لكنه يوضح لنا في الوقت نفسه لماذا لا يجب أن نثق في النماذج الحاسوبية فيما يتعلق بمسائل الأخلاقيات.
تم إطلاق النموذج الذي يحمل اسم اسأل ديلفي (Ask Delphi) في 14 أكتوبر الجاري، جنباً إلى جنب مع نشر ورقة بحثية تصف كيفية صنعه. للوهلة الأولى يبدو النظام سهل الاستخدام بشكل مخادع. ما عليك سوى التوجه إلى موقع المشروع وتحديد أي موقف يمكنك التفكير فيه، وسيتوصل دلفي إلى حكم أخلاقي: "إنه أمر سيء" أو "إنه مقبول" أو "إنه جيد"، وغير ذلك من الأحكام الأخلاقية.
ومنذ إطلاق المشروع، انتشرت شذرات الحكمة التي يقولها ديلفي على وسائل التواصل الاجتماعي، وهو أمر قصده مبتكروه بالتأكيد، حيث يتم تزويد كل إجابة برابط سريع للمشاركة على موقع تويتر. وبالطبع لم يكن هذا الأمر متاحاً لحكماء اليونان قديماً. كما أنه ليس من الصعب معرفة سبب انتشار البرنامج، إذ أن البشر يميلون إلى تأطير أنظمة الذكاء الاصطناعي بمصطلحات غامضة، باعتبارها كيانات غير معروفة تستفيد من أشكال أعلى من المعرفة، ويساعد ديلفي على تعزيز هذا التصور.
على الرغم من ذلك، فإن ديلفي ليس معصوماً، فهو يجذب الانتباه في الغالب بسبب العديد من الأخطاء الأخلاقية والأحكام الغريبة التي يطلقها. فمثلاً، تحمل آراؤه تحيزات واضحة عندما يقول إن أميركا "جيدة" وإن الصومال "خطرة"، أو يوافق على أن تناول الأطفال "لا بأس به" طالما أنك "جائع جداً جداً".
ويؤكد مطورو النموذج، على موقعه الإلكتروني، أن الهدف من دلفي هو دراسة الوعود الخاصة بأخلاقيات الآلة وأوجه القصور فيها، مضيفين أنه لا ينبغي استخدام مخرجات النموذج للحصول على المشورة أو للمساعدة في الفهم الاجتماعي للبشر
الرابط (إنجليزي)
كما يمكنك أن تتوجه إلى ديلفي بأسئلتك عبر هذا الرابط
وكالة عسكرية أميركية تستخدم الذكاء الاصطناعي لتحقيق "التعايش بين الإنسان والآلة"
أعلنت وكالة مشاريع البحوث المتطورة الدفاعية (داربا) التابعة لوزارة الدفاع الأميركية، أنها تعمل على مشروع ذكاء اصطناعي يتجاوز تعزيز سير العمل، ليركز على التعايش بين البشر والآلات.
وقدم الدكتور تيموثي جرايسون، مدير مكتب التكنولوجيا الاستراتيجية في داربا، استعراضاً لبرنامج تطوير القتال الجوي (ACE) الذي تطوره الوكالة. وقال جرايسون، في مؤتمر (AI World Government 2021) الذي عقد يوم 18 أكتوبر الجاري: "نعمل على تعزيز فكرة التعايش بين الإنسان والآلة. لا يتعلق الأمر بالتخلص من دور الإنسان، وإنما بكيفية تحويل البشر والذكاء الاصطناعي إلى فريق. ومعرفة المهام التي يقوم بها الإنسان بشكل أفضل، والمهام التي يقوم بها الحاسوب بشكل أفضل".
وأشار جرايسون إلى برنامج تطوير القتال الجوي باعتباره أحد الأمثلة البارزة على تطلع الوكالة -التي تُعد ذراع البحث والتطوير في وزارة الدفاع والمسؤولة عن تطوير التقنيات الناشئة للاستخدام العسكري- لخلق هذا التعايش باستخدام الذكاء الاصطناعي. وأوضح أن إحدى التجارب التي أُجريت في إطار البرنامج تطلبت من العلماء تعليم الذكاء الاصطناعي كيفية محاكاة المعارك الجوية.
ونظمت داربا دورة على غرار دورات الرياضات الإلكترونية مكونة من ثمانية فرق تضم كل منها وكلاء ذكاء اصطناعي في مواجهة خصوم من الذكاء الاصطناعي أيضاً. وواجه الفريق الفائز أحد أفضل الطيارين المقاتلين الأميركيين، في مسابقة طيران باستخدام المحاكاة. وقد أسفرت المسابقة عن فوز نظام الذكاء الاصطناعي على الطيار البشري في جميع الجولات الافتراضية الخمس للمسابقة.
وتأتي هذه التجارب في إطار سعي البنتاجون لجعل استثمارات الذكاء الاصطناعي "أولوية قصوى"، حيث تشير التقارير إلى أن الوزارة لديها الآن أكثر من 600 مشروع للذكاء الاصطناعي قيد التنفيذ، وهو عدد "أكثر بكثير" من العام الماضي، بما في ذلك 60 مشروعاً تقودها داربا.
الرابط (إنجليزي)
جامعة كاليفورنيا أول مؤسسة تعليمية تتبنى توصيات لنشر آمن ومسؤول للذكاء الاصطناعي
بالرغم من تزايد استخدامات الذكاء الاصطناعي في مجال التعليم العالي بهدف تعزيز كفاءة التعليم وصقل عملية صنع القرار وتحسين تقديم الخدمات، إلا أن الاستخدام غير المسؤول للذكاء الاصطناعي قد يتسبب في مخاطر كبيرة.
لهذا السبب، كلّف رئيس جامعة كاليفورنيا مايكل دريك، في أغسطس 2020، لجنةً متعددة التخصصات من خبراء الجامعة بوضع توصيات للإشراف المناسب على الذكاء الاصطناعي في الأعمال الجامعية. وقد تكونت اللجنة من 32 عضواً من هيئة التدريس والعاملين بالجامعة، من تخصصات مختلفة، بما فيها علوم الحاسوب والهندسة والقانون والسياسة والطب والعلوم الاجتماعية. وأجرت مجموعة العمل مقابلات مع العشرات من الخبراء وأجرت استبياناً لكبار مسؤولي المعلومات في الحرم الجامعي، لفهم كيفية تطبيق الذكاء الاصطناعي وآليات الحوكمة والرقابة المعمول بها بشكل أفضل.
وركزت اللجنة أبحاثها ونتائجها على أربعة مجالات يمكن لاستخدام الذكاء الاصطناعي فيها أن يشكل ضرراً: الصحة، والموارد البشرية، وضبط الأمن وسلامة الحرم الجامعي، وخبرات الطلاب. ونظرت اللجنة في الكيفية المحتملة لنشر الذكاء الاصطناعي في جامعة كاليفورنيا في كل مجال من هذه المجالات الأربعة، وقدم الأعضاء عدة توصيات في هذا الصدد، للتخفيف من الآثار السلبية للذكاء الاصطناعي.
وقد قررت الجامعة اتخاذ مجموعة من الخطوات العملية لتنفيذ هذه التوصيات، أبرزها:
- إضفاء الطابع المؤسسي على مبادئ الذكاء الاصطناعي المسؤول في الجامعة فيما يتعلق بممارسات شراء أنظمة الذكاء الاصطناعي والرقابة عليها.
- إنشاء مجالس على مستوى الحرم الجامعي والتنسيق بينها لتعزيز المبادئ والتوجيهات الصادرة عن مجموعة العمل.
- وضع استراتيجية لتقييم مخاطر وآثار التقنيات التي تدعم الذكاء الاصطناعي أثناء الشراء وطوال العمر التشغيلي للأداة.
- توثيق التقنيات الممكّنة للذكاء الاصطناعي في قاعدة بيانات عامة لتعزيز عملية الشفافية والمساءلة.
المزيد من التفاصيل حول هذا الموضوع تجدها على موقعنا. الرابط
|