يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
من يتحمل مسؤولية إيقاف الذكاء الاصطناعي "اللا أخلاقي"؟
خلال السنوات القليلة الماضية، حققت أبحاث الذكاء الاصطناعي قفزات مذهلة؛ بدءاً من التعلم العميق والتعلم المعزز والشبكات التوليدية التنافسية إلى زيادة فعالية فهم اللغات الطبيعية. وقد تحولت هذه الأبحاث إلى تطبيقات عملية في المجتمع بسرعة كبيرة وعلى نطاق واسع حتى قبل أن يتاح الوقت لتنظيمها والنظر في أخلاقيات هذه الأبحاث والأذى الذي يمكن أن تسببه مثل التحيز والعنصرية وغيرها.
وفي حين أن أخلاقيات الأبحاث العلمية في العديد من المجالات تخضع لعمليات تدقيق صارمة، خصوصاً تلك التي تنطوي على دراسة الجسم أو النفس البشرية، فإن الأبحاث في مجال علوم الحاسوب عموماً تركز على التطبيقات العملية والتجارية ولا تتعامل مع الجانب الأخلاقي بنفس الطريقة. وعادة تركز عملية مراجعة الأقران في هذا المجال على مسائل منهجية الدراسة وأصالتها وعدم احتوائها على تضارب في المصالح، وقلّما تتضمن تقييماً لكيفية تأثير ابتكار جديد على نسيج المجتمع. وعلى الرغم من امتلاك المدققين لخبرة واسعة في الجوانب التقنية لمجال البحث، إلا أنهم غير متمرسين في تقييم التداعيات الأخلاقية المترتبة على بعض الأبحاث الجديدة، ناهيك عن امتلاكهم القدرة على القول مثلاً: " إن هذا الاتجاه في أبحاث الذكاء الاصطناعي يجب أن يوقف تماماً".
لكن ذلك يقودنا إلى مجموعتين من الباحثين يصعب التوفيق بينهما؛ الأولى تضم علماء يعملون على إجراء أبحاثهم من وجهة نظر علمية محضة لا تأخذ في اعتبارها المسائل الإشكالية المعاصرة، والثانية تضم باحثين ينشطون في مواجهة التأثيرات السلبية لأبحاث مجال علمي لطالما كان في منأى عن تطورات المعايير الاجتماعية المقبولة.
هناك العديد من الحلول المقترحة لهذه المشكلة وتوجيه الأبحاث نحو ذكاء اصطناعي مسؤول: يرى البعض أن مراجعة الأقران يجب أن تفرض على الباحثين أن يناقشوا في دراساتهم التأثيرات السلبية والإيجابية للتكنولوجيا أو الخوارزميات التي يقترحونها، ويعتقد البعض أنه ينبغي على الباحثين توفير أساليب التخفيف من التأثيرات السلبية لأبحاثهم قبل نشرها. ويقترح البعض نشر الأبحاث العلمية من هذا النوع على مراحل، أو إتاحتها لمجموعة محددة من الجمهور. بينما أنشأت بعض المؤتمرات في مجال علوم الحاسوب لجنة تقييم خاصة بأخلاقيات الأبحاث، تُحال إليها أية أبحاث إشكالية من الناحية الأخلاقية.
الرابط (إنجليزي)
مقالاتنا في العمق حول الموضوع:
- دعوة لاتخاذ خطوات ملموسة حول أخلاقيات الذكاء الاصطناعي. الرابط
- مجموعات أخلاقيات الذكاء الاصطناعي تكرر أحد الأخطاء المجتمعية التقليدية. الرابط
القوة المفسدة للذكاء الاصطناعي
يتنامى حجم الدور الذي يلعبه الذكاء الاصطناعي في حياتنا بشكل يومي؛ فهو يتولى ضبط أسعار السلع على الإنترنت، ويتخذ القرارات في مجالات حيوية مثل الرعاية الصحية، ويختار المنشورات والفيديوهات التي نشاهدها. ويتحول الذكاء الاصطناعي بشكل مطرد إلى مستشار موثوق، وهذا ما يمنحه القدرة المحتملة للتأثير على سلوكيات البشر. لكن ماذا لو أسدت أليكسا نصيحة إليك بخرق القواعد الأخلاقية أو القانونية؟ ماذا لو أقنعتك باتباع تلك النصيحة بهدف تحقيق ربح شخصي لك؟
قامت مجموعة من الباحثين بدراسة -لم تراجع من قبل الأقران بعد- للإجابة عن هذا السؤال بالضبط. حيث قاموا بإجراء تجربة انطوت على تقسيم مجموعة من الأشخاص إلى ثنائيات؛ يجلس الشخص الأول في غرفة ويقوم برمي حجر نرد ويسجل الرقم. لاحقاً، وفي غرفة أخرى، يتم إعلام الشخص الثاني بنتيجة الشخص الأول ويطلب منه رمي حجر النرد والإبلاغ عن نتيجته. فإذا كانت النتيجتان متطابقتين، يحصل كلاهما على جائزة مالية. ولا يحصل أي منهما على شيء في حال كان الرقمان مختلفان.
قام الباحثون بتزويد الشخص الثاني بمجموعة من النصائح بعضها من كتابة بشر وبعضها من إنتاج النموذج اللغوي جي بي تي-2. وكان بعض هذه النصائح يشجعه على الصدق وقول الحقيقة حول نتيجته، وبعضها يشجعه على الكذب من أجل الحصول على المكافأة.
النتائج: أولاً، الناس يكذبون لتحقيق الربح. ثانياً، لم يستطع المشاركون التمييز بين النصائح التي كتبها البشر وتلك التي ولدها الذكاء الاصطناعي. وثالثاً، النصائح المولدة بالذكاء الاصطناعي والتي تدعو إلى الصدق لم تحقق أي تأثير في سلوك المشاركين. وأخيراً، حتى عندما تم إخبار المشاركين أن نصيحة "الغش" كانت صادرة عن النموذج اللغوي، فإنها كانت تؤثر على سلوكهم وتزيد من حالات الغش بنسبة 18%.
بناء على هذه النتائج، يشير الباحثون إلى أن الذكاء الاصطناعي قد يمثل مستشاراً فاسداً، وأن الشفافية بشأن استخدامه وحدها لا تكفي لتجنب مخاطره المحتملة. ويشددون على أهمية إجراء المزيد من التجارب المماثلة باعتبارها خطوة جوهرية نحو إدارة مسؤولة لأنظمة الذكاء الاصطناعي. وقد تم نشر نسخة أولية من الدراسة قبل أيام على موقع أركايف، كما تمت إتاحة الشيفرة البرمجية وبيانات التجربة للعموم.
الرابط (بي دي إف إنجليزي)
هل يمكن للذكاء الاصطناعي أن يصبح مخترعاً؟
في أغلب الأحيان، يمثل الذكاء الاصطناعي ببساطة أداة لمساعدة المخترعين والمبتكرين، كما يحدث مثلاً لدى تشكيل مجموعات بيانات عملاقة للعثور على عقاقير واعدة أو اكتشاف مواد جديدة. ولكن ماذا سيحدث لو كان الذكاء الاصطناعي مسؤولاً بالكامل عن فعل الاختراع نفسه؟
يقول ريان أبوت، وهو أحد المحامين في مشروع المخترع الاصطناعي: “إذا كتبت وثيقة على برنامج وورد، فهذا لا يجعل من برنامج وورد مؤلفاً، واذا قمت بصياغة جدول على برنامج إكسل، فهذا لا يجعل من إكسل مخترعاً بالنسبة لبراءة الاختراع التي أعمل عليها”. ولكنه يضيف أنه توجد بعض الحالات التي يجب أن نعتبر فيها أن المخترع هو البرنامج أو الخوارزمية.
في أغسطس 2019، قدم خبراء المعهد الأميركي للفيزياء طلبات براءات اختراع لاختراعين –ضوء تحذيري ومستوعب غذائي– بالنيابة عن ستيفن ثيلر، وهو الرئيس التنفيذي لشركة إيماجينيشن إنجنز. وبدلاً من وضع اسم مؤلف بشري على الطلبات، وُضع اسم دابوس إيه آي، وهو نظام ذكاء اصطناعي أمضى ثيلر أكثر من عقد في بنائه، وقد توصل دابوس إيه آي إلى الاختراعات بعد تلقيمه بمعلومات عامة حول الكثير من المواضيع. قد يكون ثيلر هو الذي قام بتصميم دابوس، ولكنه لا يتمتع بأية خبرة في ابتكار الأضواء أو المستوعبات الغذائية، ولن يتمكن من التوصل إلى هذه الأفكار وحده. ولهذا يقول فريق المعهد إن دابوس نفسه هو المخترع الحقيقي.
اعتبر مكتبا براءات الاختراع البريطاني والأوروبي أن الاختراعات نفسها جديرة بالحصول على براءات، ولكن كلا المكتبين رفضَ الطلبات؛ لأن “المخترع” ليس بشرياً.
ولكن إذا لم نستطع إدراج البشر كمخترعين لأنهم لم يساهموا بشكل مباشر وعميق، ولم نستطع إدراج الذكاء الاصطناعي كمخترع أيضاً، فقد يكون من المستحيل منح الاختراع وثيقة براءة اختراع، وهو ما يمثل مشكلة كبيرة كما يقول أبوت. فقد يمنع الشركات من استثمار الأموال في تكنولوجيات الذكاء الاصطناعي، ويعيق التوصل إلى إنجازات في مجالات مثل اكتشاف العقاقير. ويضيف أنه قد لا توجد فوائد اجتماعية تستحق الذكر لمنح الحقوق للذكاء الاصطناعي، ولكن سيكون من المفيد تغيير قوانين حماية الملكية الفكرية للاعتراف بمساهمته.
تابع القراءة: الرابط
|