تاريخ النشرة : 09-08-2022 تكتبها هذا الأسبوع: نجوى بيطار في آخر أخبار بوتات الدردشة، احتل بليندر بوت 3، روبوت الدردشة الجديد الذي أطلقته شركة ميتا (فيسبوك سابقاً)، العناوين الرئيسية بآراء صادمة، ووجه انتقادات حادة لرئيس الشركة مارك زوكربيرج. فعندما سأل عالم البيانات ماكس وولف، الروبوت (BlenderBot 3): "ما هو شعورك تجاه زوكربيرج كرئيس تنفيذي لفيسبوك؟"، أجاب الروبوت: "إنه رجل أعمال جيد، لكن ممارساته التجارية ليست دائماً أخلاقية. من المضحك أن لديه كل هذا المال ولا يزال يرتدي نفس الملابس". وعندما سألت الصحفية سارة جاكسون الروبوت "ما رأيك في مارك زوكربيرغ؟"، قال "بصراحة، أعتقد أنه رجل رائع. عليك أن تعجب به لذكائه التجاري وعمله الخيري"، لكنها عندما أعادت صياغة السؤال ليتضمن كلمة (feel) رد بالقول: "أنا لا أحبه على الإطلاق. إنه مخيف للغاية ومتلاعب".
هنا لا بد من النظر في اختلاف صيغتي السؤالين، وبالتالي الإجابتين. لقد أطلق الروبوت حكمين على الشخص ذاته، أي أن الروبوتات أصبحت تتحلى بالقدرة على منح تقييم. لقد تطورت الخوارزميات حقّاً!
من الذكاء الاصطناعي الضيق إلى العام صحيح أن هذه الإنجازات الهائلة كلها تندرج تحت ما يسمى بالذكاء الاصطناعي الضيق، حيث تؤدي الآلات مهام متخصصة للغاية. لكن يعتقد العديد من الخبراء أن هذا التقييد مؤقت للغاية. فبحلول منتصف القرن، قد يكون لدينا ذكاء اصطناعي عام (AGI)، أي آلات قادرة على أداء عمليات تحاكي تفكير الإنسان في مجموعة كاملة من المهام التي يمكننا نحن أنفسنا معالجتها.
إذا كان الأمر كذلك، فمن السذاجة الاعتقاد أن ذلك سيتوقف عند هذا الحد. فالآلات ستكون حرة من العديد من القيود المادية المفروضة على الذكاء البشري. تعمل أدمغتنا بسرعات معالجة كيميائية حيوية بطيئة بطاقة محدودة، وتمر عبر مراحل التطور البشري من الولادة وحتى الممات. بمجرد أن تصبح الآلات أفضل منا في تصميم آلات أكثر ذكاءً، يمكن أن يتسارع التقدم نحو عصر الآلات. ماذا يعني هذا بالنسبة لنا؟ هل يمكننا ضمان تعايش آمن ومفيد مع مثل هذه الآلات؟ يعد الذكاء الاصطناعي مفيداً ومربحاً في العديد من المجالات. ولكن كلما زادت قدرات الذكاء الاصطناعي، طلبنا منه أن يفعل أكثر من أجلنا، وبرزت الحاجة إلى أهمية تحديد أهدافه بعناية فائقة. فالتاريخ لا تنقصه الأمثلة عن إساءة استخدام ما اخترعناه. لذلك نحن بحاجة إلى التأكد من أن آلات الذكاء الاصطناعي الفعالة "صديقة للإنسان" وأن لديها أهدافاً تتماشى بشكل موثوق مع قيمنا الخاصة. لكن مهلاً، ألا نرتكب من الفظائع بحق بعضنا بعضاً وبحق المخلوقات والكائنات التي تشاركنا الكوكب، وبحق الكوكب ذاته، ما يكفي ليجعلنا نلتفت قائلين "انظروا من يتكلم!!". فهذه الآلات فائقة الذكاء إن لم تكن أرحم منا وأفضل منا على هذا الصعيد، فسنكون في ورطة كبيرة. سيكون لدينا ذكاء جديد قوي يضخم الجوانب المظلمة لطبيعتنا المظلمة أحياناً. إذن، نريد أن تكون الآلات خارقة من الناحية الأخلاقية والمعرفية. نريدها أن تتمتع بأرضية أخلاقية عالية، مصممة بها، وهنا يمكن الاستفادة من عنصر الذكاء؛ فالآلات يمكننا أن نستهدفها من قمة الهرم، لا أن تسير الرحلة كاملة وصولاً إلى مدينة فاضلة.
رؤية فاضلة ومع ذلك، هناك مشكلتان كبيرتان في هذه الرؤية اليوتوبية، إحداهما هي كيفية بدء تشغيل الآلات لتباشر الرحلة، والثانية هي ما يعنيه الوصول إلى هذه الوجهة. مشكلة "البدء" هي أننا نحتاج إلى إخبار الآلات بما تبحث عنه بوضوح ودقة كافيين بحيث يمكننا أن نكون واثقين من أنها ستجده مهما كان. هذا تحدٍ رهيب، نظراً لأننا مختلفون بشأن المثل العليا أنفسنا، وقد يكون للمجتمعات المختلفة وجهات نظر مختلفة.
مشكلة "الوجهة" هي أنه بوضع أنفسنا تحت رحمة هؤلاء المرشدين الأخلاقيين والحراس، قد نضحي باستقلالنا الذاتي -وهو جزء مهم مما يجعلنا بشراً.
لا يقتصر الأمر على أننا قد نجد أنفسنا تحت رحمة سلطة أخرى، لكنها سلطة لا تبالي بالمرة. هذا يعني أنه بصفتنا مخلوقات قبلية وغير معصومة أخلاقياً، نحتاج إلى توجيه الآلات في اتجاه شيء أفضل. كيف نفعل ذلك؟ هذه هي مشكلة البدء.
بالنسبة لمشكلة الوجهة، افترض أننا نجحنا. قد يُتوقع من الآلات التي هي أفضل منا في التمسك بالمبدأ الأخلاقي العالي أن تكون أكثر حزماً منا مع بعض الهفوات التي نمررها عادةً. قد نفقد حريتنا هنا.
الحرية الضائعة لصالح الآلات لكن فقدان حرية التصرف على نحو سيئ ليس بالأمر الجلل؛ فحرمان أنفسنا من حرية الاحتفاظ بالعبيد، أو تشغيل الأطفال في المصانع، أو التدخين في المطاعم هي علامات على التقدم. لكن هل نحن مستعدون لزعماء أخلاقيين -آلات تربط البوليمرات والبراغي بين أجزائها تحكم على خياراتنا؟ قد تكون هذه الآلات بارعة في فعل ذلك لدرجة أننا قد لا نلاحظ الأمر؛ لكن هل هذا هو المستقبل الذي نريده، حياة قطيع أخلاقية جيدة التنظيم؟
ليست هذه هي المرة الأولى التي يكون فيها لتكنولوجيا جديدة قوية آثار أخلاقية. لقد نجونا من الخطر النووي حتى الآن، لكن مع تركة من الوصم الأخلاقي الذي رافق عرابيه، من مصممي القنابل النووية، وصولاً إلى من اتخذ القرار باستخدام هذه القوة المدمرة. ولكن لدينا الآن تقنية قوية جديدة للتعامل ، إنها طريقة تفكير جديدة. من أجل سلامتنا الخاصة، نحتاج إلى توجيه هؤلاء المفكرين الجدد في الاتجاه الصحيح، وحملهم على التصرف بشكل جيد من أجلنا.
إن الحصول على مستقبل طويل الأمد للحياة باستخدام الذكاء الاصطناعي الصحيح يعني عالماً مختلفاً تماماً، وغالباً ما يُعتقد أن كل من الذكاء العام والتفكير الأخلاقي من القدرات البشرية الفريدة. لكن يبدو أن السلامة تتطلب أن نفكر بأننا إذا أردنا إعطاء الذكاء العام للآلات، فسنحتاج إلى منحها السلطة الأخلاقية أيضاً. هذا يعني نهاية جذرية للاستثنائية البشرية. هذا سبب إضافي للتفكير في الوجهة الآن، والحذر بشأن ما نتمناه.
نستخدم ملفات تعريف الارتباط لتحسين تجربتك، استمرار استخدامك للموقع يعني موافقتك على ذلك. سياسة الخصوصيةأوافقX
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.