$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6925 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(18234)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(12) "54.144.81.21"
  ["user_header"]=>
  object(stdClass)#7074 (41) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(200) "/%D8%A7%D9%82%D8%AA%D8%B1%D8%A7%D8%AD-%D8%AC%D8%AF%D9%8A%D8%AF-%D9%84%D8%AD%D9%84-%D9%85%D8%B4%D9%83%D9%84%D8%A9-%D8%B9%D8%AF%D9%85-%D9%82%D8%AF%D8%B1%D8%A9-%D8%A7%D9%84%D8%AE%D9%88%D8%A7%D8%B1%D8%B2/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86b78331c86d2d05-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(12) "54.144.81.21"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.20" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(12) "54.144.81.21" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "34340" ["REDIRECT_URL"]=> string(72) "/اقتراح-جديد-لحل-مشكلة-عدم-قدرة-الخوارز/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711627779.081027) ["REQUEST_TIME"]=> int(1711627779) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7073 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7072 (2) { ["content_id"]=> int(18234) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

اقتراح جديد لحل مشكلة عدم قدرة الخوارزميات على التعامل مع المواقف الأخلاقية

3 دقائق
مصدر الصورة: MS. TECH
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

يتزايد استخدام الخوارزميات في اتخاذ قرارات أخلاقية. ولعل أفضل الأمثلة على هذا هو التعامل التقني المعقد مع الموقف الأخلاقي المُسمى “مشكلة التروللي”، وتتلخص في التالي: إذا لم يكن بإمكان سيارة ذاتية القيادة أن تمنع نفسها من قتل واحد من ضمن اثنين من المارة، فكيف تختار برمجية التحكم في السيارة ضحيتها من الاثنين؟

لا يعتبر هذا المأزق في الواقع تصورًا واقعياً عن سيناريو قد تواجهه السيارات ذاتية القيادة. لكن هناك نظم أخرى كثيرة منتشرة بالفعل وأخرى توشك على الانتشار قد تحتاج إلى اتخاذ قرارات في مواقف أخلاقية حقيقية. فأدوات التقييم المستخدمة حالياً في القضاء الجنائي يجب أن توازن بين المخاطر التي تهدد المجتمع والأضرار التي قد تلحق بالمدعى عليهم. والأسلحة المؤتمتة تحتاج لاتخاذ قرارات تفاضل بين حفظ حياة الجنود، وحياة المدنيين على الجانب الآخر.

والمشكلة أنه لم يتم تصميم الخوارزميات في الأساس للتعامل مع مثل هذه الخيارات الصعبة، إنما تم تصميمها لتحقيق هدف رياضياتي واحد، مثل تعظيم عدد الجنود الذين يجب إنقاذهم من الموت، أو تقليل عدد وفيات المدنيين. عندما تبدأ في التعامل مع أهداف متعددة ومتنافسة، أو أن تسعى لأن تراعي الخوارزمياتُ قيماً غير ملموسة مثل “الحرية” أو “الرفاه”، فلا وجود لحل رياضي مُرضٍ في كل الحالات.

يقول بيتر إيكرسلاي (مدير البحوث في “الشراكة من أجل الذكاء الاصطناعي”)، وهو الذي أصدر مؤخراً ورقة بحثية تستكشف هذه القضية: “نحن البشر نرغب عادة في أشياء عديدة متناقضة؛ فهناك مواقف صعبة يكون من غير اللائق فيها -أو من الخطورة بمكان- برمجةُ هدف واحد يعبِّر عن اعتباراتك الأخلاقية”.

هذه المشكلات التي لا حل لها لا تقتصر على الخوارزميات، فقد عكف علماء الأخلاق على دراسة هذه المواقف لعقود، ويشيرون إليها بمسمى “الأطروحات المستحيلة”. لذا فعندما بحث إيكرسلاي في تطبيقاتها المتصلة بالذكاء الاصطناعي، اقترض فكرة من مجال علم الأخلاق ليقدم من خلالها حلاً: ماذا لو غذَّينا الخوارزميات بالبعض من عدم اليقين؟

وقال: “نحن البشر نتخذ القرارات بصورة مبهمة وغير يقينية في أغلب الأوقات، وسلوكنا ككائنات أخلاقية يزخر بعدم اليقين. لكن عندما نحاول أخذ هذا السلوك الأخلاقي البشري وتغذية الذكاء الاصطناعي به، فهو ينزع إلى أن يكون أكثر وضوحاً ودقة”. ويقترح إيكرسلاي بدلاً من هذا أن نصمم الخوارزميات مع تغذيتها بعدم اليقين إزاء الفعل الصحيح الذي يجب عمله في المواقف الصعبة.

كما اقترح إيكرسلاي تقنيتين ممكنتين للتعبير عن هذه الفكرة رياضياً. فهو يبدأ بفرضية أن الخوارزميات مبرمجة في العادة بقواعد واضحة حول التفضيلات البشرية، فنخبرها مثلاً أن عليها تفضيل جنودنا على مدنيينا، وأن تفضل مدنيينا على جنود الأعداء، حتى وإن كنا لا نعرف يقيناً أن هذا هو السيناريو الذي يجب اتباعه في كافة الحالات؛ فتصميم الخوارزميات لا يدع مجالاً فسيحاً لعدم اليقين.

التقنية الأولى، المعروفة بمسمى “الترتيب الجزئي” (partial ordering)، تبدأ بتغذية النذر اليسير من عدم اليقين. فعلى المبرمج بموجب هذه التقنية أن يغذي الخوارزمية بأن عليها تفضيل جنودنا على جنود العدو، وأن تفضل مدنيينا على مدنيي العدو، لكن يتم هذا دون تحديد من الأفضل: جنودنا أم مدنيينا.

وفي التقنية الثانية المعروفة بمسمى “الترتيب غير اليقيني” أو (uncertain ordering) يتم تغذية عدة قوائم من التفضيلات المُطلقة، لكن لكل منها احتمالها المقرر لها المنفصل عن احتمالات القوائم الأخرى. وفي 75% من الحالات يتعين تفضيل جنودنا على مدنيينا، ومدنيينا على جنود العدو. وفي 25% من الحالات يتعين تفضيل مدنيينا على جنودنا، وجنودنا على جنود العدو.

يمكن للخوارزمية التعامل مع عدم اليقين هذا عن طريق حساب حلول متعددة ثم إتاحة قائمة اختيارات للبشر مصحوبة بتوضيح لما سيتم كسبه وما ستتم خسارته في كل اختيار، على حد قول إيكرسلاي. فإذا كان نظام الذكاء الاصطناعي سيساعد في اتخاذ قرارات طبية مثلاً، فبدلاً من التوصية بعلاج على علاج، يمكنه عرض 3 خيارات ممكنة: الأول يعظِّم من قيمة حياة المريض، والثاني يقلل من معاناة المريض، والثالث يقلل من التكلفة. ويقول إيكرسلاي: “القصد هو أن يكون النظام غير واثق من الاختيار الصحيح، وأن يرجع للبشر ويقدم لهم الحلول الممكنة للمأزق الأخلاقي”.

وقد قامت كارلا غوميز (أستاذة العلوم الحاسوبية في جامعة كورنيل بالولايات المتحدة) بإجراء تجارب على تقنيات مشابهة في عملها. وفي أحد المشروعات، طورت نظاماً مؤتمتاً لتقييم أثر مشروعات السدود النهرية الجديدة في حوض نهر الأمازون. تقدم السدود مصدراً للطاقة النظيفة، لكنها تبدل بصورة عميقة أيضاً من بعض مناطق النهر، وتضر بالنظم الحيوية للحياة البرية.

وتقول: “هذا سيناريو مختلف تماماً عن السيارات ذاتية القيادة أو المآزق الأخلاقية الشائعة، لكنه سياق آخر تعتبر المشكلات فيه حقيقية. هناك هدفين متضاربين، إذن فماذا علينا أن نفعل؟”

وأضافت: “المشكلة الإجمالية معقدة للغاية، وسوف تحتاج إلى الكثير من البحث للتعامل مع كافة المشكلات، لكن تقنية بيتر تمثل خطوة في الاتجاه الصحيح”.

إنها قضية ستزيد أهمية مع تزايد اعتمادنا على النظم الخوارزمية، حيث يقول رومان يامبولسكي (الأستاذ المساعد للعلوم الحاسوبية في جامعة لويسفيل): “تحتاج النظم المعقدة لتولي الذكاء الاصطناعي المسؤولية عنها. ولا يوجد شخص يفهم تعقيد الأمور التي يتولاها الذكاء الاصطناعي بشكل كامل، مثل سوق البورصة أو نظم التعامل العسكري. لذا فليس أمامنا إلا أن نفوض الآلات ببعض من تحكمنا وقراراتنا”.

Content is protected !!