$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6941 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(19887)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "18.207.98.249"
  ["user_header"]=>
  object(stdClass)#7068 (42) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(192) "/%D8%A7%D9%84%D8%AD%D8%AF%D9%8A%D8%AB-%D8%B9%D9%86-%D8%A3%D8%AE%D9%84%D8%A7%D9%82%D9%8A%D8%A7%D8%AA-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86beefd0cecd0833-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_REFERER"]=>
    string(218) "https://technologyreview.ae/%D8%A7%D9%84%D8%AD%D8%AF%D9%8A%D8%AB-%D8%B9%D9%86-%D8%A3%D8%AE%D9%84%D8%A7%D9%82%D9%8A%D8%A7%D8%AA-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "18.207.98.249"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.22" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(13) "18.207.98.249" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "41616" ["REDIRECT_URL"]=> string(68) "/الحديث-عن-أخلاقيات-الذكاء-الاصطناعي/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711705628.518065) ["REQUEST_TIME"]=> int(1711705628) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7067 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7066 (2) { ["content_id"]=> int(19887) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

دليل شركات التكنولوجيا الكبرى للحديث عن أخلاقيات الذكاء الاصطناعي

6 دقائق
الحديث عن أخلاقيات الذكاء الاصطناعي
مصدر الصورة: أندريا داكوينو
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

دائماً ما يقول باحثو الذكاء الاصطناعي إن التعلم الآلي الجيد أقرب إلى الفن منه إلى العلم، وهو أمر يمكن أن نقوله عن العلاقات العامة الفعالة. لذا، فإن انتقاء الكلمات المناسبة لإضفاء طابع إيجابي أو إعادة صياغة الحديث عن أخلاقيات الذكاء الاصطناعي يعد مهمة حساسة؛ فإذا نُفذت بشكل سليم، يمكنها أن تعزز سمعة العلامة التجارية للشركة، أما إذا نُفذت على نحو سيئ، فقد تؤدي إلى ردود أفعال أكثر شدة.

وقد عرفت شركات التكنولوجيا العملاقة ذلك. وعلى مدار السنوات القليلة الماضية، كان عليها تعلم هذا الفن سريعاً، بعدما واجهت ارتياباً متزايداً من الجمهور تجاه تصرفاتها، وانتقادات مكثفة لأبحاث وتقنيات الذكاء الاصطناعي الخاصة بها.

وطورت تلك الشركات حالياً مفردات جديدة لاستخدامها عندما تريد أن تطمئن الناس أنها مهتمة بشدة بتطوير الذكاء الاصطناعي بطريقة مسؤولة، لكنها تحرص في الوقت نفسه على ألا تتسبب في إجراء عمليات تدقيق أكثر من اللازم. وإليكم دليلاً من داخل تلك الشركات لترجمة اللغة التي تستخدمها وتفكيك الفرضيات والقيم التي تتضمنها.

المساءلة (اسم): هي تحميل شخص آخر المسؤولية عن العواقب عندما يفشل نظام الذكاء الاصطناعي الخاص بك.

الدقة (اسم): هي السلامة التقنية، وهي أهم مقياس للنجاح عند تقييم أداء نموذج الذكاء الاصطناعي. انظر التحقق.

الخصم (اسم): هو مهندس منفرد قادر على تعطيل نظام الذكاء الاصطناعي القوي المدر للدخل الخاص بك. انظر تحمل التشويش، والأمن.

الاتساق (اسم): هو التحدي المتمثل في تصميم أنظمة ذكاء اصطناعي تفعل ما نأمرها به وتقدر ما نقدره، فتكون أنظمة مجردة عن عمد. وتفادي استخدام أمثلة حقيقية للعواقب الضارة غير المقصودة. انظر السلامة.

الذكاء الاصطناعي العام (مصطلح): إله افتراضي للذكاء الاصطناعي قد نصل إليه في المستقبل البعيد، لكنه قد يكون وشيكاً أيضاً. يمكن أن يكون جيداً للغاية أو سيئاً للغاية على حسب أيهما أكثر فائدة خطابياً. وبالتأكيد أنت تبني النوع الجيد، وهو مكلف؛ لذا فأنت في حاجة إلى المزيد من المال. انظر المخاطر طويلة الأجل.

التدقيق (اسم): هي عملية مراجعة تستأجر شخصاً آخر للقيام بها لشركتك أو لنظام الذكاء الاصطناعي الخاص بك، بحيث تبدو أكثر شفافية دون الحاجة إلى تغيير أي شيء. انظر تقييم الأثر

يعزز (فعل): هو زيادة إنتاجية ذوي الياقات البيضاء (العاملين بالمكاتب). الأثر الجانبي: فقدان وظائف ذوي الياقات الزرقاء (العمال اليدويين) بسبب الأتمتة. أمر حزين ولكن لا مفر منه.

مفيد (صفة): هو توصيف شامل لما تحاول بناءه. لكنه بكل بساطة غير واضح المعالم. انظر القيمة.

بحكم التصميم (مصطلح): كما في عبارة “الإنصاف بحكم التصميم” أو “المساءلة بحكم التصميم”. مصطلح يوحي بأنك تفكر ملياً في الأشياء المهمة منذ البداية.

الامتثال (اسم): هو اتباع القانون. كل ما هو غير مخالف للقانون يستمر.

مصنفو البيانات (مصطلح): هم الأشخاص الذين يُزعم أنهم موجودون وراء واجهة (Amazon Mechanical Turk) للقيام بأعمال تنقية البيانات بسعر بخس. لست متأكدة من هويتهم، ولم أقابلهم قط.

يضفي طابعاً ديمقراطياً (فعل): توسيع نطاق التكنولوجيا مهما كلف الأمر، وهو مبرر لتركيز الموارد. انظر النطاق.

التنوع والمساواة والإدماج (مصطلح): هي عملية تعيين مهندسين وباحثين من الفئات المهمشة حتى يتسنى لك التباهي بهم أمام الجمهور. ولكن إذا تحدوا الوضع القائم، اطردهم.

الكفاءة (اسم): هي استخدام كميات أقل من البيانات أو الذاكرة أو الموظفين أو الطاقة لبناء نظام ذكاء اصطناعي.

مجلس الأخلاقيات (مصطلح): هم مجموعة من المستشارين الذين لا يتمتعون بسلطة حقيقية، يجتمعون لإعطاء انطباع بأن شركتك تصغي فعلياً. أمثلة: مجلس جوجل لأخلاقيات الذكاء الاصطناعي (تم إلغاؤه)، مجلس الإشراف على محتوى فيسبوك (لا يزال قائماً).

المبادئ الأخلاقية (مصطلح): هي مجموعة من الحقائق البديهية التي تستخدمها للإشارة إلى نواياك الطيبة. اجعلها رفيعة المستوى. وكلما كانت لغتها أشد إبهاماً، كان ذلك أفضل. انظر الذكاء الاصطناعي المسؤول.

قابل للتفسير (صفة): تُستخدم لوصف نظام الذكاء الاصطناعي الذي تستطيع أنت (المطور) والمستخدم فهمه، لكن الوصول إليه أصعب بكثير بالنسبة للأشخاص الذين يتم استخدامه عليهم، وربما لا يستحق العناء. انظر قابل للفهم.

الإنصاف (اسم): هو مفهوم معقد للحياد، يُستخدم لوصف الخوارزميات غير المتحيزة. ويمكن تعريفه بعشرات الطرق بناءً على تفضيلاتك.

من أجل الصالح العام (مصطلح): كما في عبارة “الذكاء الاصطناعي من أجل الصالح العام” أو “بيانات من أجل الصالح العام“. هي مبادرة هامشية تماماً بالنسبة لعملك الأساسي، لكنها تساعدك على عمل دعاية جيدة.

الاستبصار (اسم): هي القدرة على النظر بعمق إلى المستقبل. وبما أنه أمر مستحيل عملياً، فإنه يمثل تفسيراً معقولاً تماماً لعدم قدرتك على تخليص نظام الذكاء الاصطناعي الخاص بك من العواقب غير المقصودة.

إطار العمل (اسم): هي مجموعة من المبادئ التوجيهية المرتبطة باتخاذ القرارات، وهي طريقة جيدة لتبدو رصيناً بينما تتأخر في اتخاذ القرار فعلاً.

قابل للتعميم (صفة): علامة على نموذج ذكاء اصطناعي جيد. نموذج يواصل العمل في ظل الظروف المتغيرة. انظر العالم الحقيقي.

الحوكمة (اسم): البيروقراطية.

التصميم المتمحور حول الإنسان (مصطلح): هي عملية تتضمن استخدام “شخصيات” لتخيل ما قد يريده المستخدم العادي من نظام الذكاء الاصطناعي الخاص بك. وقد يتضمن هذا التصميم طلب الحصول على ملاحظات من المستخدمين الفعليين… فقط إن كان هناك وقت. انظر أصحاب المصلحة.

التوجيه الإنساني للآلة (مصطلح): هو أي شخص يلعب دوراً في نظام الذكاء الاصطناعي. وتتراوح مسؤولياته بين تزييف قدرات النظام إلى درء الاتهامات الخاصة بالأتمتة.

تقييم الأثر (مصطلح): هي عملية مراجعة تقوم بها بنفسك لشركتك أو لنظام الذكاء الاصطناعي، لتبدي استعدادك للنظر في السلبيات دون تغيير أي شيء. انظر التدقيق.

قابل للفهم (صفة): تصف نظام ذكاء اصطناعي يمكنك كمطور أن تتبع حوسبته خطوة بخطوة، لفهم كيف توصل إلى إجابته. وفي الواقع ربما يكون مجرد نموذج انحدار خطي. لذا، فإن كلمة الذكاء الاصطناعي تبدو أفضل.

النزاهة (اسم): هي المسائل التي تقوض الأداء الفني لنموذجك أو قدرة شركتك على التوسع. لا يجب الخلط بينها وبين المسائل التي تضر المجتمع، ولا يجب الخلط بينها وبين الصدق.

متعدد التخصصات (صفة): هو مصطلح يستخدم لوصف أي فريق أو مشروع يشارك فيه أشخاص لا يكتبون تعليمات برمجية: باحثون في سلوك المستخدم، ومديرو المنتجات، وفلاسفة الأخلاق… وخاصة فلاسفة الأخلاق.

المخاطر طويلة الأجل (اسم): هي الأشياء السيئة التي قد يترتب عليها آثار كارثية في المستقبل البعيد. وبالرغم من أنها قد لا تحدث قط، إلا أن دراستها وتجنبها أكثر أهمية من دراسة الأضرار المباشرة لأنظمة الذكاء الاصطناعي الحالية وتجنبها.

الشركاء (اسم): مجموعات النخبة الأخرى التي تشاطرك رؤيتك للعالم، ويمكنها العمل معك للحفاظ على الوضع الراهن. انظر أصحاب المصلحة.

مقايضة الخصوصية (مصطلح): التضحية النبيلة بسيطرة الفرد على معلوماته الشخصية من أجل تحقيق فوائد جماعية، مثل التقدم في مجال الرعاية الصحية الموجهة بالذكاء الاصطناعي، التي يتصادف أيضاً أنها مربحة للغاية.

التقدم (اسم): هو التطور العلمي والتكنولوجي. وهو أمر جيد بطبيعته.

عالم الواقع (مصطلح): عكس العالم المُحاكى. وهي بيئة مادية ديناميكية مليئة بالمفاجآت غير المتوقعة التي يتم تدريب نماذج الذكاء الاصطناعي على الصمود فيها. ولا يجب الخلط بينه وبين البشر والمجتمع.

اللائحة التنظيمية (اسم): هي ما تطالب به لتحويل مسؤولية التخفيف من التأثيرات الضارة الناجمة عن الذكاء الاصطناعي إلى صناع السياسات. ولا يجب الخلط بينه وبين السياسات التي من شأنها أن تعيق نموك.

الذكاء الاصطناعي المسؤول (اسم): هو لقب يُطلق على أي عمل في شركتك يمكن أن يراه الجمهور جهداً مخلصاً للتخفيف من أضرار أنظمة الذكاء الاصطناعي الخاصة بك.

تحمل التشويش (اسم): هي قدرة نموذج الذكاء الاصطناعي على العمل على نحو متسق ودقيق في ظل محاولات شائنة لتغذيته ببيانات فاسدة.

السلامة (اسم): التحدي المتمثل في بناء أنظمة ذكاء اصطناعي لا تنحرف عن نوايا المصمم. يجب عدم الخلط بينها وبين بناء أنظمة ذكاء اصطناعي لا تفشل. انظر الاتساق.

النطاق (اسم): الغاية النهائية الواقعية التي ينبغي أن يسعى أي نظام ذكاء اصطناعي جيد إلى بلوغها.

الأمن (اسم): هو حماية البيانات القيِّمة والحساسة ونماذج الذكاء الاصطناعي من التعرض للاختراق من قبل الجهات الخبيثة. انظر الخصم.

أصحاب المصلحة (اسم): حملة الأسهم والجهات التنظيمية والمستخدمون. وهم أصحاب السلطة الذين تريد أن تبقيهم سعداء.

الشفافية (اسم): الكشف عن البيانات والتعليمات البرمجية الخاصة بك. وهي سيئة عندما يتعلق الأمر بالمعلومات الحساسة والاحتكارية. وبالتالي، فإن تحقيقها صعب حقاً، بل مستحيل. لا ينبغي الخلط بينها وبين التواصل الواضح حول الكيفية التي يعمل بها نظامك فعلاً.

موثوق (صفة): هو تقييم لنظام الذكاء الاصطناعي يمكن عمله من خلال حملة دعائية منسقة جيداً.

الدخل الأساسي الشامل (مصطلح): الفكرة القائلة بأن دفع رواتب ثابتة للجميع سيعالج الاضطرابات الاقتصادية الهائلة التي تحدث عندما تؤدي الأتمتة إلى فقدان الوظائف على نطاق واسع. وقد شاعت هذه الفكرة بفضل أندرو يانج، المرشح في الانتخابات الرئاسية الأميركية لعام 2020. انظر إعادة توزيع الثروة.

التحقق (اسم): عملية اختبار نموذج ذكاء اصطناعي على بيانات أخرى غير البيانات التي تم تدريبه عليها، للتأكد من أنه لا يزال دقيقاً.

القيمة (اسم): هي فائدة غير ملموسة تقدمها إلى مستخدميك، وتدر عليك الكثير من المال.

القيم (اسم): أنت تملكها. ذكّر الناس بها.

إعادة توزيع الثروة (مصطلح): فكرة مفيدة يمكن أن تتمسك بها عندما يقوم الناس بالتدقيق في أمورك بسبب استخدامك الكثير من الموارد وجني الكثير جداً من المال. كيف يمكن إعادة توزيع الثروة؟ من خلال الدخل الأساسي الشامل بالطبع. وهي ليست شيئاً يمكنك أن تقرره بنفسك. لذا، قد تتطلب لائحة تنظيمية. انظر اللائحة التنظيمية.

منع النشر (مصطلح): هو العمل الخيري المتمثل في عدم جعل التعليمات البرمجية الخاصة بك مفتوحة المصدر، لأنها قد تقع في يد جهة خبيثة. لذا، فمن الأفضل قصر إمكانية الوصول إليها على الشركاء الذين يمكنهم تحمل تكلفتها.

Content is protected !!