$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6954 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(18218)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "54.157.35.140"
  ["user_header"]=>
  object(stdClass)#7076 (41) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(199) "/%D8%AE%D9%88%D8%A7%D8%B1%D8%B2%D9%85%D9%8A%D8%A9-%D9%81%D9%8A%D8%B3%D8%A8%D9%88%D9%83-%D9%84%D9%84%D8%A5%D8%B9%D9%84%D8%A7%D9%86%D8%A7%D8%AA-%D8%AA%D9%85%D9%8A%D8%B2-%D8%A8%D9%8A%D9%86-%D8%A7%D9%84/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86be5460effa07cc-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "54.157.35.140"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.22" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(13) "54.157.35.140" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "47940" ["REDIRECT_URL"]=> string(71) "/خوارزمية-فيسبوك-للإعلانات-تميز-بين-ال/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711699261.8215) ["REQUEST_TIME"]=> int(1711699261) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7075 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7074 (2) { ["content_id"]=> int(18218) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

خوارزمية فيسبوك للإعلانات تميز بين المستخدمين على أساس الجنس والعرق

3 دقائق
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

يبدو أن تحيز الخوارزميات وصل إلى فيسبوك.

مؤخراً، تم توجيه دعوى قضائية إلى الشركة التكنولوجية العملاقة من قبل وزارة الإسكان والتطوير الحضري الأميركية، وذلك لأنها تسمح للمعلنين بتوجيه إعلاناتهم إلى المستخدمين، وبشكل متعمد، وفق العرق والجنس والدين، وجميعها فئات محمية وفق القانون الأميركي. وقد أعلنت الشركة أنها ستتوقف عن هذا.

ولكن توجد أدلة جديدة تشير إلى أن خوارزمية فيسبوك، والتي تقرر آلياً من سيرى الإعلان، تحمل نفس الطابع التمييزي على أي حال، بحيث تعرض الإعلانات على مستخدمي الموقع الذين يربو عددهم على المليارين على أساس معلوماتهم الديموغرافية.

أجرى فريق بحثي بقيادة محمد علي وبيوتر سابييزينسكي في جامعة نورث إيسترن اختبارات على مجموعة من الإعلانات شبه المتطابقة، والتي توجد بينها اختلافات بسيطة في الميزانية المتوافرة، أو العنوان الرئيسي، أو النص، أو الصورة. ووجدوا أن هذه التباينات الطفيفة أثرت بشكل كبير على نوعية الجمهور الذي وصل إليه الإعلان، خصوصاً في إعلانات التوظيف أو العقارات. وعلى سبيل المثال، فإن إعلانات العمل في التدريس في رياض الأطفال والسكرتاريا كانت تظهر للنساء بنسبة أكبر، على حين أن إعلانات العمل للفراشين وسائقي سيارات الأجرة كانت تظهر للأقليات بنسبة أكبر. وكانت إعلانات بيع المنازل تظهر بنسبة أكبر للمستخدمين من العرق الأبيض، على حين أن إعلانات تأجير المنازل كانت تظهر بنسبة أكبر للأقليات.

إعلانات التوظيف للفراشين وسائقي سيارات الأجرة ظهرت بنسبة أكبر لدى الأقليات:

نسبة المستخدمين من العرق الأبيض في حضور الإعلان

الشكل البياني: إم آي تي تكنولوجي ريفيو. المصدر: علي وسابييزينسكي وآخرون. تم بناء الشكل باستخدام داتا رابر.

قال متحدث باسم فيسبوك في تصريح للرد على هذه النتائج: “لقد أجرينا تعديلات جذرية على أدواتنا للإعلان الموجه، وندرك أن هذه ليست سوى الخطوة الأولى وحسب. لقد كنا ندرس نظام عرض الإعلانات، وقد تفاعلنا حول هذا الموضوع مع أهم الشخصيات في المجال التكنولوجي، والأكاديميين، وخبراء الحقوق المدنية، ونحن ندرس المزيد من التغييرات”.

من وجهة نظر معينة، فإن هذا ليس مصدر مفاجأة، حيث أن التحيز في أنظمة التوصية مسألة معروفة منذ عدة سنوات. وعلى سبيل المثال، نشرت لاتانيا سويني -وهي بروفسورة مختصة بالحكومة والتكنولوجيا في هارفارد- بحثاً في 2013 يبين التمييز العنصري الضمني لخوارزمية جوجل لعرض الإعلانات. وتعود هذه المسألة إلى أساسيات عمل هذه الخوارزميات، حيث أنها جميعاً مبنية على التعلم الآلي، والذي يعني بالبحث عن الأنماط في كميات هائلة من البيانات، ويعيد تطبيقها لاتخاذ القرارات. وهناك الكثير من الأساليب التي يمكن أن يتسرب بها التحيز عبر هذه العملية، ولكن كما يبدو، فإن أهم طريقتين في حالة فيسبوك تتعلقان بمشاكل في تأطير المشكلة وجمع البيانات.

يحدث التحيز خلال تأطير المشكلة عندما يصبح هدف نموذج التعلم الآلي غير متوافق مع الحاجة إلى تجنب التمييز. حيث أن أداة فيسبوك الإعلانية تسمح للمعلنين باختيار أحد ثلاثة أهداف للأَمثَلة: عدد مرات عرض الإعلان، عدد النقرات ومقدار التفاعل الذي يتلقاه، وكمية المبيعات التي يولدها. ولكن هذه الأهداف العملية الثلاثة لا تتعلق على الإطلاق بالمحافظة على المساواة في الإسكان مثلاً. ولهذا، إذا اكتشفت الخوارزمية أنها يمكن أن تزيد من التفاعل عن طريق عرض إعلانات شراء المنازل على عدد أكبر من المستخدمين من العرق الأبيض، فسوف ينتهي بها الأمر إلى أن تتحيز ضد المستخدمين من ذوي البشرة السمراء.

تظهر إعلانات شراء المنازل لنسبة أكبر من المستخدمين من العرق الأبيض:

نسبة المستخدمين من العرق الأبيض في حضور الإعلان

تم بناء الإعلان لتحديد الخط الأساسي عن طريق نص عام لا يتعلق بالإسكان ومرتبط بالموقع google.com.
الشكل البياني: إم آي تي تكنولوجي ريفيو. المصدر: علي وسابييزينسكي وآخرون. تم بناء الشكل باستخدام داتا رابر.

يحدث التمييز خلال جمع البيانات عندما تعكس بيانات التدريب التحيز الموجود واقعياً. حيث أن خوارزمية فيسبوك تبني أًمثَلة القرارات على البيانات السابقة للناس. فإذا تفاعلت الأقليات مع إعلانات تأجير المنازل بنسبة أكبر في الماضي، سيتعرف نموذج التعلم الآلي على هذا النموذج ويعيد تطبيقه بشكل دائم. ومرة أخرى، سيعمل بشكل أعمى على تمهيد الطريق أمام التمييز في التوظيف والإسكان، بدون أن يُطلب منه ذلك بشكل مباشر.

على الرغم من أن هذه ليست أول مرة تُدرس فيها هذه السلوكيات في التعلم الآلي، فإن هذه الدراسة الجديدة تقدم نظرة مباشرة على مدى تأثير هذه المشكلة على إمكانية حصول الناس على فرص الإسكان والتوظيف. يقول كريستيان ساندفيج، مدير مركز الأخلاقيات والمجتمع والحوسبة في جامعة ميشيغان، لمجلة ذا إيكونوميست: “إن هذه النتائج هائلة التأثير. لأن هذا البحث يخبرنا أن استخدام البيانات الكبيرة بهذه الطريقة لن يقدم لنا عالماً أفضل. وفي الواقع، فمن المحتمل أن هذه الأنظمة تجعل العالم أسوأ عن طريق مفاقمة المشاكل التي تؤدي إلى الظلم والتمييز”.

أما الأخبار الجيدة فهي أنه قد توجد وسائل لمعالجة هذه المشكلة، ولكن لن يكون الأمر بهذه السهولة. ويعمل الكثير من باحثي الذكاء الاصطناعي حالياً على حلول تقنية لتحيز التعلم الآلي لبناء نماذج أقل تحيزاً للإعلانات على الإنترنت. وعلى سبيل المثال، يشير بحث جديد من جامعة يال والمعهد الهندي للتكنولوجيا إلى أنه يمكننا أن نفرض قيوداً على الخوارزميات للتخفيف من السلوك المتحيز، ولكن على حساب دخل الإعلان. غير أنه يتوجب على صانعي السياسات أن يلعبوا دوراً أكبر إذا بدأت المنصات بالاعتماد على هذه الحلول، خصوصاً إذا كانت ستؤثر على عائداتها.

Content is protected !!