$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6942 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(33631)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "3.235.229.251"
  ["user_header"]=>
  object(stdClass)#7068 (42) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(169) "/%d9%85%d9%8a%d8%aa%d8%a7-%d8%aa%d8%a8%d9%86%d9%8a-%d8%b0%d9%83%d8%a7%d8%a1-%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a-%d9%84%d8%ba%d9%88%d9%8a-%d8%ac%d8%af%d9%8a%d8%af/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86c048996a62177f-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_REFERER"]=>
    string(37) "https://technologyreview.ae/?p=26720/"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "3.235.229.251"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.22" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(13) "3.235.229.251" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "38692" ["REDIRECT_URL"]=> string(61) "/ميتا-تبني-ذكاء-اصطناعي-لغوي-جديد/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711719750.888534) ["REQUEST_TIME"]=> int(1711719750) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7067 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7066 (2) { ["content_id"]=> int(33631) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

ميتا تبني ذكاءً اصطناعياً لغوياً جديداً وضخماً ومتاحاً للجميع مجاناً

5 دقائق
ميتا تبني ذكاءً اصطناعياً لغوياً جديداً وضخماً ومتاحاً للجميع مجاناً
تدعو الشركة الأم لفيسبوك الباحثين إلى دراسة نسختها من "جي بي تي-3" (GPT-3) والبحث عن الأخطاء فيها. ويل دوغلاس.
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

قام مختبر الذكاء الاصطناعي في شركة “ميتا” (Meta) ببناء نموذج لغوي جديد وضخم، ويحمل نفس القدرات المميزة والأخطاء المؤذية التي تحملها الشبكة العصبونية الرائدة “جي بي تي-3” من “أوبن أيه آي” (OpenAI). وفي إجراء غير مسبوق من الشركات التكنولوجية الضخمة، قررت الشركة تقديمه إلى الباحثين، مع تفاصيل حول كيفية بنائه وتدريبه.

“نحن نعتقد وبقوة أن قدرة الآخرين على تدقيق عملنا هو جزء مهم من البحث. ونحن ندعو إلى هذا التعاون”، كما تقول جويل بينو، وهي من المناصرين المخضرمين للشفافية في تطوير التكنولوجيا، وتشغل الآن منصب المدير الإداري لقسم الذكاء الاصطناعي في ميتا.

لأول مرة: نموذج لغوي ضخم مدرَّب ومتاح لأي باحث

يمثل هذا الإجراء من ميتا أول مرة يتم فيها إتاحة نموذج لغوي ضخم مدرب تدريباً كاملاً لأي باحث يرغب في دراسته. وقد لاقى هذا الخبر الترحيب من الكثيرين ممن يشعرون بالقلق من طريقة تطوير هذه التكنولوجيا الهائلة القدرات من قبل فرق صغيرة خلف أبواب مغلقة.

تقول إميلي بيندر، وهي أخصائية في الحوسبة اللغوية بجامعة واشنطن، ومن المنتقدين الدائمين لطريقة تطوير النماذج اللغوية واستخدامها: “أنا أرحب بالشفافية في هذا الإجراء”.  

اقرأ أيضاً: ريترو: نموذج لغوي جديد من ديب مايند يستطيع التفوق على نماذج تفوقه حجماً

ويقول توماس وولف، وهو العالم الرئيسي في الشركة الناشئة “هاغينغ فيس” (Hugging Face)، والتي تقف خلف مشروع “بيغ ساينس” (Big Science) الذي يتعاون فيه أكثر من 1,000 متطوع حول العالم على نموذج لغوي مفتوح المصدر: “إنه إجراء رائع”. ويضيف: “كلما زاد عدد النماذج المفتوحة، كان هذا أفضل”.

أصبحت النماذج اللغوية الكبيرة –وهي برامج عالية القدرة وقادرة على توليد مقاطع نصية كاملة وتقليد الحوار البشري- أحد أهم المجالات ذائعة الصيت في الذكاء الاصطناعي خلال السنوات القليلة الماضية. ولكنها تتضمن أخطاء عميقة، مثل التكرار الأعمى للمعلومات المزيفة، والتحيز، واللغة المسيئة.

من الناحية النظرية، يجدر بمشاركة المزيد من الأشخاص في العمل على المشكلة أن تكون خطوة مفيدة. ولكن تدريب النماذج اللغوية يتطلب كميات هائلة من البيانات مع قدرات حوسبة ضخمة، ولهذا فقد بقيت هذه المشاريع مقتصرة على الشركات التكنولوجية الثرية وحسب. أما الأوساط العلمية والبحثية، بما فيها أخصائيو الأخلاقيات وعلماء الاجتماع المهتمون بمشكلات إساءة استخدام هذه التكنولوجيات، فقد بقوا في مقاعد المتفرجين.  

ويقول قسم الذكاء الاصطناعي في ميتا إنه راغب في تغيير هذا الوضع. تقول بينو: “لقد كان الكثير منا باحثين في الجامعة، ونحن ندرك الهوة الموجودة بين الجامعات والصناعة من حيث القدرة على بناء هذه النماذج. وبالتالي، فإن إتاحة هذه النماذج للباحثين ليس بالأمر المستغرب”. وتأمل أن الآخرين سينكبون على العمل لتفكيك النموذج أو البناء على أساسه. وتقول إن الإنجازات الضخمة تأتي بسرعة أكبر عندما يشارك المزيد من الناس في العمل.

اقرأ أيضاً: هل يمثل الذكاء الاصطناعي خطراً وجودياً على البشر؟

“أو بي تي” (OPT) نموذج ميتا اللغوي

قررت ميتا أن تجعل نموذجها، والذي يحمل اسم المحول المفتوح المدرَّب مسبقاً (اختصاراً: “أو بي تي” (OPT))، متاحاً للاستخدام غير التجاري. كما أنها قررت نشر شيفرته البرمجية (code) والسجل الخاص به، والذي يوثق عملية التدريب. يحتوي السجل على تحديثات يومية من أفراد الفريق حول بيانات التدريب، من حيث كيفية إضافتها إلى النموذج وتوقيت إضافتها، وما هي النجاحات والإخفاقات أثناء العملية. وفي أكثر من 100 صفحة من الملاحظات، قام الباحثون بتوثيق كافة الأخطاء البرمجية وحالات التعطل في عمل البرنامج وحالات إعادة الإقلاع التي مر فيها خلال عملية التدريب التي دامت ثلاثة أشهر دون توقف من أكتوبر/ تشرين الأول في 2021 إلى يناير/ كانون الثاني من العام 2022.

وبوجود 175 مليار معامل (وهي القيم الموجودة في الشبكة العصبونية والتي يتم تعديلها خلال التدريب)، فإن “أو بي تي” يماثل “جي بي تي-3” حجماً. وهذا تصميم مقصود، كما تقول بينو. فقد قام الفريق ببناء “أو بي تي” ليضاهي “جي بي تي-3” في دقته في المهام اللغوية وإساءته أيضاً. لقد جعلت أوبن أيه آي نموذج “جي بي تي-3” متاحاً كخدمة مدفوعة، ولكنها لم تشارك النموذج نفسه أو شيفرته البرمجية. وتقول بينو إن الفكرة تتلخص في تزويد الباحثين بنموذج لغوي مماثل لدراسته.

وقد رفضت أوبن أيه آي دعوتنا للتعليق على إعلان ميتا. 

أما شركة “جوجل” (Google)، والتي تدرس أيضاً استخدام النماذج اللغوية الكبيرة في منتجاتها المتعلقة بخدمة البحث، فقد نالت نصيبها من الانتقادات بسبب قلة الشفافية. وقد أثارت الشركة انتقادات حادة في 2020 عندما أرغمت بعض الأفراد الأساسيين في فريقها الخاص بأخلاقيات الذكاء الاصطناعي على الخروج من الشركة بعد أن قاموا بإجراء دراسة تبين المشاكل الكامنة في هذه التكنولوجيا.  

صدام ثقافات

إذاً، لماذا اتخذت ميتا هذا الإجراء؟ في النهاية، لم تفصح ميتا سوى عن القليل حول طريقة عمل خوارزميات فيسبوك وإنستغرام، كما أنها تتمتع بسجل حافل في طمس النتائج السلبية التي تتوصل إليها فرقها البحثية الخاصة بها. ومن المرجح أن هذه المقاربة المختلفة لقسم الذكاء الاصطناعي في ميتا تُعزى، وبدرجة كبيرة، إلى بينو نفسها، والتي كانت تدفع نحو المزيد من الشفافية في أبحاث الذكاء الاصطناعي منذ عدة سنوات.

فقد ساعدت بينو على تغيير طريقة نشر الأبحاث في عدة مؤتمرات مهمة، وقدمت قائمة تدقيق بالأشياء التي يجب أن يقدمها الباحثون مع نتائجهم، بما فيها الشيفرة البرمجية والتفاصيل حول كيفية إجراء التجارب. ومنذ انضمامها إلى ميتا (التي كانت تسمى في ذلك الوقت “فيسبوك” (Facebook))، كانت من أبرز دعاة هذه الثقافة في مختبرها للذكاء الاصطناعي. 

وتقول: “هذا الالتزام بالانفتاح في العلم هو سبب وجودي هنا”. “ولست مستعدة لأكون حاضرة هنا بأي صيغة أخرى”.

وفي المحصلة، ترغب بينو بتغيير طريقتنا في تقييم الذكاء الاصطناعي. وتقول: “يجب ألا نستخدم صفة الأكثر تطوراً في الوقت الحالي بناء على معايير الأداء وحسب، بل يجب أن يتجسد التطور في درجة المسؤولية أيضاً”.

وعلى الرغم من كل هذا، فإن تقديم نموذج لغوي كبير ما يزال على أي حال إجراء جريئاً من ميتا. تقول بينو: “لا أستطيع أن أضمن عدم وجود مخاطرة في إنتاج هذا النموذج للغة لا تدعو إلى الفخر”. “وهذا أمر مؤكد الحدوث”.

اقرأ أيضاً: خوارزمية ذكاء اصطناعي تتنبأ باحتمال التعرض لسكتة قلبية

موازنة المخاطر

تعمل مارغريت ميتشل في هاغينغ فيس، وهي أحد باحثي أخلاقيات الذكاء الاصطناعي الذين أرغمتهم جوجل على ترك عملهم في 2020، وتنظر إلى نشر “أو بي تي” كإجراء إيجابي. ولكنها تعتقد أن الشفافية لها حدودها. فهل تم اختبار النموذج اللغوي بما يكفي من الدقة؟ وهل تفوق الفوائد المحتملة المخاطر الممكنة، مثل توليد المعلومات الزائفة أو اللغة العنصرية أو المسيئة للنساء؟ 

تقول ميتشل: “إن نشر نموذج لغوي كبير بشكل مفتوح أمام العالم بأسره حيث سيقوم جمهور عريض باستخدامه، أو سيتعرض لتأثيرات نتائجه، يجب أن يتم بشكل مسؤول”. وتلحظ ميتشل أن هذا النموذج سيتمكن من توليد المحتوى المسيء، وليس فقط عن طريقه لوحده، بل أيضاً عن طريق التطبيقات اللاحقة التي سيبنيها الباحثون على أساسه.

قام قسم الذكاء الاصطناعي في ميتا بتدقيق “أو بي تي” لإزالة بعض السلوكيات المؤذية، ولكن الهدف الأساسي من هذه العملية هو نشر نموذج يستطيع الباحثون التعلم منه، بما في ذلك التعلم من أخطائه ومشكلاته، كما تقول بينو.

وتقول: “كانت هناك حوارات كثيرة حول كيفية فعل هذا بطريقة مسؤولة، مدركين أنه لا بد من وجود درجة ما من المخاطرة من حيث السمعة ومن حيث الأضرار”. كما استبعدت الفكرة التي تقول إنه يجب ألا نطرح نموذجاً لأنه خطير للغاية، وهو السبب الذي قدمته أوبن أيه آي لعدم طرح النموذج السابق لنموذج “جي بي تي-3″، “جي بي تي-2”. وتقول: “أنا مدركة لنقاط ضعف هذه النماذج، ولكن هذه ليست عقلية الباحث”.

وتشعر بيندر، والتي شاركت في تأليف الدراسة التي يتمحور حولها نزاع جوجل مع ميتشل، بالقلق أيضاً حول كيفية التعامل مع المشكلات المحتملة. وتقول: “من أهم الإجراءات الأساسية للتخفيف من المخاطر في أي نوع من تكنولوجيات التعلم الآلي ربط التقييمات والدراسات بحالات استخدام محددة. فما هي المهمة التي سيُستخدم النظام لتنفيذها؟ ومن سيستخدمه؟ وكيف سيتم تقديم نتائج النظام إلى المستخدمين؟”

اقرأ أيضاً: التعلم الآلي التشاركي قد يتحول إلى بدعة خطيرة لإضفاء الشرعية على الظلم

يشكك بعض الباحثين بأسباب بناء النماذج اللغوية في المقام الأول، نظراً للمشكلات التي يمكن أن تنتج عنها. وبالنسبة لبينو، فإن هذه المخاوف يجب أن تُعالج بزيادة الشفافية، لا بتقليلها. وتقول: “أعتقد أن الشفافية عالية المستوى هي الطريقة الوحيدة لبناء الثقة. لدينا آراء مختلفة في جميع أنحاء العالم حول شكل الخطاب الملائم، ويمثل الذكاء الاصطناعي جزءاً من هذا الحوار. ولا تتوقع أن تقول النماذج اللغوية أشياء يتفق الجميع معها. ولكن، كيف نتعامل مع هذا الأمر؟ نحن في حاجة إلى الكثير من الأصوات في هذا الحوار”.

Content is protected !!