$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6938 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(42266)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(11) "3.209.81.51"
  ["user_header"]=>
  object(stdClass)#7066 (41) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(189) "/%D8%AA%D8%B4%D8%A7%D8%AA-%D8%AC%D9%8A-%D8%A8%D9%8A-%D8%AA%D9%8A-%D9%8A%D9%83%D8%B4%D9%81-%D8%A3%D8%AE%D8%B7%D8%A7%D8%A1-%D8%A7%D9%84%D8%B9%D9%85%D9%84-%D8%A7%D9%84%D8%B9%D9%84%D9%85%D9%8A/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86c0fbcf2df33967-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(11) "3.209.81.51"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.22" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(11) "3.209.81.51" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "56434" ["REDIRECT_URL"]=> string(69) "/تشات-جي-بي-تي-يكشف-أخطاء-العمل-العلمي/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711727091.306319) ["REQUEST_TIME"]=> int(1711727091) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7065 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7064 (2) { ["content_id"]=> int(42266) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

تشات جي بي تي يسقط ورقة التوت عن المنشورات المحكمة

7 دقائق
تشات جي بي تي يسقط ورقة التوت عن المنشورات المحكمة
حقوق الصورة: عيتي إيميدجيز بلس.
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

كانت اللغة التي تحدثت بها المجلة العلمية نيتشر (Nature) لطيفة للغاية، مقارنة بدرجة الذعر التي اتسمت بها. ووفقاً لمحرري المجلة، فإن تشات جي بي تي (ChatGPT)، وغيره من أدوات الذكاء الاصطناعي المماثلة، يهدد “الشفافية والموثوقية التي تعتمد عليهما عملية توليد المعرفة، ففي نهاية المطاف، يجب أن يتسم البحث بالشفافية من حيث الطرق، ويجب أن يتسم المؤلفون بالنزاهة والالتزام بالحقيقة”.

أما محرر مجلة ساينس (Science)، المنافسة الرئيسية لنيتشر، فقد انفجر غيظاً هو الآخر، وبأقصى ما يستطيعه من لطف، حيث كتب قائلاً: “لا يمكن لبرنامج ذكاء اصطناعي أن يكون مؤلفاً لبحث علمي. إن انتهاك هذه السياسات يمثل إساءة سلوكية علمية لا تختلف عن تغيير الصور، أو السرقة من أعمال موجودة مسبقاً”.

قد تبدو هذه التحذيرات لطيفة الطابع، إلا أنه بالنسبة للأكاديميين الذين يقدمون الأوراق البحثية كي تخضع للتدقيق العلمي في مجلات مثل ساينس ونيتشر، فإن فكرة التعرض للاتهام بإساءة السلوك في مجال الأبحاث –وهو اتهام قد يقضي على حياتهم المهنية- بسبب استخدام الذكاء الاصطناعي، لا تقل تنبيهاً وإثارة للحذر عن إنذار بغارة جوية. إنها أشبه بلافتة مكتوبة بأضواء النيون الحمراء، وبأحرف كبيرة: “إياكم والقيام بهذا الأمر”.

ملخصات علمية قد تخدع علماء آخرين

ولكن ردة الفعل العنيفة هذه ليست مجرد نتيجة لمشكلة افتراضية. فقبل هذه المنشورات بفترة وجيزة، كتب صحافيو نيتشر عن الملخصات العلمية التي كتبها تشات جي بي تي، والتي كانت علمية الشكل والصياغة بما يكفي لخداع علماء آخرين، أما الأسوأ من هذا، فقد كانت المقالات التي شارك تشات جي بي تي في كتابتها تشق طريقها نحو المنشورات المدققة علمياً. وكما بدأ أساتذة الجامعات يكتشفون انتشار مقالات كتبها تشات جي بي تي بين الطلبة، وكما بدأ الصحافيون يكتشفون مقالات إخبارية كتبتها أنظمة الذكاء الاصطناعي، فقد أدركت المجلات العلمية على حين غرة أن الخطر النظري للمقالات “البحثية” التي ألّفتها الآلات أصبح واقعياً للغاية.

ويبدو أننا سنشهد بعد فترة قصيرة، لا تتجاوز بضعة أسابيع، سيلاً عارماً من الأوراق البحثية المزيفة التي سيتم تقديمها إلى المجلات العلمية المحكّمة، ما يعني إغراق المحررين وتعطيل العملية العلمية بطوفان من الهراء.

لا شك في أن مخاوف هذه المجلات مبررة تماماً، فالأنظمة مثل تشات جي بي تي، والأنظمة المماثلة التي ستظهر لاحقاً، تمثل خطراً وجودياً على عملية تدقيق مسودات الأوراق البحثية، وهي آلية أساسية في تنظيم العمل العلمي المعاصر. ولكن طبيعة هذه المشكلة لا تتمحور بشكل أساسي حول التطور الحديث والسريع في قدرة الذكاء الاصطناعي على محاكاة التأليف البشري، بقدر ما تتمحور حول الداء الخبيث البطيء الذي ينتشر في صميم طريقتنا المعتمدة في العمل العلمي، وهي المشكلة نفسها التي تجعل الذكاء الاصطناعي خطيراً للغاية بالنسبة للتعليم الجامعي والصحافة.

اقرأ أيضاً: هل يمكن استخدام تشات جي بي تي لكتابة مقالات ويكيبيديا؟

أنظمة هددت المنشورات العلمية سبقت تشات جي بي تي

فتشات جي بي تي ليس أول نظام آلي يكتب الأبحاث والأوراق البحثية بطريقة قادرة على تضليل محرري المجلات العلمية.

فعلى مدى عقدين من الزمن تقريباً، انتشرت في مجلات علوم الحاسوب العديد من الأوراق البحثية المزيفة التي قام بتأليفها برنامج حاسوبي من تصميم طلاب الدراسات العليا في معهد ماساتشوستس للعلوم والتكنولوجيا. يحمل هذا البرنامج اسم سايجين (SCIgen)، ولاستخدامه، ما عليك إلا تلقيمه باسم أو بعدة أسماء، وسيعطيك آلياً ورقة بحثية في مجال علوم الحاسوب بصياغة جيدة بما يكفي لإرسالها إلى إحدى المجلات أو إلى أحد المؤتمرات المحكّمة علمياً. ولمزيد من الدقة، فإن عبارة “صياغة جيدة بما يكفي” تعني أن المحكّمين العلميين لم يتكلفوا عناء قراءة الورقة البحثية فعلياً.

لقد كانت المقالات التي ألّفها سايجين عبارة عن هراء محض، وبشكل واضح يكفي لكشف الخدعة قبل الانتهاء من قراءة المقطع الأول من قبل أي شخص يمتلك أدنى خبرة في مجال علوم الحاسوب. ولكن الأوراق البحثية التي ألّفها سايجين لم تتمكن من تجاوز عملية التدقيق العلمي وصولاً إلى صفحات المجلات العلمية وحسب، بل وصلت غزارتها إلى درجة دفعت بالمجلات العلمية في منتصف العقد الثاني من القرن الجديد إلى استخدام نظام كشف آلي للحد من هذه المشكلة. أما حالياً، فقد أصبح العثور على أوراق سايجين التي لم يتم سحبها أمراً أكثر صعوبة، ولكنها ما تزال تظهر في المجلات الأقل مستوى بين الحين والآخر.

اقرأ أيضاً: هل يمكن أن يساعد الذكاء الاصطناعي في كتابة المقالات الأكاديمية؟

في ذلك الوقت، لم يكن تعقيد سايجين محور الاهتمام الحقيقي، فقد كان مجرد برنامج لا تتجاوز قدراته صياغة شيء يشبه مقالة بحثية سيئة للغاية، ولا تكفي لخداع أي شخص يمتلك أدنى قدر من المعرفة في مجال علوم الحاسوب. وكما كتبتُ في مجلة سليت (Slate) منذ ثماني سنوات: “إن احتمال نجاح ورقة بحثية في خداع عالم حاسوب حقيقي يقارب احتمال أن يخطئ مختص في الأدب الكلاسيكي بنسب نص هيروغليفي لشكسبير”.

وفي الواقع، من المفترض ألا تكون ورقة بحثية من سايجين قادرة حتى على تجاوز أكثر عمليات “التدقيق العلمي” تساهلاً من قبل “مدقق علمي” يعتبر الأقل خبرة في هذا المجال. ولكن، وعلى الرغم من هذا، فقد أصيب محررو المجلات بالهلع إلى درجة استخدام أنظمة تدقيق مؤتمتة ضد هجمات أوراق سايجين.

خلل في عملية التدقيق العلمي نفسها

ولكن هذا يفضح الكثير من نقاط الضعف في عملية التدقيق العلمي نفسها أكثر مما يعبّر عن مدى التطور في قدرة الحواسيب على محاكاتنا. فمن الناحية النظرية، تقوم فكرة التدقيق العلمي على ضرورة تدقيق أي ادعاء علمي من قبل اثنين أو ثلاثة من العلماء من مستوى مماثل، حيث يعملون على قراءة البحث بدقة لكشف ما يحتويه من أخطاء، ومغالطات منطقية، وغيرها من المشاكل. ووفقاً للأقاويل الشائعة في الأوساط العلمية، فإن المدقق الثاني هو الأصعب إرضاء على الدوام.

يعتبر التدقيق العلمي وسيلة لضبط الجودة، وضمان تحقيق المحتوى المنشور لحد أدنى معين من المعايير، ولا يعني هذا أن البحث المنشور محق بالضرورة، ولكنه لا ينطوي على أخطاء واضحة، كما أنه يحتوي على قيمة ما تضمن تحقيق شيء من التقدم المعرفي في مجال البحث.

ولهذا، فإن المنشورات التي تخضع للمراجعة العلمية تتمتع على الدوام بقيمة علمية أعلى من المقالات غير المدققة “في مرحلة ما قبل النشر”: فعندما تضع المجلة المدققة علمياً موافقتها على مقال علمي، فإن هذا يكافئ تصريحاً من المجلة بأن هذا المقال يحقق الحد الأدنى من المعايير المطلوبة. وبالنسبة لمعظم المجلات المهمة في العالم العلمي، مثل ساينس ونيتشر ومجلة نيو إنغلاند (New England) الطبية وغيرها، من المفترض أن يكون هذا الحد الأدنى من المعايير مرتفعاً للغاية.

اقرأ أيضاً: كيف يمكنك التأكد أنك تحادث بشراً وليس برنامج بوت؟

ولكن تدقيق الوثائق العلمية يستغرق الكثير من الجهد، كما أن المجلات، بشكل عام، لا تدفع أجوراً للعلماء الذين يبذلون كل هذا الجهد لصالحها. ولهذا، ليس من المفاجئ أن نكتشف أن هؤلاء العلماء –أو طلاب الدراسات العليا الذين يستعينون بهم لتأدية هذا العمل نيابة عنهم– لا يقدمون أفضل أداء ممكن. ومع زيادة عدد المنشورات والأوراق البحثية المقدمة، فإن مجموعة العلماء الذين يرغبون في القيام بهذا العمل ستصبح أقل قدرة على مجاراة هذه الزيادة.

إنها مشكلة تتعلق بإمكانية رفع إنتاجية العمل بشكل أساسي: فعملية التدقيق العلمي هي مصدر قيمة المجلات المدققة علمياً، ولكن، وبما أن هذه العملية تتطلب الكثير من الجهد، فإنها تمثل عامل تأخير يصعب تخفيفه بنفس سرعة تضخم المجلات نفسها. ولهذا، فإن النتيجة ستكون تراجعاً شبه مؤكد في جودة التدقيق العلمي.

ولكن معظم المجلات العلمية مستعدة تماماً لتحمل هذه النتيجة، بما أن جودة التدقيق العلمي تكاد تكون غير ظاهرة للعيان. وبالنسبة لمعظم الحالات، فإن الدلالة السلبية الوحيدة هي تجاوز المقالات السيئة بصورة فاضحة لإجراءات التدقيق، وهي الإجراءات التي تمثل جوهر المجلة في المقام الأول.

مزيد من الهراء العلمي

وما يقوم به تشات جي بي تي، على غرار سايجين من قبله، هو توليد هراء علمي يجب (على الأقل في هذه المرحلة) ألا يُسمح له بتجاوز التدقيق العلمي الجاد. لا شك في أن تشات جي بي تي وأمثاله من أنظمة الذكاء الاصطناعي أكثر تعقيداً من سايجين بعدة مراحل، ولكن، وإذا تجاوزنا التفاصيل، فإن معظم ما تنتجه هذه البرامج خاطئ، بل محض هراء. فهي تبتدع الحقائق، وتولد مصادر مزيفة لدعم أكاذيبها. ومن المفترض بالتدقيق العلمي السليم، والذي يتحقق من المراجع ويدقق الحقائق، أن يلتقط هذه المشكلات بسهولة.

لنأخذ، على سبيل المثال، أحد المقالات المدققة علمياً، والتي تحدثت عنها نيتشر، بعنوان: ” Can GPT-3 write an academic paper on itself, with minimal human input?” (هل يستطيع جي بي تي 3 كتابة مقال أكاديمي بنفسه، مع الحد الأدنى من التدخل البشري؟) تم نشر هذه المقال على خادم للمقالات غير المدققة في يوليو/ تموز الماضي، وتقول التقارير إن إحدى المجلات رفضته، ولكن مجلة أخرى قبلت نشره بعد إجراء بعض التعديلات. وعلى الرغم من أننا لا نعرف بعد طبيعة هذه التعديلات، فإن المقال الذي نشره المؤلفون يعج بالأخطاء التي يمكن لأي مدقق علمي كفء أن يكشفها. أما المراجع، فهي عبارة عن فوضى عارمة: حيث يبدو أن اثنين من المراجع يشيران إلى المقال نفسه على الإنترنت بطريقتين مختلفتين، أما المقال نفسه فيبدو أنه غير موجود. 

وحتى لو كان المقال موجوداً، فمن المستحيل أن يحتوي على المعلومات المزعومة حول بوت جي بي تي 3، حيث يعود تاريخه إلى ما قبل إطلاق البوت بأربع سنوات. وبالمثل، يبدو مرجع آخر مبتدعاً بالكامل. وعلى الرغم من أن اثنين من المراجع موجودان بالفعل، فإن عملية تدقيق سريعة تبين أن سياقي هذين المرجعين غير صحيحين على الإطلاق. فهما لا يتضمنان المعلومات التي يدعي المقال المدقق علمياً وجودها. (وقد كان الباحثان اللذان قدما المقال مسرورين بملاحظة الأخطاء الفادحة في المراجع).

أما الأهم من ذلك: فهو أن النص الذي ولده الذكاء الاصطناعي كان حيادياً وخالياً من المعلومات، ولم يقدم أي إضافة جديدة على الإطلاق. إن طبيعة البوت ذاتها تمنعه من تحقيق أي تقدم معرفي في أي مجال، لأنه بشكل أساسي عبارة عن محرك لإعادة التدوير، ولا يقوم سوى باجترار منهجي للمعلومات التي تم تدريبه عليها. وهذه ليست طريقة لتحقيق التقدم المعرفي. وبالتالي، ووفقاً للمفاهيم السابقة، فإن هذه المقالات لا تنتمي إلى المجلات المدققة علمياً.

تشعر المجلات المدققة علمياً بالقلق بسبب سهولة إنتاج مقالات جيدة ظاهرياً ولكنها خالية من المضمون، ما يكشف الضعف الحقيقي لمنظومة التدقيق العلمي في تمييز العلم الفعلي من الهراء. وبشكل جوهري، فهذا هو سبب قلق أساتذة الجامعات والصحافيين أيضاً.

موثوقية عملية التدقيق العلمي مهددة 

إن التدقيق العلمي يعتبر بمثابة نظام لضبط جودة المعلومات بشكل أساسي. فعندما يضع أساتذة الجامعات العلامات على المقالات والاختبارات، فهم يؤدون وظيفة مماثلة. فهم يحاولون تمييز الجيد من السيئ، حتى يضمنوا أن الجامعة لن تمنح مصادقتها إلا للطلاب الذين يحققون الحد الأدنى من المعايير المطلوبة. أما الصحافيون في المؤسسات الإعلامية الجدية فهم يهتمون أيضاً بتمييز المعلومات الصحيحة من الخاطئة، فهم يقومون –نظرياً على الأقل- بجمع الحقائق والآراء من عدة مصادر، واستخلاص قصة إخبارية منها، وبعد عدة جولات من تدقيق الحقائق والتعديلات التحريرية، يتم تقديمها إلى العامة.

وعندما لا يستطيع الأساتذة التمييز بين الطلاب وأنظمة الذكاء الاصطناعي، وعندما يضع محررو وسائل الإعلام تعديلات طفيفة على مادة ألّفها الذكاء الاصطناعي بدلاً من نبذها بالكامل، سيصبح من الواضح أن عملية الاصطفاء والتمييز باتت باطلة إلى درجة كبيرة.

أما الخيار الوحيد فهو مواجهة المشكلة بصورة مباشرة، أي تحسين المعايير بفعالية على الرغم من الضغوط المتواصلة للعمل بمستوى أعلى وبسرعة أكبر وبتكلفة أقل، أو السماح بانهيار عملية الاصطفاء. ومن حسن الحظ أن الذكاء الاصطناعي نفسه يؤمّن لنا الأدوات اللازمة للمساعدة في المهمة السابقة، فبالنسبة لكل ورقة بحثية أو مقالة من تأليف الذكاء الاصطناعي، يستطيع الذكاء الاصطناعي مساعدة العلماء والأساتذة الجامعيين المنهكين على توليد تدقيق علمي لها أو تقييم بالدرجات لها.

اقرأ أيضاً: هل يمكن أن يخاطر الذكاء الاصطناعي بالتماهي الشديد مع البشر؟

وباختصار، إذا حلت كارثة الذكاء الاصطناعي علينا، فلن تكون شبيهة بفيلم “المبيد” (Terminator)، حيث يقوم الذكاء الاصطناعي بتدمير البشرية، بل ستكون أقرب إلى فيلم “حُكم البلهاء” (Idiocracy)، حيث تصبح البشرية أكثر غباء وحماقة.

Content is protected !!