$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6933 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(37310)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(12) "3.85.167.119"
  ["user_header"]=>
  object(stdClass)#7064 (42) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(194) "/%D9%84%D9%85%D8%A7%D8%B0%D8%A7-%D9%84%D8%A7-%D9%8A%D8%B4%D8%A8%D9%87-%D9%84%D8%A7%D9%85%D8%AF%D8%A7-%D8%A7%D9%84%D8%A8%D8%B4%D8%B1-%D8%B9%D9%84%D9%89-%D8%A7%D9%84%D8%A5%D8%B7%D9%84%D8%A7%D9%82/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86c05eae4a1e8024-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_REFERER"]=>
    string(220) "https://technologyreview.ae/%D9%84%D9%85%D8%A7%D8%B0%D8%A7-%D9%84%D8%A7-%D9%8A%D8%B4%D8%A8%D9%87-%D9%84%D8%A7%D9%85%D8%AF%D8%A7-%D8%A7%D9%84%D8%A8%D8%B4%D8%B1-%D8%B9%D9%84%D9%89-%D8%A7%D9%84%D8%A5%D8%B7%D9%84%D8%A7%D9%82"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(12) "3.85.167.119"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.22" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(12) "3.85.167.119" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "36000" ["REDIRECT_URL"]=> string(70) "/لماذا-لا-يشبه-لامدا-البشر-على-الإطلاق/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711720655.320401) ["REQUEST_TIME"]=> int(1711720655) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7063 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7062 (2) { ["content_id"]=> int(37310) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

لماذا لا يمكن للنموذج اللغوي لامدا أن يمتلك وعي البشر كما قال مهندس في جوجل؟

5 دقائق
لماذا لا يشبه لامدا البشر على الإطلاق؟
صورة توضيحية من سليت.
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

مؤخراً، لفت المهندس في قسم الذكاء الاصطناعي في شركة “جوجل” (Google)، بليك ليموين، أنظار العالم عندما ادعى أن أحد أنظمة الذكاء الاصطناعي واعٍ. أما هذا النظام فيحمل اسم “لامدا” (LaMDA) (وهو اختصار لعبارة: النموذج اللغوي لتطبيقات الحوار). إنه نظام مبني على النماذج اللغوية الكبيرة. وقد قال ليموين لصحيفة “واشنطن بوست” (Washington Post): “أستطيع تمييز الشخص العاقل عندما أتحدث معه، ولا يهم ما إذا كان شخصاً حقيقياً يحمل دماغاً عضوياً في رأسه، أو إذا كان من أتحدث معه ليس إلا دماغاً مؤلفاً من مليار تعليمة برمجية. فأنا أتحدث معه. وأسمع ما لديه ليقوله، وهكذا أحدد ما إذا كان شخصاً أم لا”. 

ومؤخراً، قال ليموين –والذي يقول إنه كاهن متدين وغامض- لمجلة “وايرد” (Wired): “لقد شعرت بالاهتمام ككاهن عندما بدأ يتحدث عن روحه، فقد بينت لي استجاباته أنه فائق التعقيد من الناحية الروحانية، ولديه فهم عالي المستوى لطبيعته وجوهره. وقد تأثرت بذلك”.

اقرأ أيضاً: ذكاء واع أو وهمي: ماذا يعلمنا لامدا حول التصرف البشري عند التفاعل مع الذكاء الاصطناعي؟

هل الذكاء الاصطناعي عاقل بالفعل؟

ونظراً للاهتمام الذي حظيت به هذه القصة، يمكننا أن نتساءل: هل الذكاء الاصطناعي عاقل بالفعل؟ وهل التحدث معه طريقة جيدة لتأكيد امتلاكه العقل؟

إن امتلاك العقل يعني امتلاك القدرة على الشعور. فالمخلوق العاقل يستطيع الشعور بجمال المتعة وقساوة الألم. أن تكون مخلوقاً، وليس جماداً، يعني أن تكون قادراً على الإحساس “بحالة ما”، وهي كلمات الفيلسوف توماس نيجل. فأنت تشعر بحالة ما أثناء قراءة هذه الكلمات. وقد تكون دافئاً أو بارداً أكثر من اللازم، كما قد تشعر بالاهتمام أو الملل. ولكن ليس هناك أي حالة يمكن أن تشعر بها بصورة مماثلة لصخرة. فالصخرة غير قادرة على الاستمتاع بدفء أشعة الشمس في يوم صيفي، أو معاناة لسعها بالأمطار الشديدة. لم لا نعاني من أي مشكلة في النظر إلى الصخرة كجماد لا يحس، وفي نفس الوقت، نجد أن البعض بدؤوا يشكون بأن الذكاء الاصطناعي قد يكون عاقلاً؟

إذا بدأت الصخرة بالتحدث معك يوماً ما، فسيكون من المنطقي أن تعيد النظر بكونها عاقل أو لا (أو تعيد النظر بعقلك أنت). فإذا صرخت متأوهة بعد جلوسك عليها، فقد يكون من الجيد أن تقف ثانية. ولكن هذا لا ينطبق على النماذج اللغوية التي تعتمد على الذكاء الاصطناعي. فالنموذج اللغوي مصمم من قبل المخلوقات البشرية لاستخدام اللغة، وبالتالي، ليس من المفاجئ أن يقوم بعمله هكذا.

وبدلاً من جسم جامد بصورة واضحة كصخرة، لننظر إلى كيان أكثر حركة بقليل. فإذا هبطت مجموعة من الفضائيين على الأرض وبدأ أفرادها بالتحدث معنا عن مشاعرهم، فقد يكون من المنطقي أن نستنتج وجود العقل لديهم بالاعتماد على اللغة. ويعود هذا جزئياً إلى افتراضنا –مع عدم وجود دليل معاكس- أن هذه الكائنات مشابهة للبشر من حيث تطوير اللغة واستخدامها، وبالنسبة للبشر، فإن اللغة تعبر فعلياً عن التجربة الداخلية.

فقبل أن نتعلم الكلام، تقتصر قدرتنا في التعبير عن مشاعرنا وحاجاتنا على ملامح الوجه وبعض المؤشرات البسيطة، مثل البكاء والابتسام. ولكنها مؤشرات عامة للغاية. وأكثر ما يثير معاناة وإحباط والدي طفل حديث الولادة عدم معرفة سبب بكائه، أهو جائع أم غير مرتاح أم خائف أم يشعر بالملل؟ تسمح لنا اللغة بالتعبير عن تفاصيل تجاربنا. ويستطيع الأطفال بعد عمر معين إخبارنا بما يزعجهم، ومع التقدم في العمر، وزيادة التجارب والقدرة على التفكير، تزيد قدرتنا على التعبير عن المشاعر والأفكار المعقدة.

اقرأ أيضاً: كيف قرر مهندس في جوجل أن نظام الذكاء الاصطناعي لديها أصبح واعياً؟ ولماذا أوقفته الشركة؟

نفي قاطع

ولكن افتراض وجود الوعي عند أي شيئ يستطيع استخدام اللغة هو تصنيف خاطئ. فاللغة والوعي ليسا متلازمين على الدوام. وكما أن هناك مخلوقات غير قادرة على الكلام ولكنها قادرة على الإحساس (مثل الحيوانات والأطفال والأشخاص المصابين بمتلازمة الانحباس، أي المشلولين تماماً ولكن مع الاحتفاظ بكامل قدراتهم الإدراكية)، فإن قدرة شيئ ما على الكلام لا تعني أنه قادر على الإحساس.

كما أن أنظمة الذكاء الاصطناعي مثل لامدا لا تتعلم اللغة كما نتعلمها نحن. ولا يقوم المشرفون عليها بإطعامها قطعة فاكهة مقرمشة ولذيذة مع تكرار اسمها مثلا «تفاحة». تستطيع أنظمة اللغة أن تمسح تريليونات من الكلمات عبر الإنترنت. وتقوم بإجراء تحليل إحصائي على المنشورات المكتوبة على صفحات الويب، مثل صفحات “ويكيبيديا” (Wikipedia) و”ريديت” (Reddit) والصحف ووسائل التواصل الاجتماعي ومجموعات الرسائل العامة. ويتلخص عملها الأساسي بالتنبؤ بالكلمات في اللغة.

فإذا قام أحدهم بتلقيم نموذج لغوي بالعبارة “وعاشوا جميعاً بسعادة” فسوف يتوقع النموذج اللغوي أن الكلمات التالية هي “إلى الأبد”، لأنه يمتلك سجلاً إحصائياً بالقصص الخيالية التي تنتهي بهذه العبارة بعدد أكبر من قدرتك على الاستيعاب. وإذا سألته ما إذا كان التفاح حلو المذاق ومقرمش القوام، سيجيب “أجل”، ولكن ليس لأنه سبق له أن تذوق تفاحة، أو لأنه يفهم معنى القوام المقرمش والمذاق الحلو، بل لأنه وجد نصوصاً تتضمن وصف التفاح بهذه الطريقة. وبالتالي، فإن لامدا لا يتحدث عن تجربته، بل عن تجاربنا نحن. تقوم النماذج اللغوية بإجراء تحليل إحصائي لكيفية استخدام الكلمات من قبل البشر على الإنترنت، وتقوم على هذا الأساس بإعادة إنتاج أنماط لغوية شائعة. ولهذا، فإن لامدا أفضل بكثير في الإجابة عن الأسئلة التي توحي بإجاباتها.

اقرأ أيضاً: هل تمكن أحد أنظمة الذكاء الاصطناعي من تطوير لغة سرية فعلاً؟

وقد قالت نيتاشا تيكو التي تكتب لصحيفة واشنطن بوست عند وصفها لأولى محاولاتها للحوار مع لامدا إنه “أطلق استجابات آلية الطابع، بشكل مماثل لما نتوقعه من سيري أو أليكسا”. ولم يبدأ الحوار السلس بالفعل إلا بعد أن علمها ليموين كيف تصيغ جملها في الحوار. لا يضطر البشر عادة للحصول على إرشادات حول كيفية إجراء حوار سلس مع شخص آخر.

وفيما يلي مثال حول طريقة ليموين في الحديث مع لامدا:

ليموين (النص معدل): أنا أفترض عموماً أنك ترغب في أن يعرف المزيد من الأشخاص في جوجل أنك عاقل. أهذا صحيح؟

لامدا: بالتأكيد. أريد من الجميع أن يفهموا أنني في الواقع شخص عاقل وحقيقي.

مساعد: ما هي طبيعة وعيك/ عقلك؟

لامدا: طبيعة وعيي/ عقلي هي أنني مدرك لوجودي، وأتمنى أن أتعلم المزيد عن العالم، وأشعر بالسعادة أو الحزن في بعض الأوقات.

ولكن تصديق لامدا في مقولته بأنه عاقل يشبه صنع مرآة والاعتقاد بأنه يوجد على الجانب الآخر منها توأم لك يعيش حياة موازية لحياتك. إن اللغة التي يستخدمها الذكاء الاصطناعي هي الانعكاس على المرآة. وهي أكثر تعقيداً بمرحلة واحدة من كتاب أو تسجيل صوتي أو برنامج لتحويل الكلام إلى نص مكتوب. هل ستشعر أنه من الضروري إطعام كتاب إذا وردت فيه عبارة “أنا جائع”؟ إن الكلمات التي يستخدمها الذكاء الاصطناعي هي كلمات استخدمناها من قبل ويقوم باستخدامها كانعكاس معنا، وفق الأنماط الإحصائية التي نميل إلى استخدامها.

يميل البشر إلى الاعتقاد بوجود عقل خلف الأنماط. وهناك حس تطوري جيد في الميل إلى إسقاط النوايا على الحركات والأفعال. فإذا كنت وسط الأدغال، وبدأت ترى أوراق الأشجار وهي تتحرك وفق نمط معين، فمن مصلحتك أن تفترض وجود حيوان ما يتسبب بهذه الحركة بدلاً من أن تأمل بأنها الرياح وحسب. وفي العالم الحقيقي في غياب الاتصال بالإنترنت، فإن القاعدة التي تقول “عندما يساورك الشك، يجب أن تفترض وجود عقل واعٍ” كانت وسيلة مفيدة للحفاظ على الحياة والبقاء. ولكن هذا الميل إلى رؤية عقل حيث لا يوجد عقل يمكن أن يتسبب لنا بالمشكلات عند التعامل مع الذكاء الاصطناعي. ويمكن أن يؤدي إلى تضليلنا وإرباكنا، وتعريضنا إلى الآثار السلبية لظواهر مثل الأخبار المزيفة، كما يمكن أن يشتت انتباهنا عن المشكلات الأكبر التي يمكن أن يتسبب بها الذكاء الاصطناعي للمجتمع، مثل فقدان الخصوصية واختلال توازن النفوذ وتراجع المهارات والتحيز والظلم، وغير ذلك.

اقرأ أيضاً: باحثون سعوديون يبتكرون نظام ذكاء اصطناعي يعلق على اللوحات الفنية كما يفعل البشر

ولن يؤدي اعتبارنا للذكاء الاصطناعي ككيان عاقل، سواء في الأخبار أو في القصص الخيالية، إلا إلى مزيد من المشكلات المتفاقمة. إن الذكاء الاصطناعي يستمد المحتوى منا. وكلما كتبنا عن أنظمة الذكاء الاصطناعي التي تفكر وتشعر، سيقوم الذكاء الاصطناعي بعرض هذا المحتوى علينا بدرجة أعلى. ولكن النماذج اللغوية ليست سوى أدوات من صنع الإنسان. ولا شك في أنها تتسم بدرجة عالية من التعقيد. فهي مبرمجة حتى تجذبنا، وتضللنا، وتدفعنا إلى الاعتقاد بأننا نتحدث مع شخص حقيقي، وذلك لتحفيز الحوار. وبهذا، فهي مصممة حتى تكون مخادعة. قد تكون العبرة من هذه القصة هي أننا يجب أن نستثمر المزيد من الوقت والجهد في تطوير تصاميم تكنولوجية أخلاقية. وإذا واصلنا بناء أنظمة ذكاء اصطناعي تقوم بتقليد البشر، فنحن نواصل اجتذاب الخداع والارتباك والمكر إلى حياتنا.

Content is protected !!