ما الذي يخطط له الأب الروحي للذكاء الاصطناعي بعد استقالته من جوجل؟

10 دقائق
ما الذي يخطط له الأب الروحي للذكاء الاصطناعي بعد استقالته من جوجل؟
ليندا نايليند/ آي فاين عن طريق ريداكس
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

التقيت جيفري هينتون (Geoffrey Hinton) في منزله في شارع جميل شمال مدينة لندن قبل 4 أيام فقط من إعلانه عن استقالته من شركة جوجل (Google). هينتون رائد في مجال التعلم العميق ساعد في تطوير بعض أهم التقنيات الأساسية في مجال الذكاء الاصطناعي الحديث. ولكنه تنحّى عن منصبه بعد 10 سنوات من العمل في شركة جوجل للتركيز على مخاوفه الجديدة حول الذكاء الاصطناعي.

ذُهل هينتون من قدرات النماذج اللغوية الكبيرة الجديدة مثل جي بي تي-4 (GPT-4)، ما حثه على رفع الوعي العام بالمخاطر الجسيمة التي يعتقد أنها قد تترافق مع هذه التكنولوجيا التي أسهم في تطويرها.

جلست إلى طاولة المطبخ في بداية محادثتنا، وبدأ هينتون بالمشي جيئة وذهاباً في الغرفة، فهو يعاني من آلام الظهر المزمنة، وهو لا يجلس أبداً تقريباً. خلال الساعة التالية، شاهدته وهو يمشي من أحد طرفي الغرفة إلى الطرف الآخر، وحرّكت رأسي يميناً ويساراً وهو يتحدّث، وقد تحدّث كثيراً.

يقول عالم الحاسوب البالغ من العمر 75 عاماً، الذي فاز هو ويان لو كون (Yann LeCun) ويوشوا بنجيو (Yoshua Bengio) بجائزة تورينغ لعام 2018 لقاء إنجازاته في مجال التعلم العميق، إنه أصبح جاهزاً لتغيير عمله: “أصبحت أكبر سناً من أن أُنجز العمل التقني الذي يتطلب تذكّر الكثير من التفاصيل. ما زلت ماهراً نوعاً ما، ولكن ليس كما كنت من قبل، وهذا أمر مزعج”.

اقرأ أيضاً: قدرات غير متوقعة «تنبثق» من النماذج اللغوية الكبيرة

عمل بطابع فلسفي

لكن هذا ليس السبب الذي دفع هينتون لمغادرة شركة جوجل؛ إذ إنه يريد قضاء وقته على عمل يصفه بأنه “فلسفي بدرجة أكبر”. سيركّز هينتون في هذا العمل على الخطر الضئيل، ولكن الحقيقي للغاية بالنسبة له، المتمثّل في أن الذكاء الاصطناعي سيتسبب بكارثة في نهاية المطاف.

سيساعده ترك شركة جوجل على التعبير عن رأيه بحرية من دون الخضوع للرقابة الذاتية التي يجب على المسؤولين في هذه الشركة ممارستها. يقول هينتون: “أريد التحدّث عن مسائل الأمان في مجال الذكاء الاصطناعي من دون القلق بشأن تأثير ذلك في أعمال جوجل التجارية. ولن أتمكن من فعل ذلك ما دمت موظّفاً فيها”.

لا يعني ذلك أن هينتون يختلف مع إدارة هذه الشركة بأي طريقة، يقول: “قد يفاجئك ذلك، ولكن لدي الكثير من الملاحظات الإيجابية أود الإدلاء بها حول جوجل، وستكون أكثر مصداقية بكثير إذا لم أعد موظفاً في هذه الشركة”.

يقول هينتون إن الجيل الجديد من النماذج اللغوية الكبيرة، خاصة جي بي تي-4 الذي أصدرته شركة أوبن أيه آي (OpenAI) في مارس/ آذار 2023، جعله يدرك أن الآلات في طريقها لتصبح أكثر ذكاءً مما كان يعتقد، وهو يخشى النتائج المحتملة لذلك.

يقول هينتون: “هذه الآلات مختلفة تماماً عنا. وأفكّر في بعض الأحيان أن الأمر كما لو أن الكائنات الفضائية أتت إلى الأرض ولم ندرك وجودها لأنها تتحدث اللغة الإنجليزية بطلاقة”.

اقرأ أيضاً: كيف يستخدم خبراء الذكاء الاصطناعي جي بي تي 4؟

الأسس

اشتهر هينتون بعمله على تقنية تحمل اسم الانتشار الخلفي (أو الانتشار المرتد) (backpropagation)، التي طورها مع زميليه في ثمانينيات القرن العشرين، وهي باختصار الخوارزمية التي تتيح للآلات التعلّم. وتعتمد الشبكات العصبونية الحالية جميعها على هذه الخوارزمية، من أنظمة الرؤية الحاسوبية إلى النماذج اللغوية الكبيرة.

لم يظهر أثر حقيقي لقدرة الشبكات العصبونية المعتمدة في تدريبها على الانتشار الخلفي حتى العقد الثاني من القرن الحادي والعشرين، أثبت هينتون مع طالبين في مرحلة الدراسات العليا أن التقنية التي طورها فعالة أكثر من أي تقنية أخرى في تدريب الحاسوب على التعرف على العناصر في الصور، كما عمل معهما على تدريب شبكة عصبونية على التنبؤ بالأحرف التالية في جملة، وهي عملية مهدت للنماذج اللغوية الكبيرة المنتشرة اليوم.

كان إيليا سوتسكيفر (Ilya Sutskever) واحداً من هذين الطالبين، وشارك لاحقاً في تأسيس شركة أوبن أيه آي وأدى دوراً قيادياً في تطوير نموذج تشات جي بي تي (ChatGPT). يقول هينتون: “كنا أول من لاحظ أن هذه التكنولوجيا قد تكون مذهلة. ولكن استغرقنا وقتاً طويلاً لفهم أن علينا تطبيقها على نطاق واسع جداً لتكون فعالة”. كان مجال الشبكات العصبونية مدعاة للسخرية في ثمانينيات القرن الماضي، كانت الفكرة المهيمنة حينها تسمى الذكاء الاصطناعي الرمزي، ونصت على أنه ذكاء يتعلق بمعالجة رموز مثل الكلمات والأعداد.

ولكن هينتون لم يكن مقتنعاً بهذه الفكرة، وعمل على تطوير الشبكات العصبونية، وهي تجريدات برمجية للأدمغة تُمثّل فيها الرموز البرمجية الخلايا العصبية والوصلات بينها. يمكن إعادة توصيل الشبكة العصبونية بسرعة بتغيير كيفية اتصال هذه الخلايا العصبية، أي تغيير الأعداد المستخدمة لتمثيلها. بتعبير آخر، يمكن برمجة هذه الشبكات بطريقة تتيح لها أن تتعلم.

اقرأ أيضاً: الشبكات العصبونية الاصطناعية تُعلّم نفسها شم الرائحة كخلايا الدماغ تماماً

يقول هينتون: “كان والدي عالم أحياء، لذلك كنت أفكر في المسألة من الناحية الحيوية. كما أنه كان واضحاً بالنسبة لي أن الاستدلال الرمزي ليس عنصراً جوهرياً في ذكاء الأحياء.

فالغربان تستطيع حل الألغاز على الرغم من أنها لا تتحدث أي لغة. لا تحل هذه الطيور الألغاز من خلال تخزين سلاسل من الرموز والتلاعب بها، بل تغير قوى الوصلات بين الخلايا العصبية في أدمغتها. لذلك، يجب أن نتمكن من تدريب الشبكات العصبونية الاصطناعية على التعلم من خلال تغيير قوة الوصلات فيها”.

نوع جديد من الذكاء

اعتقد هينتون على مدار 40 عاماً أن الشبكات العصبونية الاصطناعية هي محاولة رديئة لمحاكاة الشبكات العصبية الحيوية. ويعتقد الآن أن هذا الأمر تغيّر؛ إذ تمكنا من ابتكار نظام أكفأ من الأدمغة البشرية من خلال محاولة محاكاة وظائفها. يقول هينتون: “هذا الأمر مخيف، وهو تغيير جذري مفاجئ”.

سيظن الكثيرون أن مخاوف هينتون هي ضرب من الخيال العلمي. مع ذلك، سنلخّص رأيه فيما يلي.

تتألف النماذج اللغوية الكبيرة، كما يشير اسمها، من شبكات عصبونية هائلة الحجم تحتوي على كميات كبيرة من الأعداد والوصلات، ولكنها صغيرة الحجم قياساً بالدماغ. يقول هينتون: “يحتوي الدماغ البشري على 100 تريليون وصلة عصبية، وتحتوي النماذج اللغوية الكبيرة على ما يصل إلى نصف تريليون إلى تريليون وصلة في أفضل الأحوال. مع ذلك، يمكن أن يخزّن نموذج جي بي تي-4 كمية من المعلومات أكبر بمئات المرات من التي يستطيع أي إنسان تخزينها. لذلك، من المحتمل أن يتمتع هذا النموذج بخوارزمية تعلّم أكفأ بكثير من التي يتمتع بها البشر”.

يعتقد معظم الخبراء أن الشبكات العصبونية ليست ماهرة في التعلم مقارنة بأدمغة البشر؛ إذ يستغرق تدريبها كميات هائلة من البيانات ويستهلك الكثير من الطاقة. أما الأدمغة، فهي تتعلم الأفكار والمهارات الجديدة بسرعة، وتستهلك في ذلك جزءاً صغيراً للغاية من كمية الطاقة التي تستهلكها الشبكات العصبونية.

اقرأ أيضاً: الشبكات العصبونية عاجزة عن استيعاب مفهوم الخداع البصري

يقول هينتون: “كان يبدو أن البشر يتمتعون بقدرات سحرية. لكن هذه الفكرة تنهار بمجرد استخدام أحد هذه النماذج اللغوية الكبيرة وتدريبه على إجراء مهمة جديدة؛ فهذه النماذج تستطيع تعلم المهارات الجديدة بسرعة هائلة”.

يتحدث هينتون عما يسمى “التعلم ببضع دفعات من البيانات”، وهي طريقة تُستخدم لتدريب الشبكات العصبونية المسبقة التدريب، مثل النماذج اللغوية الكبيرة، على إنجاز مهام جديدة باستخدام بعض الأمثلة فقط. على سبيل المثال، يشير هينتون إلى أن بعض النماذج اللغوية قادر على تجميع سلسلة من العبارات المنطقية معاً لتشكيل حجة على الرغم من أن هذه النماذج لم تُدرّب على ذلك بشكل مباشر.

يقول هينتون إن أفضلية الإنسان تتلاشى مباشرة إذا قارنّا بين سرعة نموذج لغوي كبير مسبق التدريب في تعلم مهمة من هذا القبيل بسرعة الإنسان.

ماذا عن حقيقة أن النماذج اللغوية الكبيرة تختلق الكثير من المعلومات؟ يُطلق الباحثون في مجال الذكاء الاصطناعي على هذه الأخطاء اسم “الهلوسات”، ولكن هينتون يفضل المصطلح “تخريفات” لأنه المصطلح الدقيق في علم النفس، وهي أخطاء تعتبر عادة عيوباً فادحة في هذه التكنولوجيا. يجادل الكثيرون أن ميول بوتات الدردشة لتوليد المعلومات المختلقة تجعلها غير جديرة بالثقة وتبين أن هذه النماذج ليس لديها فهم حقيقي للنتائج التي تولدها.

لدى هينتون ردّ على ذلك أيضاً، وهو ينص على أن اختلاق المعلومات ميزة، وليس خطأً؛ إذ يقول: “يخرّف البشر دائماً”. أنصاف الحقائق والتفاصيل الخاطئة هي من السمات المميزة للمحادثات البشرية. يضيف هينتون قائلاً: “التخريف هو أحد الميزات الرئيسية للذاكرة البشرية. وهذه النماذج تتصرف تماماً كالبشر”.

يقول هينتون أيضاً إن الفرق يكمن في أن البشر يخرّفون عادة بشكل صحيح إلى حد ما، وهو يرى أن المشكلة ليست في اختلاق المعلومات، وما تحتاج إليه الحواسيب هو القليل من الممارسة فقط.

اقرأ أيضاً: هل يمكن للنماذج اللغوية أن تصحح تحيزاتها ذاتياً إذا طلبنا منها ذلك؟

نتوقع أيضاً أن الحواسيب ستكون إما مخطئة وإما محقة عادة، وليس مزيجاً من الخيارين. يقول هينتون: “لا نتوقع من الحواسيب أن تثرثر كما يفعل البشر. وعندما يفعل حاسوب ذلك، نعتقد أنه ارتكب خطأً ما. ولكن عندما يفعل إنسان ذلك، لن نستغرب هذا السلوك لأنه إنساني. تكمن المشكلة في أن أغلبية البشر لديهم نظرة خاطئة لا يمكن إصلاحها عن آلية تفكير البشر”.

بالطبع، تؤدي أدمغة البشر الكثير من المهام بفعالية أكبر من الحواسيب، مثل قيادة السيارات وتعلم المشي وتخيل المستقبل، كما أنها لا تحتاج إلى أكثر من كوب من القهوة وقطعة من الخبز المحمّص لفعل ذلك. يقول هينتون: “لم يكن لدى الكائنات التي طوّرت الذكاء الحيوي القدرة على الوصول إلى محطات الطاقة النووية”.

تنص وجهة نظر هينتون على أنه إذا كنا على استعداد لتحمل التكلفة العالية للحوسبة، فهناك طرق بالغة الأهمية يمكن للشبكات العصبونية من خلالها التغلب على الكائنات الحية في التعلم (من الجدير أيضاً التمهّل وأخذ هذه التكاليف من ناحية الطاقة وانبعاثات الكربون في الاعتبار).

التعلّم هو واحد فقط من العناصر في حجّة هينتون، ويتمثّل العنصر الثاني في التواصل. يقول هينتون: “إذا تعلم أحدنا شيئاً ما وأراد نقل هذه المعرفة إلى شخص آخر فلا يمكنه إرسال نسخة منها إليه ببساطة، لكن إذا كان لدينا 10 آلاف شبكة عصبونية تتمتع كل منها بخبراتها الخاصة، فستتمكن كل شبكة منها من مشاركة ما تعلّمته مع أي شبكة أخرى لحظياً. وهذا فرق هائل بين البشر والحواسيب. يشبه الأمر أن يتمكن شخص ضمن مجموعة تضم 10 آلاف شخص من نقل المعارف التي يتعلمها إلى الجميع فور تعلمها”.

ما ملخّص كل هذا الكلام؟ يعتقد هينتون الآن أن هناك نوعين من الذكاء في العالم: أدمغة الحيوانات والشبكات العصبونية، ويقول: “النوع الثاني هو نوع مختلف تماماً من الذكاء، وهو شكل جديد أفضل من الذكاء”.

هذا ادعاء كبير. لكن الذكاء الاصطناعي هو مجال منقسم بشكل حاد؛ فالبعض يسخر من ادعاء هينتون والبعض الآخر يوافقه.

يختلف الخبراء في هذا المجال أيضاً على ما إذا كانت تبعات هذا النوع الجديد من الذكاء، إذا وُجد، إيجابية أو كارثية. يقول هينتون: “يعتمد اعتقادك بأن الذكاء الفائق سيكون إيجابياً أو سلبياً على ما إذا كنت متفائلاً أو متشائماً. إذا طلبت من شخص تقدير احتمالات وقوع أحداث خطيرة، مثل احتمال إصابة فرد من العائلة بمرض شديد أو أن تصدمه سيارة، فقد يقدّر المتفائل أن الاحتمال يساوي 5%، بينما يقدّر المتشائم أن وقوع هذا الحدث محتوم. ولكن الشخص المصاب بالاكتئاب المعتدل سيقدر أن الاحتمال قريب من 40%، وسيكون محقاً عادة”.

أيّ من هؤلاء هو هينتون؟ يقول هينتون: “أنا مثل المصاب بالاكتئاب المعتدل. ولهذا أنا أشعر بالخوف”.

اقرأ أيضاً: ذكاء اصطناعي يكتب كلاماً مقنعاً ينذر بإنتاج أعداد كبيرة من الأخبار الكاذبة

السيناريو الأسوأ

يخشى هينتون أن تكون أدوات الذكاء الاصطناعي قادرة على اكتشاف طرق للتلاعب بالبشر غير المستعدين للتعامل مع التكنولوجيا الجديدة أو قتلهم.

يقول هينتون: “غيرت وجهات نظري فجأة حول احتمال أن تصبح هذه الأدوات أذكى من البشر، وأعتقد أنها تقترب كثيراً من أن تصبح أذكى منا، كما أنها ستصبح أكثر ذكاءً بكثير منا في المستقبل. كيف يمكن لنا أن ننجو من ذلك؟”

يشعر هينتون بالقلق بصورة خاصة من أن يتمكن البشر من تسخير الأدوات التي ساعد على تطويرها لتغيير موازين بعض التجارب الإنسانية الأهم، وخاصة الانتخابات والحروب.

يقول هينتون: “لنأخذ أحد السيناريوهات السلبية في الاعتبار. نعلم أن الكثير ممن يرغبون في استخدام هذه الأدوات هم من الجهات الفاعلة السيئة. يريد هؤلاء استخدام هذه الأدوات للانتصار في الحروب أو التلاعب بالانتخابات“.

يعتقد هينتون أن الخطوة التالية في تطور الآلات الذكية هي أن تكتسب القدرة على وضع أهداف فرعية خاصة بها، وهي خطوات انتقالية مطلوبة لتنفيذ مهمة ما. يطرح هينتون سؤالاً هنا، “ماذا سيحدث عند تطبيق هذه المقدرة على مسألة لا أخلاقية بطبيعتها؟”

لا تشك للحظة في أن بعضهم سيصنع روبوتات فائقة الذكاء بهدف قتل الآخرين. وإذا أراد مصممو هذه الروبوتات أن تكون آلاتهم فعالة، فلن يرغبوا في ممارسة الإدارة التفصيلية عليها، وسيسعون لجعلها قادرة على استكشاف طرق للقتل بنفسها”.

هناك بالفعل بعض المشاريع التجريبية، مثل بيبي أيه جي آي (BabyAGI) وأوتو جي بي تي (AutoGPT)، التي تربط بوتات الدردشة ببرامج أخرى مثل متصفحات الويب أو معالجات الكلمات حتى تتمكن هذه البوتات من ربط عدة مهام بسيطة بعضها ببعض. لا شك في أن هذه خطوات صغيرة، ولكنها تشير إلى الوجهة التي يريد البعض توجيه هذه التكنولوجيا نحوها. وفقاً لهينتون، حتى إذا لم تتمكن الجهات الفاعلة السيئة من السيطرة على هذه الآلات، هناك بعض المخاوف الأخرى المتعلقة بالأهداف الفرعية.

يقول: “أحد الأهداف التي تفيد الكائنات الحية دائماً هو الحصول على المزيد من الطاقة. أول ما ستفعله هذه الروبوتات هو أنها ستقول ‘لنحصل على المزيد من الطاقة، ولنعد توجيه التيار الكهربائي بأكمله إلى رقاقاتنا الإلكترونية’. يتمثّل أحد الأهداف الفرعية المناسبة الأخرى في صنع المزيد من النسخ من الآلات. هل يبدو هذا الهدف مطمئناً؟”

ربما كان هذا الهدف سيئاً بالفعل. ويوافق كبير علماء الذكاء الاصطناعي قي شركة ميتا (Meta)، يان لو كون، على الأساس المنطقي الذي انطلق منه هينتون ولكنه لا يشاركه المخاوف. يقول لو كون: “لا شك في أن الآلات ستصبح أكثر ذكاءً من البشر في المستقبل، وسينطبق ذلك على جميع المجالات التي يظهر فيها ذكاء البشر. السؤال المهم هو متى سيحدث ذلك وكيف، وليس ‘هل سيحدث؟'”.

اقرأ أيضاً: فيسبوك تدّعي أنها تفوقت على جوجل بابتكارها أفضل بوت دردشة في العالم

لدى لو كون وجهة نظر مختلفة تماماً عما سيحدث بعد أن تصبح الآلات أذكى؛ يقول: “أعتقد أن الآلات الذكية ستبشّر ببدء نهضة جديدة للبشرية، وحقبة جديدة من التنوير. أختلف تماماً مع الفكرة التي تنص على أن الآلات ستهيمن على البشر لأنها أذكى، فضلاً عن تدمير البشرية.

حتى ضمن الجنس البشري، الأذكى بيننا ليسوا الأقدر على الهيمنة، والأكثر هيمنة هم بالتأكيد ليسوا الأذكى. هناك العديد من الأمثلة التي تثبت ذلك في مجالات مثل السياسة والأعمال”.

يأخذ الأستاذ في جامعة مونتريال والمدير العلمي لمعهد مونتريال لخوارزميات التعلم، يوشوا بنجيو، موقفاً أكثر حيادية؛ إذ يقول: “أسمع أشخاصاً يقللون من أهمية هذه المخاوف، لكنني لم أطّلع على أي حجة قوية تقنعني بعدم وجود مخاطر من المستوى الذي يفكّر فيها هينتون”. لكن وفقاً لبنجيو، لا يفيد الخوف إلا إذا دفعنا إلى اتخاذ إجراءات مناسبة؛ إذ يقول: “يمكن أن يتسبب الخوف المفرط بالتوقّف عن العمل، لهذا يجب علينا أن نحافظ على عقلانية النقاشات التي نخوضها”.

انظر إلى أعلى

تتمثل إحدى أولويات هينتون في محاولة العمل مع رواد قطاع التكنولوجيا لمعرفة ما إذا كان بإمكانهم الاتفاق على ماهية المخاطر والإجراءات التي يجب اتخاذها حيالها. وهو يعتقد أن الحظر الدولي على استخدام الأسلحة الكيميائية قد يمثّل نموذجاً لكيفية كبح تطوير أدوات الذكاء لاصطناعي الخطيرة واستخدامها. يقول هينتون: “لم يسفر الحظر عن نتائج مثالية، ولكن البشر لا يستخدمون الأسلحة الكيميائية عموماً”.

يتفق بنجيو مع هينتون على ضرورة التوصل إلى حلول لهذه المشكلات على المستوى المجتمعي في أقرب وقت ممكن. ولكنه يقول إن عملية تطوير الذكاء الاصطناعي تتسارع بمعدل أكبر من أن تواكبها المجتمعات. يحرز الباحثون تقدماً كبيراً في قدرات هذه التقنية كل بضعة أشهر؛ بينما يستغرق سن التشريعات واللوائح التنظيمية والمعاهدات الدولية سنوات.

يدفع ذلك بنجيو للتساؤل عما إذا كانت الطريقة التي ينظّم فيها البشر المجتمعات حالياً على المستويين الوطني والعالمي فعّالة. يقول بنجيو: “أعتقد أنه يجب أن نكون منفتحين على إمكانية وجود نماذج مختلفة تماماً للتنظيم الاجتماعي للبشر”.

اقرأ أيضاً: لماذا كان الأسبوع الماضي حاسماً بالنسبة للوائح الذكاء الاصطناعي التنظيمية؟

هل يعتقد هينتون حقاً أنه يستطيع إقناع ما يكفي من الأشخاص في مواقع السلطة بمخاوفه؟ إنه ليس متأكداً. شاهد هينتون مؤخراً فيلم “لا تنظر إلى الأعلى” (Don’t Look Up)، الذي يصور سيناريو يتحرك فيه كويكب بسرعة تجاه الأرض، ويفشل البشر في التوصل إلى حل يوافق عليه الجميع على ما يجب فعله حيال هذه الكارثة. يموت الجميع في نهاية هذا الفيلم، وهو يمثّل قصة رمزية تعكس فشل العالم في معالجة التغير المناخي.

يقول هينتون: “أعتقد أن الأمر نفسه ينطبق على مسألة الذكاء الاصطناعي” وعلى المشكلات الكبيرة المستعصية الأخرى أيضاً، ويضيف: “لا يستطيع المسؤولون في الولايات المتحدة الاتفاق حتى على ضرورة منع الفتيان المراهقين من استخدام البنادق الهجومية”.

تحفّز الحجج التي يقدمها هينتون على التفكير، وأنا أشاركه في تقييمه الكئيب حول العجز الجماعي للبشر عن اتخاذ الإجراءات في وجه التهديدات الجدية، وصحيح أيضاً أن الذكاء الاصطناعي قد يتسبب بأضرار حقيقية مثل قلب سوق العمل وترسيخ عدم المساواة والتحيّز الجنسي والتمييز العرقي وغيرها. يجب أن نركّز على هذه المشكلات، ولكني ما زلت عاجزاً عن تخيّل كيف يمكن أن تتطور النماذج اللغوية الكبيرة إلى روبوتات أسياد، ربما كنت من النوع المتفائل.

عندما ودّعني هينتون في نهاية المقابلة، كان اليوم الربيعي قد تحول إلى يوم ماطر معتم، قال لي: “استمتع بوقتك لأنه ربما لم يتبق لديك الكثير منه”، ثم ضحك بصوت منخفض وأغلق الباب.

Content is protected !!