كيف يمكن توظيف التفكير التأملي في تدريب نماذج الذكاء الاصطناعي؟

3 دقيقة
كيف يمكن توظيف التفكير التأملي في تدريب نماذج الذكاء الاصطناعي؟
حقوق الصورة: بيكسلز

على النقيض من الخطاب المبالغ فيه الذي قد يصل إلى حد الجنون أحياناً والذي يتمحور حول التحذير من الذكاء الاصطناعي باعتباره قوة طاغية تسحق كلَّ ما هو في طريقها، يسعى هذا المقال إلى التساؤل حول إمكانية إيجاد "ذكاء اصطناعي للجميع"؛ ذكاء اصطناعي يوفّر إمكانية فريدة للتقدم الاجتماعي.

 في الحقيقة وبغض النظر عن مدى الانبهار بخوارزميات الذكاء الاصطناعي، فإنها تظل عُرضةً للتشوه بسبب المعلومات المضللة، وعدم الكفاءة اللغوية وغياب الأخلاقيات الضابطة والعلوم الزائفة. هذه العوامل تجعل ضبط الإنسان وحكمه عاملين حاسمين في نجاح أو فشل رحلة الذكاء الاصطناعي وفي تحقيق التوازن بين الإبداع والقيود. ناهيك عن أن البوصلة الأخلاقية المغروسة في جوهر البشر جميعهم -باختلاف أعراقهم وأديانهم- تنطوي على التزام أحادي الجانب بالتفكير بالآخرين بالطريقة نفسها التي يفكر فيها الفرد بذاته.  

اقرأ أيضاً: أين وصلنا في سباق وضع قواعد لأخلاقيات الذكاء الاصطناعي؟

الخوارزميات المبنية على الأخلاق

يمكن للخوارزميات المبنية على الأخلاق أن تحرر الذكاء الاصطناعي من اعتبارات التبادلية التي غالباً ما تُصاغ حسب المبدأ الشائع "أعطيك حتى تعطيني" "do ut des"، وتضع الأساس الذي يمكننا عليه تدريب الذكاء الاصطناعي لخدمة الإنسانية لتحقيق الازدهار في انسجام وتفاهم. إن ذلك شبيه بتزويد الخوارزميات ببوصلة داخلية قادرة على تحديد المسار الصحيح، ما يؤدي إلى وعي سليم يحذو حذو بندول الساعة أي يتأرجح للإشارة عندما يكون الطريق المسلوك ملتوياً.

إن ضبط أخلاقيات الذكاء الاصطناعي وتحسينها يستلزم إعطاء "الحوسبة" -أي البنية التحتية للذكاء الاصطناعي أو القدرة الحسابية المحلية التي يسعى مطورو الذكاء الاصطناعي بشدة لتطوير وتدريب وتشغيل نماذج لغوية كبيرة (LLMs) عليها- شخصية إنسانية. فوجود "حوسبة إنسانية" هو الغاية التي ستدفع أفواجاً من الباحثين والشركات في مجال الذكاء الاصطناعي إلى إجراء تجارب منتظمة حول المعايير الأخلاقية للذكاء الاصطناعي والتعلم من خلال الممارسة. تعتبر هذه العملية أساسية للسعي نحو نموذج "ذكاء اصطناعي أخلاقي" لأنها ستغذّي التأثير المركب للمعرفة الناتج عن قدرة بنية الذكاء الاصطناعي على التوسع مع تدفق المزيد من الطلب على حركة البيانات. لذا، فإن إحدى الطرق المؤكدة لبناء "الحوسبة الإنسانية" ستكون توفير مجموعات بيانات أكثر دقة ونظيفة. وقد يكون ذلك في متناول يد الحكومات، إلى جانب الاستفادة من أكوام من البيانات السيادية التي يمكن أن تولّد نماذج لمجتمعاتنا ومدوناتها الأخلاقية وسلوكها الحضاري، ووكالاتنا الحكومية مهيأة لإجراء التعديلات التحديثية للبيانات وتمثّل منجم ذهب لتقنيي الذكاء الاصطناعي لتحسين البيانات الخاصة بهم وتدريب نماذج ذكاء اصطناعي طموحة وإنسانية. 

الحوسبة الإنسانية والوصول إلى ذكاء اصطناعي أخلاقي

مما لا شك فيه أن الوصول إلى ذكاء اصطناعي أخلاقي سيتطلب مستوى عالياً من البراغماتية لتجنب العوائق التشريعية، وهذا بدوره يتطلب من الحكومات تطوير فهم جيد لسياسة الحوسبة للتعرف إلى التوصيف الوظيفي للتقنيين قبل العمل في مشاريع "أخلاقيات" ذكاء اصطناعي مدعومة من الدولة.

اقرأ أيضاً: كيف أثّر الصراع الأخلاقي حول سلامة الذكاء الاصطناعي في إقالة سام ألتمان من منصبه؟

إن تضمين الأخلاقيات في نماذج الذكاء الاصطناعي تستدعي أخلاقنا، وتضع الأساس للمعايير التي يدين بها الناس لأنفسهم ولبعضهم بعضاً للحفاظ على احترام الذات والكرامة. يمكن أن تشمل هذه الإضافة الأخلاقية للذكاء الاصطناعي المعتقدات التي تدعم وجهة نظر معينة للأخلاقيات، وهي بذلك تشير إلى الشرائع السلوكية التي نحكم من خلالها على أنفسنا وعلى بعضنا بعضاً. على سبيل المثال، سيتعامل الذكاء الاصطناعي مع المطالبة بـ "خيانة صديق" باعتبارها أمراً غير أخلاقي، وسيولي أهمية أكبر لـ "الوسائل" في مقابل "الغايات"؛ أي أن النموذج اللغوي سوف يترجم الأفعال الخاطئة كلها على أنها أعمال "شر". 

توظيف التفكير التأملي في الذكاء الاصطناعي

لا شيء يجسد هذا أفضل من نموذج ذكاء اصطناعي يتضمن اللعنة التي أصابت قابيل بسبب قتله أخيه هابيل أو العمل الساخر للكاتب أمبروز بيرس (قاموس الشيطان، 1911) لفهم كيف يمكن للقانون أن يكون القاسم المشترك الأدنى، والحد الأدنى من السلوك المقبول، وذلك يدفع مجتمعاتنا نحو معايير أخلاقية أعلى بدلاً من الاكتفاء بأدنى المعايير القانونية. 

يمكننا تحقيق ذلك من خلال ذكاء اصطناعي يوظّف التفكير التأملي فيما يجب وما يجب ألا نفعله، والذي يأخذ في الاعتبار القانون، ولكنه يتجاوز أهواءه التشريعية للوصول إلى تصور واضح للصح والخطأ لا تشوبه شائبة. فعندما تتفق القوانين مع الأخلاقيات، يرى الذكاء الاصطناعي أفعالنا باعتبارها مسألة قانون، ولكن في حالة تعارض كلا المفهومين، يعالج الذكاء الاصطناعي أفعالنا كمسألة أخلاقية، لأن حياة الفرد لا تدور حول "أنا، ونفسي فقط"، بل تدور حول مسألة "هل هذا هو الشيء الصحيح الذي ينبغي عمله؟".

قال أبقراط ذات مرة: "كُنْ نافعاً، ولا تضر". يمثّل هذا المبدأ أفضل ما يمكن بناء خوارزميات الذكاء الاصطناعي حوله؛ وهذا يعني أن كل خطوة من خطوات تدريب النموذج اللغوي يجب أن تحقق نسبة فائدة أعلى من نسبة المخاطر، وإلّا فعلينا مراجعتها حتى الوصول إلى هذه النسبة. وبالمثل، ينبغي للخوارزمية أن تحترم السرية وتسعى للحصول على موافقة مستنيرة للحفاظ على الإحسان والنزاهة ولتعزيز الدقة في استخدام البيانات. يجب كذلك توضيح الجوانب المتعلقة كافة بعملية البحث لأصحاب المصلحة جميعهم إلى جانب حصر واضح للنتائج المتوقعة والمساهمة في تراكم المعرفة.

اقرأ أيضاً: نظام ذكاء اصطناعي من ديب مايند يمكنه تصميم آلات تتمتع بقدرات تفكير قريبة للبشر

على وجه الإجمال، يجب على خوارزميات الذكاء الاصطناعي أن تضع مصلحة مجتمعاتنا فوق مصلحة القائمين عليها. بهذه الطريقة، سوف تسمو إرادة الشعب/ الناس دائماً على إرادة مجموعات المصالح وسنتمكن جميعاً من الاستمتاع بمزايا ذكاء اصطناعي يتضمن معايير توجه سلوكنا. ذكاء اصطناعي يضع الثقة والمساءلة والاحترام المتبادل والإنصاف في المقام الأول، وهي قيم ضرورية للتعاون والتآزر اللازم لتعزيز الأهداف الرئيسية لمجتمعنا: المعرفة والحقيقة وتحسين العالم.