كيف يمكن أن يساعد الذكاء الاصطناعي في تحقيق المصلحة العامة؟

7 دقائق
كيف يمكن أن يساعد الذكاء الاصطناعي في تحقيق المصلحة العامة؟
حقوق الصورة: shutterstock.com/ Something Special
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

هناك مخاوف مبررة من أن أنظمة الذكاء الاصطناعي مثل تشات جي بي تي (ChatGPT) وجي بي تي4 (GPT4) ستضر بالديمقراطية؛ إذ يمكن أن تغرق النقاشات العامة بالكميات الهائلة من الحجج والحوارات المولّدة ذاتياً، وقد ينخرط الناس بنقاشات سياسية ليست ذات فائدة، أو ينخدعون بمعلومات خاطئة تبدو مقنعة سطحياً، أو يصبحون مهووسين بعلاقات وهمية مع شخصيات آليّة ليست موجودة في الواقع.

قد تمثّل هذه المخاطر تداعيات في عالم تستخدم فيه الشركات أنظمة الذكاء الاصطناعي التي لم تخضع للاختبارات اللازمة في معركة على الحصص في السوق يهدف كل طرف فيها إلى الاحتكار والهيمنة.

لكن الواقع الفاسد ليس المستقبل الوحيد المحتمل؛ إذ يمكن أن يعزز الذكاء الاصطناعي الصالح العام بدلاً من الربح الخاص، ويقوّي الأنظمة الديمقراطية بدلاً من إضعافها. سيتطلب ذلك تطوير أنظمة ذكاء اصطناعي لا تخضع لاحتكار شركات التكنولوجيا الكبيرة، بل يجب أن تطورها الحكومات وأن تكون متاحة للمواطنين جميعهم، وهذا الخيار العام في متناول اليد إذا أردنا اتباعه.

تطوير أنظمة الذكاء الاصطناعي للمنفعة العامة

يمكن تصميم أنظمة الذكاء الاصطناعي المطورة للمنفعة العامة خصيصاً للاستخدامات التي تُعزز فيها التكنولوجيا الديمقراطية. يمكن أن تثقف هذه الأنظمة المواطنين بدرجة معقولة، وتساعدهم على التشاور وتلخيص أفكارهم والتوصل إلى أرضية قد تكون مشتركة، وقد يتمكّن السياسيون من استخدام النماذج اللغوية الكبيرة مثل جي بي تي4 لفهم ما يريده المواطنون بصورة أفضل.

تخضع أحدث أنظمة الذكاء الاصطناعي اليوم لسيطرة شركات التكنولوجيا التي تبلغ قيمتها مليارات الدولارات؛ مثل جوجل (Google)، وميتا (Meta)، وأوبن أيه آي (OpenAI) من خلال ارتباطها بشركة مايكروسوفت (Microsoft). تقرر هذه الشركات طريقة تفاعل المستخدمين مع أنظمة الذكاء الاصطناعي التي تطورها، والصلاحيات التي يتمتعون بها، وهي قادرة على تغيير هذه الأنظمة بما يتوافق مع مصالحها. هذا ليس العالم الذي نريد العيش فيه، بل نريد خيارات من أنظمة الذكاء الاصطناعي المختلفة التي تعتبر سلعاً عامة وتخدم الصالح العام في الوقت نفسه.

اقرأ أيضاً: ما هي نزعة الحلول التكنولوجية وكيف أثّرت في انتشار أدوات الذكاء الاصطناعي؟

سباق احتكار المنتجات وتأثيره على الديمقراطية

نعلم أن الشركات تُدرّب النماذج اللغوية الكبيرة السائدة اليوم باستخدام المواد التي جُمّعت من الإنترنت، والتي يمكن أن تعكس أفكاراً عنصرية وتحرّض على الكراهية، وتحاول الشركات تصفية مجموعات البيانات المستخدمة للتدريب وضبط النماذج اللغوية الكبيرة وتعديل النتائج التي تولّدها بهدف إزالة الانحيازات والمحتوى المسيء. لكن رسائل البريد الإلكتروني والمحادثات المسربة تُبين أن هذه الشركات تستعجل في إطلاق المنتجات غير المكتملة في السوق في سباق لتعزيز احتكارها لها.

تتخذ هذه الشركات قرارات لها عواقب وخيمة على الديمقراطية دون أن تخضع لرقابة الأنظمة الديمقراطية، ولا نعرف شيئاً عن المقايضات السياسية التي تجريها هذه الشركات؛ هل تفضّل بوتات الدردشة ومحركات البحث التي تعتمد على النماذج اللغوية الكبيرة بعض وجهات النظر أكثر من غيرها؟ وهل تتجنّب الموضوعات المثيرة للجدل تماماً؟ حالياً، يجب علينا أن نثق بأن الشركات تصرح بالحقيقة حول المقايضات التي تواجهها.

ستوفر النماذج اللغوية الكبيرة المتاحة للعموم مصدراً مستقلاً بالغ الأهمية للمعلومات، وحقل تجارب للخيارات التكنولوجية التي لها عواقب كبيرة على الديمقراطية. يمكن أن يعمل هذا النظام الجديد وفق آلية تشبه إلى حد كبير خطط الرعاية الصحية المتوفرة للعموم، والتي تزيد إمكانية حصول المواطنين على الخدمات الصحية وتعزز الشفافية في العمليات التي تُجرى في القطاع، وتمارس ضغطاً ذا أثر ملموس على أسعار المنتجات الخاصة وميزاتها، وسيتيح لنا هذا النظام أيضاً تحديد القدرات القصوى للنماذج اللغوية الكبيرة وتوجيه تطبيقاتها بناءً عليها.

نعلم أن النماذج اللغوية الكبيرة “تلفّق” المعلومات أحياناً وتستنتج حقائق غير واقعية، وليس من الواضح ما إذا كانت هذه المشكلة عيباً لا يمكن تجنّبه في آلية عمل هذه النماذج أو قابلاً للإصلاح. يمكن أن تتضرر الأنظمة الديمقراطية إذا وثق المواطنون بالتكنولوجيات التي تختلق المعلومات عشوائياً، وإذا لم تكن الشركات التي تحاول بيع هذه التكنولوجيات مستعدة للاعتراف بعيوبها.

اقرأ أيضاً: من داعم لتطويره إلى محذّرٍ منه: لماذا يخشى إيلون ماسك الذكاء الاصطناعي؟

أنظمة الذكاء الاصطناعي لتعزيز الديمقراطية

لكن مقدرات أنظمة الذكاء الاصطناعي المتوفرة للعموم لا تقتصر على ضمان صدق شركات التكنولوجيا؛ إذ إنها قادرة على اختبار تطبيقات جديدة يمكن أن تعزز الديمقراطية بدلاً من الإضرار بها.

المثال الأكثر بداهة هو أن النماذج اللغوية الكبيرة يمكن أن تساعدنا على صياغة وجهات نظرنا ومواقفنا السياسية والتعبير عنها، ما يجعل الحجج السياسية مقنعة ومستنيرة أكثر، سواءً في مواقع التواصل الاجتماعي أو عبر الرسائل التي نكتبها للمحررين أو التعليقات على المقترحات السياسية الموجهة للوكالات التي تضع القواعد. لا نعني بذلك أن أنظمة الذكاء الاصطناعي ستحل محل البشر في الجدل السياسي، بل أنها يمكن أن تساعدنا على التعبير عن أنفسنا. إذا استخدمتَ إحدى بطاقات الترحيب من شركة هولمارك (Hallmark) أو وقّعت عريضة من قبل، فقد أثبتَّ بالفعل أنك موافق على تلقي المساعدة في التعبير عن مشاعرك الشخصية أو معتقداتك السياسية.

ستجعل أنظمة الذكاء الاصطناعي توليد المسودات الأولى أسهل، كما أنها تساعد على تحرير هذه المسودات وتقترح صياغات بديلة. ستتغير نظرتنا لاستخدامات هذه الأنظمة مع الزمن، وهناك إمكانية كبيرة لتحسينها، لكن قدرتها على المساعدة لا شك فيها. يختبر الكثيرون بالفعل مقدرات أنظمة الذكاء الاصطناعي في كتابة الخطابات وكسب التأييد وكتابة رسائل الحملات السياسية ويدرسونها. يعتمد أصحاب النفوذ غالباً على الموظفين ومحترفي كتابة الخطابات لصياغة أفكارهم، ويمكن أن يؤدي الذكاء الاصطناعي دوراً مشابهاً بالنسبة للمواطنين العاديين.

نماذج مساعدة وصبورة

إذا كان من الممكن حل مشكلة تلفيق المعلومات، سيكون استخدام النماذج اللغوية الكبيرة في الشرح والتعليم ممكناً. تخيل أن يتمكّن المواطنون من طرح الأسئلة المتعلقة بقضية سياسية معينة على نموذج لغوي كبير يتمتع بمعرفة تكافئ ما يتمتع به الخبراء، أو يتحكم في صياغة مواقف مرشح أو حزب معين. بدلاً من الاضطرار إلى تحليل العبارات المبتذلة والمراوِغة المصممة خصيصاً لجمهور كبير، يمكن للمواطنين الأفراد اكتساب فهم سياسي حقيقي للقضايا من خلال إجراء جلسات الأسئلة والأجوبة مع النماذج اللغوية الكبيرة التي يمكن أن تكون متاحة دائماً و”صبورة” للغاية أكثر من أي إنسان.

أخيراً، وهو الهدف الأكثر طموحاً، يمكن أن تساعد أنظمة الذكاء الاصطناعي على تسهيل نشر الديمقراطية على نطاق واسع؛ لاحظ أستاذ الإحصاء في جامعة كارنيغي ميلون، كوزما شاليزي (Cosma Shalizi)، أننا نوكّل السياسيين المنتخبين باتخاذ القرارات لأنه ليس لدينا الوقت للتشاور بشأن كل قضية، إلى جانب أسباب أخرى، لكن أنظمة الذكاء الاصطناعي يمكن أن تدير محادثات سياسية ضخمة في غرف الدردشة وعلى مواقع التواصل الاجتماعي وفي أماكن أخرى، وتحدد المواقف المشتركة وتلخصها وتبرز الحجج غير المألوفة التي تبدو مقنعة لمن سمعها وتقلل نسبة الهجوم والإهانات إلى الحد الأدنى.

يمكن أيضاً أن تدير بوتات الدردشة اجتماعات وطنية عامة إلكترونية وتلخص وجهات نظر المشاركين المتنوعين تلقائياً. يمكن أن يكون هذا النوع من النقاش الأهلي الذي تديره أنظمة الذكاء الاصطناعي بديلاً فعالاً عن استطلاعات الرأي، يلجأ السياسيون إلى إجراء استطلاعات الرأي لأخذ فكرة عامة عن الرأي العام لأنهم غير قادرين على الاستماع مباشرة إلّا لعدد صغير من الناخبين، لكنهم يريدون أن يعرفوا المواضع التي يتفق الناخبون فيها أو يختلفون عليها.

اقرأ أيضاً: ما الأزمات التي تسببها نماذج الذكاء الاصطناعي التوليدية في التعليم؟

تحديات سياسية لتطوير نماذج قد تخلق إجماعاً عاماً

يمكن لهذه التكنولوجيات أن تساعد المجموعات على التوصل إلى إجماع على الآراء واتخاذ القرارات في المستقبل، وتشير التجارب الأولية التي أجرتها شركة تكنولوجيا الذكاء الاصطناعي، ديب مايند (DeepMind) إلى أن النماذج اللغوية الكبيرة يمكنها أن توفّق بين الأشخاص أصحاب الآراء المختلفة، ما يساعدهم على الوصول إلى إجماع. تتخيل كاتبة الخيال العلمي، روثانا إمريس (Ruthanna Emrys)، في روايتها الرائعة “حديقة نصف مبنية” (A Half-Built Garden)، كيف يمكن أن يساعد الذكاء الاصطناعي الأشخاص على خوض محادثات أعلى جودة واتخاذ قرارات أفضل، بدلاً من الاستفادة من التحيزات التي يعاني منها البشر لتحقيق أقصى قدر ممكن من الربح.

يتطلب هذا المستقبل تطوير أنظمة الذكاء الاصطناعي المتوفرة للعموم، وسيتطلب إنشاء هذه الأنظمة، من خلال برنامج لتطوير النماذج وتطبيقها تُوجّهه الحكومة، الكثير من الجهد، وستكون أكبر التحديات في تطوير هذه الأنظمة سياسية.

هناك أدوات تكنولوجية متاحة بالفعل للجمهور، وكي نكون منصفين، جعلت شركات التكنولوجيا الكبرى مثل جوجل وميتا العديد من أحدث أدوات الذكاء الاصطناعي التي طورتها وأعلاها جودة متوفراً منذ سنوات، بالتعاون مع المجتمع الأكاديمي. وعلى الرغم من أن شركة أوبن أيه آي لم توفر الشيفرة البرمجية المصدرية والميزات الناتجة عن التدريب الخاصة بأحدث نماذجها للعموم، فإن الشركات المنافسة مثل هاغينغ فيس (Hugging Face) فعلت ذلك ووفرت هذه المعلومات المتعلقة بأنظمة شبيهة.

عملية تدريب متعددة الوسائط تحقق نقلة نوعية للنماذج اللغوية

على الرغم من أن النماذج اللغوية الكبيرة الحديثة تحقق نتائج مذهلة، فإنها تفعل ذلك بتطبيق تقنيات معروفة في الغالب وتُستخدم على نطاق واسع في قطاع تكنولوجيا الذكاء الاصطناعي. كشفت شركة أوبن أيه آي عن تفاصيل محدودة فقط حول الطريقة التي اتبعتها لتدريب أحدث طراز أصدرته من النماذج اللغوية الكبيرة، جي بي تي4. لكن أهم ما يميّز آلية تدريب هذا الطراز عن نموذج تشات جي بي تي الذي سبقه معروف، وهو عملية تدريب متعددة الوسائط تقبل مدخلات الصور والنصوص على حد سواء.

من الناحية المالية، تكلّف أكبر النماذج اللغوية التي تُدرَّب اليوم مئات الملايين من الدولارات، ولا يمكن أن يتحمل الناس العاديون هذه التكاليف، لكنها مبالغ زهيدة مقارنة بالأموال التي تُنفق في القطاع العسكري الفيدرالي في بلدان مثل الولايات المتحدة، كما أنها قليلة مقارنة بالعائدات المحتملة. على الرغم من أن الخبراء في الولايات المتحدة قد لا يرغبون في توسيع نطاق الوكالات الحكومية الحالية لتتمكن من إنجاز هذه المهمة، هناك عدد من المختبرات الحكومية، مثل المعهد الوطني للمعايير والتكنولوجيا (National Institute of Standards and Technology) ومختبر لورنس ليفرمور الوطني (Lawrence Livermore National Laboratory) ومختبرات وزارة الطاقة الأخرى بالإضافة إلى الجامعات والمؤسسات غير الربحية، التي تتمتع بخبرة ومقدرات في مجال الذكاء الاصطناعي كافية لتجعلها مؤهلة للإشراف على جهود إنشاء أنظمة الذكاء الاصطناعي المتوفرة للعموم.

اقرأ أيضاً: تشات جي بي تي يسقط ورقة التوت عن المنشورات المحكمة

ما الذي تتطلبه عملية تدريب نموذج لغوي يعزز الديمقراطية؟

عوضاً عن إصدار أنظمة ذكاء اصطناعي غير مكتملة للعموم، يجب علينا أن نتأكد من أنها فعالة قبل إصدارها، وأنها تعزز الديمقراطية بدلاً من الإضرار بها. الخطوة الرئيسية للأمام التي جعلت نماذج بوتات الدردشة الحديثة المعتمدة على الذكاء الاصطناعي مفيدة أكثر بكثير هي ملاحظات المستخدمين؛ توظف الشركات فِرقاً تستخدم الإصدارات المبكّرة من برامجها لتدريب هذه البرامج على التمييز بين المخرجات المفيدة وغير المفيدة، ويدرّب هؤلاء المستخدمون المأجورون النماذج لتؤدي وظائفها بطريقة متوافقة مع مصالح الشركات، مع التركيز على الاستخدامات مثل البحث على الويب (دمج الإعلانات التجارية) والبرامج المساعدة في إنتاجية الأعمال.

لتصميم أنظمة ذكاء اصطناعي تعزز الديمقراطية، سنحتاج إلى جمع الملاحظات البشرية المتعلقة باستخدامات ديمقراطية محددة، مثل إدارة نقاش سياسي يتضمن أطرافاً متضاربة بدرجة شديدة، وشرح تفاصيل المقترحات القانونية، أو توضيح وجهات النظر الفردية في نقاش أشمل. يمنحنا هذا طريقة لجعل النماذج اللغوية الكبيرة متوافقة مع قيمنا الديمقراطية، وذلك من خلال دفعها إلى توليد إجابات عن الأسئلة وارتكاب الأخطاء والتعلّم من ردود المستخدمين البشر، من دون أن تُلحِق هذه الأخطاء الضرر بالمستخدمين والساحة العامة.

سيكون توثيق هذا النوع من تفاعل المستخدمين وملاحظاتهم صعباً ضمن وسط سياسي يشكك فيه الأفراد بالذكاء الاصطناعي والتكنولوجيا عموماً، وليس مستبعداً أن السياسيين الذين ينتقدون عدم جدارة الشركات، مثل ميتا، بالثقة سيستاؤون أكثر من فكرة أن تؤدي الحكومة دوراً في تطوير التكنولوجيا.

اقرأ أيضاً: هل يمكن استخدام تشات جي بي تي لكتابة مقالات ويكيبيديا؟

جادل الفيلسوف الألماني والمنظّر الكبير في مسألة المجتمع المفتوح، كارل بوبر (Karl Popper)، بقوله إنه يجب ألا نحاول حل المشكلات المعقدة بخطط تعكس ثقة مفرطة، بل يجب أن نطبق الذكاء الاصطناعي من خلال ما يدعى بالهندسة الديمقراطية التدريجية، وتحديد الممارسات المناسبة وغير المناسبة بحذر. والطريق الأفضل للمضي قدماً هو البدء على نطاق صغير، وتطبيق هذه التكنولوجيات على القرارات المحلية الضيقة النطاق مع مجموعات مقيدة أكثر من أصحاب المصالح.

يجب أن يُجرى الجيل القادم من التجارب على الذكاء الاصطناعي في مختبرات الديمقراطية: الولايات والمجالس البلدية، ويمكن أن تكون الاجتماعات العامة المفتوحة على الإنترنت والمخصصة لمناقشة مقترحات الميزانية التشاركية المحلية خطوة أولى سهلة الإنجاز. من الممكن استخدام النماذج اللغوية الكبيرة المتاحة تجارياً والمفتوحة المصدر لإطلاق هذه العملية وبناء زخم يعزز الاستثمار الفيدرالي في مجال الذكاء الاصطناعي العام.

حتى بتطبيق هذه المقاربات، فإن إنشاء أنظمة الذكاء الاصطناعي الديمقراطي العامة سيكون فوضوياً وصعباً، لكن البديل، المتمثل في عدم الاكتراث بالمعركة الدائرة التي تهدف للسيطرة على مجال تكنولوجيا الذكاء الاصطناعي التجاري وتضر بالسياسة الديمقراطية، سيكون أكثر فوضوية وأسوأ بكثير.