هل ستنجح الشركات التكنولوجية في العمل معاً لتحسين أمان الميتافيرس؟

6 دقائق
أمان الميتافيرس
حقوق الصورة: إم إس تك/ غيتي إيميدجيز.
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

قد يبدو الإنترنت في بعض الأحيان أشبه بهاوية لا قرار لها من أسوأ ما يمكن أن تنتجه البشرية. وحتى الآن، لا توجد أية مؤشرات يمكن أن تبشرنا بأن الميتافيرس –وهو العالم الافتراضي الذي يُفترض بأن يتحول إلى مكان رائع للعمل واللعب والحياة- سيكون أفضل بكثير من هذا. وكما ذكرتُ في تقرير نُشر مؤخراً، فإن إحدى الموظفات المشرفات على تجريب النسخة الافتراضية للمنصة الافتراضية لشركة “ميتا” (Meta)، والتي تحمل اسم هورايزون وورلدز، اشتكت من تعرضها إلى حادثة تحرش لمسي.

نحو شبكة إنترنت أخلاقية

ولكن تيفاني شينغيو وانغ تعتقد أنها قادرة على حل المشكلة. ففي أغسطس/ آب من العام 2020، أي قبل أكثر من عام على إعلان “فيسبوك” (Facebook) عن تغيير اسمها إلى ميتا، ونقل تركيزها من منصتها الأساسية للتواصل الاجتماعي إلى الخطط الرامية لبناء الميتافيرس الخاص بها، أطلقت وانغ المنظمة اللاربحية “أواسيس كونسورتيوم” (Oasis Consortium) (أي مجموعة أواسيس)، وهي مجموعة من شركات الألعاب وشركات الإنترنت التي تهدف إلى بناء “شبكة إنترنت أخلاقية تكون محط ثقة أجيال المستقبل للتفاعل والابتكار المشترك والحرية من الكراهية والإساءة على الإنترنت”. 

ولكن كيف؟ تعتقد وانغ أن أواسيس يمكن أن تضمن تحسين الميتافيرس وزيادة الأمان فيه بمساعدة الشركات التكنولوجية على تنظيم نفسها بنفسها.

فقد قامت أواسيس مؤخراً بنشر معايير سلامة المستخدم، وهي مجموعة من التوجيهات التي تتضمن توظيف مختص بالثقة والسلامة، وتوظيف مراقب للمحتوى، واعتماد أحدث الأبحاث في مكافحة الإساءات. وتتعهد الشركات التي تنضم إلى المجموعة بالعمل على تحقيق هذه الأهداف.

تقول وانغ، والتي أمضت 15 سنة تعمل في الذكاء الاصطناعي ومراقبة المحتوى: “أرغب بمنح الويب والميتافيرس خياراً جديداً، وإذا كان الميتافيرس سيبقى ويزدهر، فيجب أن يتضمن أفضل معايير السلامة”.

وهي محقة، فإن نجاح هذه التكنولوجيا متعلق بقدرتها على ضمان حماية المستخدمين من الأذى. ولكن، هل يمكن أن نثق فعلاً بقدرة شركات وادي السيليكون على تنظيم نفسها بنفسها في الميتافيرس؟

اقرأ أيضاً: الشخصيات الرقمية في الميتافيرس: المجال الجديد للتشوه الجسمي على الإنترنت

مخطط أولي لميتافيرس أكثر أماناً

حتى الآن، تتضمن قائمة الشركات الموقعة على أواسيس منصة اللعب “روبلوكس” (Roblox)، وشركة المواعدة “غرايندر” (Grindr)، وشركة ألعاب الفيديو العملاقة “ريوت غيمز” (Riot Games)، وغيرها. وتتضمن هذه الشركات مجتمعة مئات الملايين من المستخدمين، والكثير منهم أصبحوا منذ الآن نشطين في الفضاء الافتراضي. 

ولكن، من الملحوظ أن وانغ لم تتحدث بعد مع ميتا، والتي تُعتبر من كبار اللاعبين في مستقبل الميتافيرس. وتقوم استراتيجيتها على التواصل مع الشركات التكنولوجية الكبرى “عندما تشهد التغيرات الجذرية التي نحققها في هذه الحركة” (وعند سؤال ميتا عن خططها لتحقيق الأمان في الميتافيرس، أشارت إلى وثيقتين: بيان صحفي حول شراكات مع عدة مجموعات وأفراد من أجل “بناء الميتافيرس بطريقة مسؤولة” ومنشور مدونة حول الحفاظ على أمان فضاءات الواقع الافتراضي. وقد قام آندرو بوسوورث، المسؤول التقني الأساسي في ميتا، بصياغة كلتا الوثيقتين). 

تقول وانغ إنها تأمل بتحقيق الشفافية بعدة أساليب. أحد هذه الأساليب بناء نظام علامات لضمان معرفة العامة لمستوى الشركة من حيث الموثوقية والأمان، وهو لا يختلف كثيراً عن النظام الذي تعتمده السلطات المحلية في المدن لتقييم التزام المطاعم بمعايير الصحة والنظافة. كما يمكن أيضاً إلزام الشركات الأعضاء بتوظيف مسؤول للموثوقية والأمان. لقد أصبح هذا المنصب أكثر انتشاراً، وعلى نحو متزايد، بين الشركات الأكبر، ولكن لا توجد مجموعة من المعايير المتفق عليها لضبط عمل هذا المسؤول، كما تقول وانغ.

ولكن أغلبية خطط أواسيس ما زالت، في أحسن الأحوال، طوباوية. ومن أحد الأمثلة على هذا اقتراح استخدام التعلم الآلي لكشف التحرش وخطاب الكراهية. وكما ذكرت زميلتي كارين هاو في أحد تقاريرها من السنة الماضية، فإن نماذج الذكاء الاصطناعي تتعامل مع خطاب الكراهية إما بصرامة زائدة أو تراخٍ زائد. ولكن وانغ ما زالت تدافع عن ترويج أواسيس لاستخدام الذكاء الاصطناعي كأداة للمراقبة. وتقول: “إن فعالية الذكاء الاصطناعي تُحدد بجودة البيانات، وتشارك المنصات أساليب مراقبة مختلفة، ولكنها تعمل جميعاً لتحقيق دقة أفضل، وردّة فعل أسرع، وأساليب وقاية متجذرة في تصميم المنصة نفسها”.

يبلغ طول الوثيقة نفسها سبع صفحات، وتبين الخطوط العريضة للأهداف المستقبلية للمجموعة. توحي صياغة الوثيقة بأنها شرح عن مهمة المجموعة، وتقول وانغ إن أول سبعة أشهر من العمل كانت مركزة على بناء مجموعات استشارية للمساعدة على صياغة الأهداف. 

أما العناصر الأخرى من الخطة، مثل استراتيجية مراقبة المحتوى، فهي غامضة. وتقول وانغ إنها تريد من الشركات توظيف مجموعة متنوعة من مراقبي المحتوى بحيث يصبحون قادرين على تفهممضايقة الأشخاص من ذوي البشرة الملونة ومكافحتها، والأشخاص الذين يعتبرون أنفسهم من خارج فئة الذكور. ولكن الخطة لا توضح أي خطوات إضافية نحو تحقيق هذا الهدف.

أيضاً، تتوقع المجموعة من الشركات الأعضاء مشاركة البيانات حول المستخدمين السلبيين، وهو أمر مهم في تحديد المسيئين الذين يكررون إساءاتهم. وتقول وانغ إن الشركات التكنولوجية في المجموعة ستعقد شراكات مع منظمات لا ربحية ووكالات حكومية ومؤسسات فرض القانون للمساعدة على بناء سياسات حماية وأمان. كما تخطط أيضاً لبناء فريق استجابة لفرض القانون في أواسيس، وسيكون عمل هذا الفريق إبلاغ الشرطة حول التحرش والإساءات. ولكن ما زالت طريقة عمل هذا الفريق المختص مع مؤسسات فرض القانون غير معروفة، خصوصاً من ناحية اختلافها عن الوضع الحالي.

اقرأ أيضاً: دليلك لفهم الميتافيرس: عالم تدخله بدلاً من الاكتفاء بمشاهدته

التوازن بين الخصوصية والسلامة

على الرغم من نقص التفاصيل الدقيقة، فإن الخبراء الذين تحدثت معهم يعتقدون أن وثيقة معايير المجموعة تمثل على الأقل خطوة أولى جيدة. وتقول بريتان هيلر، وهي محامية مختصة بالتكنولوجيا وحقوق الإنسان: “من الجيد أن أواسيس تدرس مسألة التنظيم الذاتي، وتشترك في هذا العمل مع الأشخاص الذين يعرفون هذه الأنظمة وقدراتها وحدودها جيداً”. 

ليست هذه المرة الأولى التي عملت فيها الشركات بهذه الطريقة المشتركة. ففي 2017، اتفقت بعض الشركات على تبادل المعلومات بحرية مع منتدى الإنترنت العالمي لمكافحة الإرهاب.  واليوم، ما زال المنتدى مستقلاً، وما زالت الشركات المشاركة فيه تنظم نفسها بنفسها.

تقول لوسي سبارو، وهي باحثة في مدرسة الحوسبة وأنظمة المعلومات في جامعة ملبورن، إن ما يميز أواسيس هو أنها تقدم للشركات أساساً تستطيع أن تبني عليه، بدلاً من انتظارها لصياغة اللغة بنفسها، أو انتظار طرف ثالث للقيام بهذا العمل.

وتضيف سبارو إن إدماج الأخلاقيات في أساسيات التصميم منذ البداية، وهو ما تحاول أواسيس أن تدفع باتجاهه، أمر مثير للإعجاب، وتقول إن أبحاثها في أنظمة الألعاب متعددة اللاعبين تبين أن هذه الطريقة يمكن أن تحدث فرقاً ملحوظاً. وتقول: “عادة ما توضع الأخلاقيات جانبياً، ولكن في هذه الحالة، فإن أواسيس تشجع على التفكير بالأخلاقيات منذ البداية”.

ولكن هيلر تقول إن التصميم الأخلاقي قد لا يكون كافياً. وتشير إلى أن الشركات التكنولوجية معتادة على تغيير شروط الخدمة، وهو ما جلب لها انتقادات حادة لاستغلالها للمستهلكين الذين لا يتمتعون بخبرات قانونية. 

اقرأ أيضاً: 6 اتجاهات تكنولوجية في 2022 ستغير طبيعة الحياة البشرية

هل يمكن الوثوق بمساعي الشركات التكنولوجية؟

وتتفق سبارو مع هذه الفكرة، وتقول إنها ليست مستعدة للتصديق بأن مجموعة من الشركات التكنولوجية ستعمل معاً لتحقيق مصلحة المستهلك. وتقول: “إن هذه الفكرة تثير سؤالين: أولاً، إلى أي درجة يمكن أن نثق بالشركات التي تعمل وفق مصلحة رأس المال لإدارة السلامة؟ وثانياً، إلى أي مدى يجب أن نسمح للشركات التكنولوجية بالسيطرة على حياتنا الافتراضية؟” 

إنه وضع شائك، خصوصاً لأن المستخدمين يمتلكون الحق بالخصوصية والسلامة، ولكن هاتين الحاجتين يمكن أن تكونا متضاربتين.

فعلى سبيل المثال، تتضمن معايير أواسيس توجيهات لتقديم الشكاوى إلى مؤسسات فرض القانون عند التعرض للمضايقة. وإذا أراد شخص ما تقديم شكوى حالياً، فغالباً ما يكون هذا صعباً، لأن المنصات لا تسجل ما يجري مراعاة للخصوصية.

سيؤدي هذا التغيير إلى فرق كبير في القدرة على ردع المسيئين الذين يكررون إساءاتهم، ففي الوقت الحالي، يستطيع هؤلاء التملص بأفعالهم على منصات متعددة، لأن هذه المنصات لا تتواصل مع بعضها بعضاً حول المستخدمين مثيري المشاكل. وتقول هيلر إن هذه الفكرة رائعة من الناحية النظرية، ولكن تطبيقها أمر صعب، لأن الشركات ملزمة بالحفاظ على سرية معلومات المستخدمين وفقاً لشروط الخدمة.

وتتساءل: “كيف يمكنك إزالة الهوية من هذه البيانات، وتحافظ على فعالية هذه الطريقة؟ وما هي العتبة التي تستوجب مشاركة بياناتك؟ وكيف يمكن أن تجعل عملية مشاركة البيانات شفافة، وتجعل عملية إزالة هوية المستخدمين قابلة للاستئناف والعكس؟ وبيد مَن ستكون سلطة اتخاذ هذه القرارات؟”.

وتضيف: “ليس هناك سابقة لمشاركة الشركات لمعلوماتها مع شركات أخرى حول المستخدمين الذين ينتهكون شروط الخدمة بسبب التحرش أو غيره من السلوكيات المسيئة، على الرغم من أن هذا يحدث غالباً عبر عدة منصات”. 

يمكن لتحسين مراقبة المحتوى من قبل البشر إيقاف التحرش من المصدر. ولكن هيلر لم تجد أي تفاصيل في خطط أواسيس حول معايير مراقبة المحتوى، خصوصاً بين منصة تعتمد على النصوص، ومنصة أقرب إلى الهيكلية الافتراضية. كما أن مراقبة الميتافيرس لا تخلو من التحديات الخاصة بها أيضاً.

تقول هيلر: “إن عملية مراقبة المحتوى التي تستخدم الذكاء الاصطناعي لكشف خطاب الكراهية في صفحات المنشورات تعتمد بصورة أساسية على النصوص. أما مراقبة المحتوى في الواقع الافتراضي فتحتاج إلى تتبع السلوك ومراقبته بشكل أساسي، ولكن آليات التبليغ الحالية في الواقع الافتراضي والمعزز ما زالت حتى الآن ضعيفة، وغير فعالة في أغلب الأحيان. وفي الوقت الحالي، تستحيل أتمتة هذه العملية باستخدام الذكاء الاصطناعي”.

يضع هذا على المستخدم عبئاً أكبر في عملية التبليغ عن الإساءة، كما حدث مع ضحية التحرش اللمسي في ميتا، فهذه المنصات لا تقوم في أغلب الأحيان بتسجيل الصوت والصورة، ما يزيد من صعوبة إثبات وقوع الاعتداء. وحتى في المنصات التي تقوم بتسجيل الصوت، كما تقول هيلر، فإن معظمها لا يحتفظ سوى بمقاطع قصيرة، ما يجعل من الصعب، بل ومن المستحيل، فهم سياق ما حدث بالكامل.

تؤكد وانغ على أن معايير سلامة المستخدم صِيغت من قبل مجلس استشاري للسلامة، ولكن أعضاء هذا المجلس هم جميعاً من أعضاء المجموعة نفسها، وهو ما أثار شعوراً بعدم الارتياح لدى هيلر وسبارو. وفي الواقع، فإن سجل شركات الإنترنت التكنولوجية في حماية صحة المستهلك وسلامته ليس مشرّفاً على الإطلاق، فما الذي يدفعنا إلى الاعتقاد بأن هذا سيتغير الآن؟

لا تعتقد سبارو أن هذا التغير سيحدث وتقول: “الأمر الأساسي هنا هو وضع نظام لتطبيق العدالة وتحديد السلوكيات التي يُتوقع من الجميع الالتزامات بها، والتأكيد على وجود عواقب للسلوكيات المسيئة”. قد يعني هذا ضرورة مشاركة أطراف آخرين ومواطنين عاديين، أو حتى اشتراك هيئة ما لحوكمة هذه المسألة، بحيث تسمح للمستخدمين بالشهادة وممارسة دور هيئة المحلفين.

ولكن، من المؤكد على الأقل أن السلامة في الميتافيرس ستحتاج أكثر من مجرد تعهد برعايتنا من قبل الشركات التكنولوجية.