كيف تستفيد شركات التكنولوجيا من غياب القوانين الناظمة للذكاء الاصطناعي للتحايل على الممثلين؟

15 دقيقة
كيف تستفيد شركات التكنولوجيا من غياب القوانين
حقوق الصورة: shutterstock.com/Wachiwit
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

في ليلة من ليالي أوائل شهر سبتمبر/ أيلول، جلس “ت”، وهو ممثل يبلغ من العمر 28 سنة وطلب أن نستخدم أول حرف من اسمه وحسب، في استوديو مستأجر في هوليوود أمام ثلاث كاميرات ومخرج ومنتج لأداء عمل غريب نوعاً ما.

أدّت ساعتان من التصوير إلى إنتاج مقاطع غير مخصصة لمشاهدة الجمهور، أو على الأقل، جمهور البشر.

بدلاً من ذلك، سيتحول صوت “ت” ووجهه وحركاته وتعابيره إلى بيانات تُلَقم ضمن قاعدة بيانات للذكاء الاصطناعي “لتحسين إدراك المشاعر البشرية، والتعبير عنها بصورة أفضل”. بعد ذلك، ستساعد قاعدة البيانات على تدريب “شخصيات افتراضية” لشركة ميتا، إضافة إلى خوارزميات لشركة الذكاء الاصطناعي المخصص للمشاعر، ريل آيز، التي تتخذ من لندن مقراً لها. الجدير بالذكر أن ريل آيز كانت تدير المشروع، وأن المشاركين لم يعلموا بدور شركة ميتا إلى أن وصلوا إلى مكان العمل.

ممثلون عاطلون عن العمل: مصدر سعادة لشركة ميتا

أُجريت “دراسة المشاعر” من يوليو/ تموز حتى نهاية سبتمبر/ أيلول، واعتمدت على الممثلين تحديداً. وتزامن المشروع مع الإضراب المزدوج التاريخي في هوليوود لنقابة الكتّاب الأميركية ونقابة ممثلي الشاشة الأميركية والاتحاد الأميركي لفناني الراديو والتلفزيون أو اختصاراً “ساغ أفترا” (SAG-AFTRA). وبسبب الجمود الذي أصاب صناعة السينما والتلفزيون، أصبح العدد الكبير وغير المعتاد للممثلين العاطلين عن العمل مصدر سعادة لميتا وريل آيز على الأرجح، فقد أصبح لديهم مصدر جديد من “المدربين” -ونقاط البيانات- ملائم تماماً لتدريب أنظمة الذكاء الاصطناعي لديهما كي تبدو أقرب إلى البشر.

وبالنسبة للممثلين مثل “ت”، كانت هذه فرصة رائعة أيضاً؛ فهي وسيلة لكسب مبلغ إضافي جيد من المال بسهولة، دون الاضطرار إلى كسر الإضراب.

“لا توجد قواعد واضحة حقاً في الوقت الحالي”.

وقد ورد في إعلان فرصة العمل: “هذا المشروع بحثي بالكامل”. عرض الإعلان 150 دولاراً في الساعة مقابل ساعتين على الأقل من العمل، وشدد على أن “الشكل الفردي الذي يشبه من يعمل لن يُستخدم لأي أغراض تجارية”.

اقرأ أيضاً: مختبر أوبن إيه آي يطوّر أنظمة الذكاء الاصطناعي لديه باستخدام لعبة الغميضة

من المحتمل أن الممثلين افترضوا أن هذا يعني أنهم لن يروا وجوههم وأداءهم في برنامج تلفزيوني أو فيلم سينمائي، لكن الصياغة العمومية للعقود التي وقّعوا عليها تعني أنه من المستحيل أن نحدد، وعلى نحو قاطع، ما الذي تنازلوا عنه، أو النتائج الكاملة لهذه التنازلات. في الواقع، تتطلب المشاركة التوقيع على تنازل “بصورة دائمة” عن حقوق معينة في خدمة تكنولوجيات وحالات استخدام قد لا تكون موجودة بعد.

وعلى الرغم من أن إعلان العمل شدد على أن المشروع “لا يُعد عملاً مخالفاً للإضراب” (أي عملاً لصالح الشركات التي وجّهت النقابات إضرابها ضدها)، فإن هذا المشروع، على أي حال، يتضمن بعض القضايا الأساسية التي يتمحور حولها الإضراب، مثل استخدام أشكال الممثلين، وكيفية تعويض الممثلين لقاء هذا الاستخدام، والصيغة المقبولة للموافقة المبنية على معلومات صحيحة في عصر الذكاء الاصطناعي.

وقد قال كبير المفاوضين في نقابة الممثلين، دانكن كرابتري-آيرلاند، عندما كان عضواً في اللجنة المشرفة على حلقة نقاشية حول الذكاء الاصطناعي في مجال الترفيه خلال مؤتمر القصص المصورة “كوميك كون” (Comic-Con) في مدينة سان دييغو في هذا الصيف: “لا تقتصر المسألة على معركة تعاقدية بين نقابة وشركة. إنها مسألة وجودية”.

اقرأ أيضاً: كيف يغيّر الذكاء الاصطناعي صناعة السينما؟

مسألة وجودية للممثلين في زمن الذكاء الاصطناعي

يشعر الكثير من الممثلين في هذا المجال، خصوصاً الممثلين الثانويين (الكومبارس)، بالقلق من إمكانية استخدام الذكاء الاصطناعي -مثل النماذج الموصوفة في دراسة المشاعر- للاستعاضة عنهم سواء بنسخ مطابقة لوجوههم أو من دونها. ومن المحتمل، في هذه الحالة، أن المشاركين في الدراسة كانوا في الواقع يدربون بدلاءهم المحتملين دون قصد، وذلك من خلال توفير التعابير الوجهية التي تعلّم الذكاء الاصطناعي كيف يظهر على نحو أقرب إلى البشر.

وقد قال نائب رئيس ريل آيز للنمو والتسويق، ماكس كاليهوف، في رسالة بالبريد الإلكتروني: “دراساتنا لا علاقة لها بالإضراب على الإطلاق. وتركّز النسبة العظمى من عملنا على تقييم فاعلية الإعلان للعملاء، وهو الأمر الذي لا علاقة له بالممثلين وصناعة الترفيه، باستثناء مسألة تقييم رد فعل الجمهور”. وأضاف قائلاً إن هذا التوقيت كان “صدفة مؤسفة”. لم تستجب شركة ميتا لطلباتنا المتعددة بالتعليق على الموضوع.

نظراً لاعتماد الإنجازات التكنولوجية على بعضها بعضاً في أغلب الأحيان، إضافة إلى السرعة الهائلة لتطور مجال الذكاء الاصطناعي، يشير الخبراء إلى أن هذه الشركات لا تستطيع فعلياً أن تُطلق الكثير من الوعود الموثوقة والمؤكدة.

إضافة إلى إعلان فرصة العمل، تمكنت إم آي تي تكنولوجي ريفيو من الحصول على نسخة من اتفاق ترخيص البيانات واستعراض محتواه، وتبين بالفعل أن نتائجه المحتملة كبيرة للغاية. ويمكن تلخيص الوضع، بلا مواربة، كما يلي: يتقاضى الممثلون المشاركون أجوراً زهيدة لا تتجاوز في بعض الأحيان 300 دولار، ولقاء هذه الأجور، وسواء بعلمهم أو دون علمهم، يمنحون ريل آيز وميتا وغيرها من الأطراف الأخرى التي تختارها الشركتان الإذن بالوصول إلى وجوههم، بل وتعابيرهم وأي شيء مشتق من هذه الوجوه والتعابير، واستخدامها أيضاً، في أي وقتٍ وبأي طريقة تقريباً، شريطة عدم إنتاج أي مواد تتضمن صورة شبيهة بفرد محدد.

اقرأ أيضاً: هل نحن أمام مخاطر وجودية فعلاً من الذكاء الاصطناعي؟

شعر بعض الممثلين، مثل جيسيكا التي طلبت تعريفها باسمها الأول وحسب، بوجود طابع “استغلالي” في المشروع، سواء من حيث الحوافز المادية للممثلين العاطلين عن العمل، أو من حيث النزاع حول مسألة الذكاء الاصطناعي وكيفية استخدام صورة الممثل.

تقول جيسيكا، وهي ممثلة ثانوية تعمل في نيويورك، إنها شهدت عدداً متزايداً من إعلانات الوظائف في مجال الذكاء الاصطناعي على مدى السنوات القليلة الماضية. وتقول: “ليست هناك حالياً قواعد واضحة حقاً، ولهذا، لا أدري. من المحتمل أنهم يحاولون الحصول على هذه الصور قبل توقيع النقابة عقداً يتضمن هذه القواعد”.

أدّى كل هذا إلى دفع الممثلين، الذين زادت معاناتهم بعد ثلاثة أشهر من العمل المحدود أو المعدوم، إلى قبول شروط ريل آيز وميتا، والتأثير -قصداً أو دون قصد- على الممثلين جميعهم، سواء اختاروا التعامل شخصياً مع الذكاء الاصطناعي أم لا.

يقول الممثل وعضو نقابة الممثلين، موريس كومبت، الذي شارك في أدوار رئيسية بمسلسلات مثل ناركوس (Narcos) وبريكينغ باد (Breaking Bad): “نحن أمام خيارين: إمّا التعرض للأذى الآن، وإمّا التعرض للأذى لاحقاً”. وبعد قراءة إعلان الوظيفة، لم يسعه إلّا أن يتلمس وجود نية خبيثة. ويقول إن وجود العمل مفيد بالطبع، ولكن فائدته “أشبه بالفائدة التي حصل عليها الأميركيون الأصليون عندما أخذوا البطانيات من المستوطنين البيض (كانت البطانيات ملوثة بالأمراض لنشرها بين السكان الأصليين والقضاء عليهم)”، ويُضيف قائلاً: “لقد أخذوا البطانيات لأن الطقس كان بارداً”.

اقرأ أيضاً: الذكاء الاصطناعي يسير بسرعة كبيرة والعلماء يحذّرون من ثلاثة أخطاء يجب تجنبها

البشر وقود البيانات

يعتمد الذكاء الاصطناعي على البيانات، ومن يوفر هذه البيانات هم البشر.

إنه عمل بشري يتضمن تحضير البيانات وتنظيفها وتصنيفها كي يصبح فهمها أكثر سهولة على الآلات. على سبيل المثال، وكما أوردت إم آي تي تكنولوجي ريفيو سابقاً، فإن المكانس الكهربائية الروبوتية تدرك أنه يجب عليها تفادي مخلفات الكلاب الأليفة لأن مصنفي البيانات البشر نقروا على الملايين من صور مخلفات الحيوانات الأليفة -وغيرها من الأجسام- الموجودة داخل المنازل لتصنيفها.

وبالنسبة للتعرف على الوجوه -وهي عملية أخرى من عمليات تحليل المقاييس الحيوية- أو نماذج الذكاء الاصطناعي التوليدية المخصصة لتوليد صور البشر أو صور الشخصيات الرمزية الرقمية الشبيهة بالبشر، فإن وجوه البشر وحركاتهم وأصواتهم هي التي تؤدي دور البيانات.

كانت هذه النماذج في البداية تعتمد على البيانات المستخرجة من الإنترنت، وقد شملت هذه البيانات في عدة مرات لقطات كاميرات مراقبة خاصة، حيث شوركت هذه المقاطع أو بيعت دون معرفة الأشخاص الذين ظهروا فيها.

لكن تزايد الحاجة إلى بيانات أعلى جودة، إضافة إلى المخاوف المتعلقة بجمعها بطريقة أخلاقية وبوجود الموافقات المناسبة، دفع الشركات التكنولوجية إلى الانتقال من “جمع البيانات من المصادر المتاحة للعموم” إلى “بناء مجموعات البيانات بالاعتماد على المحترفين”، كما يشرح الأستاذ المساعد في جامعة ييل، جوليان بوسادا، الذي يدرس المنصات والعمل. أو على الأقل، “بالاعتماد على الأشخاص الذين وظفتهم الشركات وقدّمت لهم تعويضات مالية ووقعوا نماذج الموافقة”.

لكن الحاجة إلى بيانات بشرية، خصوصاً في صناعة الترفيه، تواجه عائقاً كبيراً في هوليوود، وهو حقوق الدعاية، أو “حق التحكم في طريقة استخدام اسمك وشكلك”، وذلك وفقاً للمديرة القانونية لمؤسسة الجبهة الإلكترونية (EFF) -وهي مجموعة للدفاع عن الحقوق الرقمية- كورين ماكشيري.

لقد كانت هذه المشكلة موجودة قبل ظهور الذكاء الاصطناعي بكثير، لكن الذكاء الاصطناعي أدّى إلى تفاقمها. فالذكاء الاصطناعي التوليدي، على وجه الخصوص، يُتيح بسهولة توليد نسخ واقعية من أي شخص من خلال تدريب الخوارزميات على بيانات موجودة مسبقاً، مثل الصور ومقاطع الفيديو لهذا الشخص. وكلما كانت كمية البيانات المتاحة أكبر، زادت سهولة توليد صورة واقعية، ويظهر تأثير هذه المسألة جلياً وبصورة خاصة في حالة فناني الأداء.

يُعتقد أن هذه القدرة على الارتجال تفسّر لجوء ريل آيز وميتا إلى توظيف الممثلين على وجه التحديد.

لقد تمكن بعض الممثلين من تحقيق المنفعة المادية من الخصائص التي تميّزهم عن غيرهم. على سبيل المثال، وقّع الممثل جيمس إيرل جونز -الذي أدّى صوت دارث فيدر- على موافقته على استخدام أرشيف تسجيلات صوته كي يستمر الذكاء الاصطناعي في توليد صوته لاستخدامها في أفلام سلسلة حرب النجوم (Star Wars) اللاحقة.

 في هذه الأثناء، استطاع كلٌّ من هاريسون فورد وتوم هانكس وروبن رايت تمثيل أدوار شخصياتهم بنسخ أصغر سناً (من أنفسهم) على الشاشة بفضل تقنية تصغير العمر (أو عكس الشيخوخة) باستخدام الذكاء الاصطناعي (de-aging AI). ومؤخراً، عقدت شركة ميتافيزيكس أيه آي (Metphysics AI) التي ابتكرت هذه التقنية صفقة مع وكالة الفنانين المبدعين (Creative Artists Agency) لاستخدام الذكاء الاصطناعي التوليدي في خدمة فنانيها.

لكن الكثير من المواد العميقة التزييف، أو صور الأحداث المزيفة المُوَلّدة باستخدام الذكاء الاصطناعي الذي يعمل بالتعلم العميق، تُوَلّد دون موافقة. فمؤخراً، نشر هانكس على إنستغرام (Instagram) منشوراً يوضح فيه زيف إعلان يظهر فيه للترويج لعرض قدمته إحدى شركات التأمين لتغطية علاج الأسنان.

اقرأ أيضاً: مرشحون للوظائف يستغلون التزييف العميق للمنافسة والحصول على فرص عمل أفضل

غير أن مشهد الذكاء الاصطناعي مختلف بالنسبة لغير المشاهير. فالممثلون الثانويّون يلاحظون زيادة في عدد المرات التي يُطلب منهم فيها الخضوع لعملية مسح كامل للجسم في موقع التصوير، حيث لا مجال أمامهم للرفض أو حتى الحصول على توضيحات حول استخدام هذه الصور الممسوحة في المستقبل. وتقول استوديوهات الإنتاج إن هذه الصور الممسوحة تُستَخدم بصورة أساسية لتضخيم المشاهد التي تتضمن حشوداً كبيرة، وهي عملية كانت الاستوديوهات تنفذها في مرحلة ما بعد الإنتاج لسنوات عديدة باستخدام تكنولوجيات أخرى، لكن ممثلي النقابة يقولون إن الاستوديوهات تحتفظ بحقوق استخدام أشكال هؤلاء الممثلين إلى الأبد ما إن تمسحها. (ظهرت عدة تقارير حول ممثلين صوتيين يقولون إن أصواتهم ظهرت في ألعاب فيديو مختلفة عن الألعاب التي عملوا فيها).

وفي حالة دراسة ريل آيز وميتا، قد تكون المسألة مسألة “بيانات دراسة” بدلاً من عمليات المسح الكامل للجسم، لكن الممثلين يتعاملون مع الغموض نفسه فيما يتعلق بالاستخدامات الأخرى المحتملة في المستقبل لأشكالهم الرقمية.

اقرأ أيضاً: كيف يمكنك كشف فيديوهات التزييف العميق بسهولة؟

تعليم الذكاء الاصطناعي كي يبدو أكثر شبهاً بالبشر

يبلغ الأجر الذي تدفعه ريل آيز 150 دولاراً في الساعة، وهو أكثر بكثير من الأجر اليومي الذي يتقاضاه الممثلون الثانويون، الذي يبلغ قيمة 200 دولار يومياً تقريباً وفق العقد الحالي لنقابة الممثلين (أمّا الوظائف خارج نطاق النقابة فأجورها أقل حتى).

وهو ما جعل هذا العمل المؤقت عرضاً جذاباً للممثلين اليافعين مثل “ت”، الذي بدأ العمل في هوليوود مؤخراً، حيث بيئة العمل شهيرة بصعوباتها، حتى لو لم يكن قد وصل إلى هناك قبل فترة قصيرة من بدء الإضراب. (لم يعمل “ت” في عدد كافٍ من الوظائف النقابية حتى ينضم إلى النقابة رسمياً، لكنه يأمل في تحقيق هذا يوماً ما)

في الواقع، يتجاوز الأداء لصالح ريل آيز مجرد دور تمثيلي عادي بالنسبة للممثل “ت”، فقد وصفه بأنه “أشبه بورشة عمل للتدرب على التمثيل، حيث تحصل على فرصة لتحسين أدائك التمثيلي، وهو ما أعتقد أنه أفادني بعض الشيء”.

فعلى مدى ساعتين، كان “ت” يقدّم أداءً تمثيلياً وفق تعليمات من قبيل “أخبرنا بشيء يُثير غضبك” و”أخبرنا بقصة حزينة” و”مثّل لنا مشهد رعب تظهر فيه خائفاً”، مع ارتجال القصة أو المشهد المناسب في كل مرة. يُعتقد أن هذه القدرة على الارتجال تفسّر لجوء ريل آيز وميتا إلى توظيف الممثلين على وجه التحديد.

إلى جانب حصول “ت” على المنفعة المادية، فقد شارك في الدراسة بناءً على فهمه بأن النتائج لن تُنشر علناً. لكن البحث كان تابعاً لشركة ميتا، كما علم عندما وصل إلى استوديو التصوير ووقّع على اتفاق لترخيص البيانات مع الشركة بعد أن تصفحه على عجالة وحسب. وكانت تلك المرة الأولى التي سمع فيها بأن ميتا مرتبطة حتى بالمشروع. فقد وقّع من قبل عقداً منفصلاً مع ريل آيز يتضمن شروط العمل.

اقرأ أيضاً: ميتا تنافس جوجل ومايكروسوفت عبر «كاميلين» وإصدار مفتوح المصدر من «لاما»

يقول اتفاق ترخيص البيانات إن ريل آيز هي المالك الوحيد للبيانات، وتحمل حقوق “الترخيص والتوزيع وإعادة الإنتاج والتعديل جميعها وغير ذلك لإنتاج واستخدام أعمال مشتقة” ناتجة عن هذه البيانات، “بصورة لا رجعة فيها، وفي الصيغ والوسائط جميعها الموجودة حالياً أو في المستقبل”.

ليس من السهل تفسير هذه الصياغة والمصطلحات القانونية، خصوصاً فيما يتعلق بتكنولوجيا تتغير وتتطور بوتيرة فائقة السرعة. لكن جوهرها الأساسي يعني أنك “قد تتخلى عن أشياء لا تدركها، لأن هذه الأشياء غير موجودة بعد”، وفقاً للمحامية إميلي بولر، التي تمثّل العملاء في النزاعات المتعلقة بالجوانب التي تتقاطع فيها الوسائط والتكنولوجيا والملكية الفكرية.

وتُضيف قائلة: “لو كنت محامية لأحد هؤلاء الممثلين، سأدرس بالتأكيد مسألة إمكانية تخلي الشخص عمداً عن أشياء غير موجودة بعد حتى”.

وكما تقول جيسيكا، “يمكن لهذه الشركات أن تستخدم صورتك متى تشاء وكيفما تشاء بعد الحصول عليها”. وتعتقد أنه يمكن استخدام أشكال الممثلين على نحو مشابه لاستخدام الأعمال الفنية، مثل اللوحات والأغاني والقصائد، في تدريب الذكاء الاصطناعي التوليدي، ويساورها القلق من أن الذكاء الاصطناعي قد يتمكن من “صنع صورة مركبة تبدو بشرية على نحو قابل للتصديق، لكن دون أن تشبه شخصاً حقيقياً بعينه، بحيث يصبح من المستحيل رفع دعوى قضائية ضد هذه الشركات”، حتى لو كانت هذه الصورة البشرية الموَلّدة بالذكاء الاصطناعي مبنية على أشكال أشخاص محددين.

يبدو حدوث هذا الأمر ممكناً بالنسبة لجيسيكا على وجه الخصوص، نظراً لتجربتها بوصفها ممثلة ثانوية آسيوية-أميركية في صناعة يؤول فيها تمثيل الفئات المختلفة من المجتمع في أغلب الأحيان إلى تحويل الدور التمثيلي إلى مجرد ظهور شكلي لتحقيق هذه الشمولية دون أي أهمية فعلية لقصة العمل الفني. تخشى جيسيكا الآن من أن أي شخص يوظف الممثلين أصبح قادراً على “توظيف بضعة ممثلين آسيويين” وخداعهم لبناء “شخصية آسيوية رقمية” يمكن استخدامها بدلاً من “توظيف شخص آسيوي حقيقي للمشاركة في إعلان تجاري”.

اقرأ أيضاً: الرؤية الحاسوبية تعلمت استخدام الأمواج الراديوية لترى عبر الجدران وفي الظلام

غير أن الصور ليست المسألة الوحيدة التي يجب أن يقلق الممثلون بشأنها، وفقاً للباحث التطبيقي آدم هارفي الذي يركز على الرؤية الحاسوبية والخصوصية والمراقبة، وأحد مؤسسي مشروع إكسبوزينغ أيه آي (Exposing.AI) لتوثيق وتصنيف مجموعات البيانات المستخدمة في تدريب أنظمة التعرف على الوجوه.

ووفقاً لهارفي، فإن مفهوم “الشكل الشبيه” (Likeness) بدأ يتغير. وعلى حين تشير هذه العبارة حالياً، وفق التصور الشائع، إلى الشكل الشبيه الفوتوغرافي، فإن الموسيقيين يحاولون تعديل هذا التعريف حتى يشمل الشكل الشبيه الصوتي. ويعتقد هارفي أن تعديل مفهوم الشكل “قد يشمل أيضاً الناحية العاطفية”، أي أنه قد يصبح بوسع الممثلين الادعاء بأن تعابيرهم الدقيقة فريدة من نوعها، وتستحق الحماية.

لم يفصح كاليهوف من ريل آيز بالضبط عن الغرض الحقيقي الذي ستستخدم الشركة نتائج الدراسة لتحقيقه، لكنه توسع في الشرح في رسالة بالبريد الإلكتروني عن إمكانية وجود “مجموعة متنوعة من حالات الاستخدام، مثل تصميم تجارب وسائط رقمية أفضل، والتشخيص الطبي لأمراض الجلد والعضلات على سبيل المثال، وكشف درجة الانتباه لأغراض السلامة، والأدوات الروبوتية المخصصة لدعم المصابين بمشاكل طبية تتعلق بالتعرف على تعابير الوجه (مثل التوحد)”.

تخشى جيسيكا الآن من أن أي شخص يوظف الممثلين أصبح قادراً على “توظيف بضعة ممثلين آسيويين” وخداعهم لبناء “شخصية آسيوية رقمية” يمكن استخدامها بدلاً من “توظيف شخص آسيوي حقيقي للمشاركة في إعلان تجاري”.

عندما سُئل كاليهوف عن تعريف شركة ريل آيز لمصطلح “الشكل الشبيه”، أجاب بأن الشركة تستخدم هذا المصطلح -إضافة إلى مصطلح “تجاري”، وهو مصطلح آخر يتصف بوجود تعريفات شائعة لكن دون إجماع شامل عليها- بطريقة “عامة لا تختلف عن أي شركة أخرى”. ويُضيف قائلاً: “ليس لدينا تعريف محدد يختلف عن الاستخدام الشائع”.

لكن بالنسبة للممثل “ت”، وبالنسبة لممثلين آخرين، عادةً ما تعني كلمة “تجاري” الظهور في إعلان أو دور تلفزيوني ما، أو وفقاً لتعبير “ت”: “المشاركة في أي عمل يُباع مباشرة إلى المستهلك”.

لكن ماكشيري من مؤسسة الحدود الإلكترونية (EFF) تتساءل بشأن المقصد الحقيقي للشركة، خارج نطاق التصورات الضيقة الشائعة في صناعة الترفيه: “إنها شركة تجارية تنفذ أعمالاً تجارية”.

وقد قال كاليهوف أيضاً إنه “إذا طلب أحد العملاء منا استخدام صور كهذه (أي من الدراسة)، فسوف نصر على وجود موافقات شاملة، وتعويضات مناسبة للمشاركين، وشفافية كاملة. لكن هذا ليس عملنا أو اختصاصنا”،

اقرأ أيضاً: كيف يمكن أن يساعد مفهوم التسامح على التبنّي الناجح للذكاء الاصطناعي؟

غير أن هذا التصريح لا يتوافق مع صياغة اتفاق ترخيص البيانات، الذي ينص على أن ريل آيز هي مالكة حقوق الملكية الفكرية لبيانات الدراسة، لكن ميتا و”الأطراف المرتبطة بميتا التي تعمل بالنيابة عنها” تمتلك الحقوق الشاملة لهذه البيانات، بما في ذلك حقوق مشاركتها وبيعها. وهذا يعني أن كيفية استخدام هذه البيانات قد تكون خارجة عن سيطرة ريل آيز في نهاية المطاف.

وفقاً للاتفاق، تتضمن حقوق ميتا والأطراف التي تعمل بالنيابة عنها أيضاً:

  • تأكيد حقوق معينة تتعلق بهويات المشاركين (أي تحديد هوية المشارك أو التعرف عليه أو بناء قالب فريد مميز لوجهه و/ أو صوته، و/ أو الحماية ضد انتحال شخصيته وإساءة استخدام الهوية).
  • السماح لباحثين آخرين بإجراء أبحاث أخرى في المستقبل، باستخدام بيانات الدراسة وفق أي طريقة يرونها مناسبة (إجراء الدراسات والنشاطات البحثية المستقبلية بالتعاون مع باحثين تابعين لمؤسسات أخرى، بما في ذلك الحالات التي قد يستخدمون فيها بيانات الدراسة بطرق خارجة عن سيطرة ميتا).
  • إنشاء أعمال مشتقة من بيانات الدراسة لأي نوع من الاستخدام في أي وقت (الاستخدام، والتوزيع، وإعادة الإنتاج، والأداء العلني، والعرض العلني، والإعلان، والتعديل، وغير ذلك من الأعمال المشتقة من بيانات الدراسة، في أنحاء العالم كافة، وبصورة دائمة ولا رجعة فيها، وفي الصيغ والوسائط جميعها الموجودة الآن أو في المستقبل).

لم تكن هناك قيود مفروضة على الاستخدام سوى شرط واحد يلزم ميتا والأطراف الأخرى بـ “ألا تستخدم بيانات الدراسة لتطوير نماذج تعلم آلي تولد نسخة مطابقة لوجه المشارك أو صوته ضمن أي من منتجات ميتا” (مع ذكر التشديد على ذلك). على الرغم من هذا، لا يزال تنوع حالات الاستخدام المحتملة -والمستخدمين المحتملين- واسع النطاق. إضافة إلى هذا، لا يتضمن الاتفاق أي بنود تستحق الذكر لتهدئة مخاوف الممثلين حول “إمكانية استخدام قاعدة البيانات في المستقبل لتوليد عمل يبدو شبيهاً للغاية بأداء شخص محدد”، وفقاً لماكشيري.

عندما سألتُ كاليهوف عن الفرق الواضح بين تعليقاته وصياغة الاتفاق، أنكر وجود أي فرق، حيث قال: “نعتقد أنه لا يوجد أي تضاربات في أي من الاتفاقات، ونحن متمسكون بالتزاماتنا تجاه الممثلين وفق ما ورد في اتفاقاتنا لتوفير حماية شاملة لصورتهم وخصوصيتهم”. رفض كاليهوف التعليق على عمل ريل آيز مع العملاء، أو تأكيد إجراء الدراسة بالتعاون مع ميتا.

في هذه الأثناء، كانت ميتا تعمل على بناء “شخصيات رمزية رقمية مُرَمَّزَة” واقعية وثلاثية الأبعاد، وهي أكثر تعقيداً بكثير من الصور الكرتونية الموجودة في لعبة هورايزون وورلدز (Horizon Worlds)، ويحتاج إنتاجها بصورة مثالية إلى بيانات تدريب بشرية. مؤخراً، وخلال حديث للرئيس التنفيذي لشركة ميتا، مارك زوكربيرغ، في مدونة صوتية ذائعة الصيت لباحث الذكاء الاصطناعي ليكس فريدمان، وصف زوكربيرغ هذه الشخصيات الرقمية بأنها تمثل جوهر رؤيته للمستقبل، حيث يجتمع الواقع المادي والافتراضي والمعزز جنباً إلى جنب. ووفقاً لرؤية زوكربيرغ، فإن هذه الشخصيات الرقمية “تضفي إحساساً بالحضور كما لو كان الجميع حاضرين معاً في المكان نفسه، بصرف النظر عن أماكن وجودهم الفعلية في العالم الحقيقي”.

اقرأ أيضاً: موجة جديدة من أجهزة الذكاء الاصطناعي قد تحل محل الهواتف الذكية

وعلى الرغم من توجيهنا لميتا عدة طلبات للإدلاء بتعليق، لم ترد الشركة على أي من أسئلة إم آي تي تكنولوجي ريفيو، ولهذا لا نستطيع أن نؤكد غايتها من وراء استخدام هذه البيانات، أو معنى عبارة “الأطراف التي تعمل بالنيابة عنها”.

خيار فردي، وأثر جماعي

خلال إضرابات الكتّاب والممثلين، كان هناك شعور واضح بأن هوليوود تندفع نحو حدود جديد ستحدد كيفية تفاعلنا جميعاً مع الذكاء الاصطناعي. وعادة ما توصف هذه الحدود من وجهة نظر حقوق العاملين، أي الفكرة التي تقول إن أي شيء يحصل هنا سيؤثّر في عاملي قطاعات ومجالات أخرى ممن يحاولون التعامل مع التأثيرات المحتملة للذكاء الاصطناعي على سبل عيشهم.

لقد أصبحت المكاسب التي حققتها نقابة الكتاب نموذجاً لكيفية تنظيم أثر الذكاء الاصطناعي على الأعمال الإبداعية. فالعقد الجديد الذي وقّعته النقابة مع استوديوهات الإنتاج يحدُّ من استخدام الذكاء الاصطناعي في غرف الكتابة، ويشترط أن تُنسَب القصص إلى المؤلفين البشر فقط، ما يمنع الاستوديوهات من استخدام حقوق النشر لحماية الأعمال المُوَلدة بالذكاء الاصطناعي، ويمثّل رادعاً كبيراً لاستخدام الذكاء الاصطناعي في كتابة النصوص.

في بداية أكتوبر/ تشرين الأول، عادت نقابة الممثلين والاستوديوهات إلى طاولة المفاوضات، على أمل التوصل إلى قواعد مشابهة لعمل الممثلين. لكن سرعان ما انهارت المفاوضات بسبب “وجود هوة كبيرة للغاية بين اتحاد منتجي الصور المتحركة والتلفزيون (AMPTP) واتحاد ساغ أفترا”، وفقاً للبيان الصحفي لاتحاد الاستوديوهات. ووفقاً للتقارير، كان الذكاء الاصطناعي التوليدي -كيف يُتَوَقع من الممثلين الثانويين تقديم موافقتهم على إجراء عمليات المسح للجسم ومتى يُطلب منهم ذلك، على وجه التحديد- أحد المسائل الشائكة في المفاوضات.

اقرأ أيضاً: كيف تنشئ بيانات وهمية لتدريب نماذج الذكاء الاصطناعي؟

ومهما كان الاتفاق النهائي الذي سيتوصل إليه الطرفان، فإن هذا الاتفاق لن يحظر على الاستوديوهات استخدام الذكاء الاصطناعي، حيث لم يكن هذا جوهر المسألة قط. حتى إن الممثلين الذين اعترضوا على مشاريع تدريب الذكاء الاصطناعي عبّروا عن وجهات نظر أدق وأكثر تفصيلاً حول استخدام هذه التكنولوجيا. ويقرّ الممثل المشارك في بريكينغ باد، كومبت قائلاً: “لن نحظر استخدام الذكاء الاصطناعي بالكامل”. بدلاً من ذلك، “يتعين علينا فقط أن نعثر على وسائل تعود بالنفع على نطاق أوسع، فجوهر المسألة هو الأجور المعيشية”.

لكن الاتفاق المستقبلي، الذي سيُبرم بالتحديد بين الاستوديوهات ونقابة ممثلي الشاشة الأميركية (SAG)، لن يشمل الشركات التكنولوجية التي تجري مشاريع “بحثية”، مثل ميتا وريل آيز. إضافة إلى هذا، يمكن للتقدم التكنولوجي الذي تحقق في خدمة غرض معين -ربما التقدم الناجم عن دراسة “بحثية”- أن تكون له تطبيقات أخرى أوسع نطاقاً، سواء في نطاق الأفلام أو حتى في غيره.

“إن احتمال استخدام هذه التكنولوجيا التي طوّرتها الشركات في نطاق ضيق -لا يتجاوز تفاعل الجمهور أو الشخصيات الرقمية المرمزة فقط- صغير للغاية. وليس هذا الأسلوب الشائع في التعامل مع التكنولوجيا”، وفقاً لماكشيري من مؤسسة الحدود الإلكترونية. على سبيل المثال، لا يذكر اتفاق البيانات لدراسة المشاعر استخدام النتائج في التعرف على الوجوه من خلال الذكاء الاصطناعي على نحو صريح ومباشر، غير أن شيري تعتقد أنه يمكن استخدام هذه البيانات لتحسين أي نوع من أنظمة الذكاء الاصطناعي التي تتعلق بالوجوه أو التعابير البشرية.

اقرأ أيضاً: شركة أوبن أيه آي تواجه عواقب جشعها في جمع البيانات

(إضافة إلى هذا، فإن خوارزميات التعرف على المشاعر نفسها مثيرة للجدل، ولا يزال الجدل قائماً حتى حول عملها بمستوى الدقة الذي يزعم المطورون أنها وصلت إليه. هل نريد فعلاً أن “تخضع وجوهنا طوال الوقت للتقييم بناء على المنتجات التي ننظر إليها؟”، كما يتساءل الأستاذ في جامعة ييل، بوسادا).

يؤدي اجتماع هذه العوامل كلها إلى زيادة تعقيد مسألة الموافقة في هذه الدراسات البحثية الشاملة، فلا توجد طريقة تتيح للمشاركين المشاركة في حالات استخدام معينة أو الخروج منها. على سبيل المثال، سيكون “ت” راضياً إذا أدّت مشاركته إلى تحسين خيارات الشخصيات الرقمية في العوالم الافتراضية، مثل تلك التي يستخدمها مع نظارة أوكيولوس (Oculus) الخاصة به، على الرغم من أنه لم يوافق على هذه المسألة تحديداً.

لكن، ما الذي يتعين على الأفراد المشاركين في الدراسات -الذين قد يحتاجون إلى هذا الدخل- أن يفعلوه؟ وأي وزن أو نفوذ لهم في هذه الحالة؟ وما الذي يضمن أن الآخرين –حتى الرافضين للمشاركة- لن يتأثروا بهذا الوضع؟ قد يكون قرار تدريب الذكاء الاصطناعي قراراً فردياً، لكن الأثر ليس كذلك، فهو أثر جماعي.

تقول جيسيكا: “ما إن يلقموا هذه الأنظمة بصورتك وعدد معين من صور الآخرين، يصبحون قادرين على اختلاق مجموعة متنوعة فائقة الضخامة من الأشخاص ذوي الشكل المشابه. ولهذا، ليس هذا العمل تعدّياً مباشراً على الوجه، بالمعنى الحرفي للكلمة”. ربما يكون جوهر المسألة، كما تضيف جيسيكا قائلة: “إنهم يستخدمون صورتك دون تحمل أي مسؤولية تجاه هذا العمل”.

اقرأ أيضاً: لماذا هُزِم الذكاء الاصطناعي أمام هانز زيمر؟

فكر “ت” في احتمال استخدام البحث الذي أسهم فيه، يوماً ما، في بناء شخصيات رقمية تحل محل الممثلين تماماً.

لكن هذا الاحتمال لا يزال افتراضياً، على الأقل في الوقت الحالي.

يقول “ت” معترفاً: “سأشعر بالسخط دون شك، لكن في الوقت نفسه، من المرجح أنهم سيجدون طريقة مختلفة لتحقيق هذه النتائج إذا لم أوافق على شروطهم، وستكون طريقة خبيثة لا تستوجب الحصول على الموافقات”. إضافة إلى هذا، وكما يضيف “ت”، فقد “دفعوا مبلغاً جيدة جداً”.