$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6933 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(36835)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(13) "44.203.58.132"
  ["user_header"]=>
  object(stdClass)#7064 (41) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(150) "/%D9%85%D9%86%D8%B5%D8%A9-%D8%B2%D9%88%D9%85-%D9%88%D9%82%D8%B1%D8%A7%D8%A1%D8%A9-%D8%AA%D8%B9%D8%A7%D8%A8%D9%8A%D8%B1-%D8%A7%D9%84%D9%88%D8%AC%D9%87/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(19) "technologyreview.ae"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86bbd3453b9907bd-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(13) "44.203.58.132"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(79) "
Apache/2.4.57 (Debian) Server at technologyreview.ae Port 80
" ["SERVER_NAME"]=> string(19) "technologyreview.ae" ["SERVER_ADDR"]=> string(11) "172.18.0.20" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(13) "44.203.58.132" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "47300" ["REDIRECT_URL"]=> string(54) "/منصة-زوم-وقراءة-تعابير-الوجه/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711673002.033176) ["REQUEST_TIME"]=> int(1711673002) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#7063 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#7062 (2) { ["content_id"]=> int(36835) ["client_id"]=> string(36) "1d1883f4-87d0-4156-8903-e6ceb0cb4224" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

ماذا لو تمكنت منصة زوم من قراءة تعابير وجهك؟

6 دقائق
ماذا لو تمكنت منصة زوم من قراءة تعابير وجهك؟
مصدر الصورة: لينكد إن سيلز سوليوشنز/ أنسبلاش
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

حالياً، تعمل الشركات على تطوير وبيع منتجات الذكاء الاصطناعي التي يمكن أن تصف لرب عملك أو أستاذك مشاعرك أمام الكاميرا. ومن المفترض أن برامج الذكاء الاصطناعي العاطفي (Emotion AI) قادرة على التقاط التعابير العادية والدقيقة باستخدام الرؤية الحاسوبية، ومن ثم استخدامها لحساب رقم يعبر عن مدى اندماج شخص ما مع ما يقال في غرفة الصف الافتراضية، أو حتى مدى الإيجابية في استجابته لعرض مبيعات. ولكن ليس من الواضح ما هي درجة نجاح هذه البرامج، أو حتى ما إذا كانت تعمل على الإطلاق.

ففي حلقة حديثة من “ماذا بعد: نقاش لاحق” (What Next: TBD) تحدثت مع كيت كاي، وهي مراسلة لمجلة “بروتوكول” (Protocol) حول قدرة الذكاء الاصطناعي الفعلية على تحديد المشاعر. وقد تم تعديل وتكثيف هذا الحوار لمزيد من الوضوح.

ليزي أوليري: هلا شرحت لنا ما هو الذكاء الاصطناعي العاطفي؟

كيت كاي: ما تقوم به معظم التكنولوجيات هو التقاط بيانات التعابير الوجهية باستخدام كاميرا ما لمسح الصورة، ومن ثم تطبيق الرؤية الحاسوبية لكشف الفئة التي يقع التعبير الوجهي ضمنها. ومن البيانات الأخرى المستخدمة في الذكاء الاصطناعي العاطفي، نبرة الصوت. كما يمكن أيضاً أن تستخدم أشياء أخرى، مثل السياق النصي.

يتم استخدام الذكاء الاصطناعي العاطفي لتتبع مدى تواصل موظفي خدمة العملاء مع عملائهم، وكيفية استجابة الجمهور للإعلانات، ودرجة تركيز سائق السيارة خلف المقود. ولقد أصبت بدهشة حقيقية من إحدى قصصك حول المشكلة البشرية للمبيعات خلال الوباء. فالمبيعات اختصاص يتطلب درجة عالية من الانتباه إلى هذه الإشارات الصغيرة، مثل نبرة الصوت والابتسامة وحركة العيون المتسائلة، ومن الصعب القيام بهذا على الإنترنت. هل يمكن أن تشرحي لنا كيف تخطط هذه الشركات لاستخدام الذكاء الاصطناعي العاطفي في المبيعات؟

من الشركات التي كتبت عنها شركة “يونيفور” (UNi4). وقامت هذه الشركة بتصميم برنامج مخصص للمبيعات، وفي الواقع، فإن نظامهم قادر على العمل في الزمن الحقيقي. لنفترض أنك تجري الآن مكالمة على منصة زوم. فإن أول شيء يطلبه البرنامج هو السماح له بالتسجيل. ومن ثم يعرض على شاشة موظف المبيعات مؤشرات تقيس مستوى الاهتمام والعاطفة، إما لشخص واحد أو للغرفة بأسرها، ويعطي معلومات مثل “لقد ارتفع مستوى الاهتمام للتو” أو “لقد انخفض مستوى الاهتمام بحدة بمجرد ذكر سعر البرنامج الذي تبيعينه”.

اقرأ أيضاً: ذكاء واع أو وهمي: ماذا يعلمنا لامدا حول التصرف البشري عند التفاعل مع الذكاء الاصطناعي؟

هل تقيس هذه البرامج درجة الاهتمام فقط، أم أنها تراقب مؤشرات أخرى أيضاً؟

هذا ما قررت هذه الشركة اتباعه بالضبط لتحويله إلى منتج، حيث تعمد إلى قياس مستوى الاهتمام ونوع العاطفة. كما أنها تقدم التقارير أيضاً. حيث يمكن لمدير المبيعات الاطلاع على أداء جميع موظفي هذه المبيعات خلال هذا الشهر من خلال مستوى الاهتمام الذي حصلوا عليه. وتقدم هذه الشركة تقريراً، إضافة إلى ملاحظة تقول مثلاً: “رائع، لقد ارتفع الاهتمام بنسبة 10% هذا الشهر!”. وعند إدارة المئات من موظفي المبيعات، فقد يكون من المفيد ألا نساعدهم فقط، بل أن نراقب أيضاً براعتهم في أداء العمل وفق مؤشرات أخرى غير المبيعات الفعلية، وهي طريقة تسمح بتحديد بعض من هذه المؤشرات تحديداً كمياً.

إن فكرة تسجيل تجارب المبيعات وتقييمها ليست بالجديدة. فعند الاتصال بخدمة العملاء، عادة ما نسمع أن هذه المكالمة قد يتم تسجيلها لمراقبة الجودة. ولكن ما يحدث في هذه الحالة يتجاوز مجرد تقييم الجودة، لأنه يحدث في الزمن الحقيقي. ماذا تقول الأدلة حول قدرة التعلم العميق على قراءة المشاعر بدقة؟

لقد تم إجراء بعض الأبحاث مؤخراً حول هذا الموضوع، وهي تشير إلى أن التعلم العميق غير قادر على هذا.

اقرأ أيضاً: العناوين المتطابقة لتسجيلات اجتماعات زوم تجعلها متاحة للغرباء

في دراسة كبيرة تم نشرها في 2019، وجدت مجموعة من علماء النفس أن استنباط المشاعر من حركات الوجه أمر صعب للغاية. فقد أمضوا سنتين في تفحص البيانات، وتفحص أكثر من 1,000 دراسة تتعلق بهذا الموضوع. وقالوا إن المشاعر البشرية، وببساطة، أكثر تعقيداً من أن تُقاس باستخدام التعابير الوجهية وحدها. فإذا عبست، قد يكون هذا عائداً إلى الغضب، ولكنه قد يُعزى أيضاً إلى الارتباك أو صعوبة الرؤية. إضافة إلى هذا، فإن التعابير المختلفة قد تعني أشياء متنوعة تختلف باختلاف الثقافة.

وبالتالي، فإن قدرة البشر على تقييم هذه المسائل أمر مشكوك فيه إلى درجة كبيرة. وأعتقد أننا يجب أن نتذكر أنه من الضروري أن نتساءل عن قدرتنا على القيام بشيئ ما قبل أن نتساءل عن قدرة التكنولوجيا على القيام به.

ما هي البيانات المستخدمة لتدريب هذه النماذج حتى تتمكن من تحديد تعابير الوجه، والمشاعر المرتبطة بهذه التعابير؟

في عالم الذكاء الاصطناعي، توجد قوة عمالة بأسرها متوزعة في جميع أنحاء العالم ضمن بلدان تتسم بانخفاض كبير في تكاليف العمالة، حيث يتم استئجار الناس فقط لتصنيف كتل البيانات المنفردة وإضافة تعليقات توضيحية لها، والتي يتم تلقيمها لاحقاً إلى أنظمة الذكاء الاصطناعي حتى تتدرب عليها. وهكذا، قامت الشركات بتوظيف هؤلاء الأشخاص، وقدمت لهم توجيهات حول ما يمكن أن يعتبر وجهاً سعيداً أو حزيناً أو مرتبكاً أو مهتماً أو أي صفة أخرى. وإذا كان هناك خلاف بين عدة مصنّفين حول إحدى كتل البيانات، فعندئذ يتم ضم هذه الكتلة إلى مجموعة التدريب فقط عند اتفاق أكثر من مُصَنِّف على طريقة تصنيفها؟ وعند الحديث عن تصنيف البيانات، عادة ما يُستخدم مثال صور التفاح والموز. فنحن ندرك جيداً الفرق بين قط وكلب، وبين تفاحة وموزة، ولن يثير أي شخص جدلاً حول هذه المسألة. أما التعابير الوجهية فهي مسألة مختلفة بعض الشيئ. ألا يجب أن تُعتبر هذه البيانات أمراً مختلفاً؟

ولكن يبدو أن الأوان قد فات فيما يتعلق بطريقة إنتاج المنتجات، ومدى دقتها وموثوقيتها.

لقد فات الأوان بالفعل فيما يتعلق بتقديم هذه المنتجات، ومن المؤكد أننا سنشهد تقديم المزيد منها. فشركة “زوم” (Zoom) نفسها بدأت بدراسة إدماج عملية تقييم المشاعر اعتماداً على الذكاء الاصطناعي ضمن برنامج مبيعات أطلقته مؤخراً. لا يحمل البرنامج هذه الميزة بعد، ولكنهم قالوا لي: “نحن نفكر جدياً في هذا الأمر”. وإذا نفذت زوم ما تفكر فيه، فسوف يكون هذا تغييراً مهماً.

وسيكون تغييراً مهماً على وجه الخصوص في الصفوف الدراسية على الإنترنت، وهي إحدى أولويات الشركات التي تنتج هذه التكنولوجيا. وتعمل “إنتل” (Intel) مع شركة تسمى “كلاس روم تكنولوجيز” (Classroom Technologies) على تطوير نظام ذكاء اصطناعي عاطفي يعمل مع زوم.

اقرأ أيضاً:باستخدام أداة لتحليل المشاعر: بحث جديد يقول إن الطبيعة تجعل الناس أكثر سعادة‎‎

أما الفكرة فهي كما يلي: لنساعد المدرس على تحديد مدى استيعاب الطلاب لمواضيع الدروس، ومدى ارتباكهم، أو حتى إصابتهم بالملل. وفي هذه المرحلة، قالوا لي: “نحن لا نعلم حتى كيف يمكن إدماج هذا النظام. ونشعر بأن ما تقدمه إنتل يمكن استخدامه من قبل الدرس كمؤشر إضافي. ولهذا، فنحن لا نعرف الشكل النهائي لهذا النظام بعد”.

حالياً، يبدو كل هذا أقرب ما يكون إلى اختبار للفكرة. ما احتمال تحول نظام ما، مثل الذي تعمل عليه إنتل حالياً، إلى منتج يباع في الأسواق التعليمية؟

تستطيع شركة مثل إنتل أن تطلق عليه تسمية اختبار للفكرة، ولكن في نهاية المطاف، فإن هذا جزء من عملية بناء المنتج وتقييمه. ويبدو أن التكنولوجيات الجديدة المستخدمة من قبل البعض، أو الميزات الجديدة، ستجد طريقها إلى الأسواق في نهاية المطاف. ويكفي أن نأخذ بعين الاعتبار أن زوم يمكن أن تقوم بإدماج الذكاء الاصطناعي في برنامج المبيعات الخاص بها، فمنصة زوم مُستخدمة في الغرف الصفية في جميع أنحاء العالم!  وإذا وجدت زوم قيمة ما في تزويد برنامج المبيعات بالذكاء الاصطناعي العاطفي، فقد ينتهي به المطاف في غرفة الصف أيضاً.

لقد تمكنت الشركات التي تصنع برامج الذكاء الاصطناعي العاطفي من اجتذاب الكثير من الممولين الأثرياء. فهناك الكثير من المستثمرين الذين يدعمون كلاس روم تكنولوجيز، بما فيهم لاعب كرة القدم الأميركية توم بريدي، وستيف كيس، أحد مؤسسي “أيه أو إل” (AOL)، وشركة “سيلز فورس فينشرز” (Salesforce ventures). وفي جميع تقاريرك، لقد صُدِمتُ بالتقييمات الخاصة بهذه الشركات البرمجية، والمستثمرين، ومقدار الأموال المستثمرة. وأشعر بوجود زخم في هذا العمل. هل هذا صحيح في رأيك؟

إن مجرد فكرة إدماج الذكاء الاصطناعي العاطفي في أنظمة أخرى ليست بالضرورة مصدر هذا الزخم. ولكن، إذا عدنا إلى شركة يونيفور التي استخدمتها سابقاً كمقال، سنجد أنها أنهت مؤخراً جولة تمويل من المستوى E بقيمة 400 مليون دولار. إنه مبلغ ضخم. وأعتقد أن هذه الشركة تقوم بالترويج لهذا العنصر المتعلق بالذكاء الاصطناعي العاطفي كجزء أساسي من تسويق عمل الشركة، كما أن قدرتها في الحصول على كل هذه الأموال هي مؤشر مهم على اختلافها عن العديد من الشركات في المجالات التكنولوجية الأخرى.

اقرأ أيضاً: كيف تمكن زوم من الإطاحة بسكايب والتربع على عرش خدمات مكالمات الفيديو؟

بوصفه جزءاً من اختصاصك، هل يبدو الذكاء الاصطناعي العاطفي مختلفاً عن غيره من أنواع الذكاء الاصطناعي التي قمت بتغطيتها في تقاريرك الصحفية؟

لقد تحدثت عن الأشياء التي تستخدمها الشركات. وفي كثير من الأحيان، تقوم الشركة بعملية تحليل للبيانات مدفوعة برغبتها في تحسين فعاليتها كشركة، أو تعزيز قدرتها على التصنيع بتوقع احتياج بعض التجهيزات للصيانة على سبيل المثال. وفي الكثير من الأحيان، فإن استخدامات الذكاء الاصطناعي تكون رتيبة إلى درجة ما، كما يمكن أيضاً أن تتضمن بيانات لا تتعلق بالناس، على الأقل بأي طريقة مباشرة. وفي هذه الحالة، يبدو لي هذا الذكاء الاصطناعي مختلفاً، لأننا نتحدث هنا عن عنصر جسدي للغاية وشخصي للغاية من أجسامنا وهويتنا كأشخاص. ونحن ننظر إلى هذا المجال على أنه يتعلق ببيانات القياسات الحيوية، وهو مصطلح قاصر وغير معبر على الإطلاق. وفي الواقع، فإن هذا الذكاء الاصطناعي يشير إلى طريقتنا في المشي والكلام وشكل وجوهنا. وباختصار، إلى هويتنا.

Content is protected !!