مرشحون للوظائف يستغلون التزييف العميق للمنافسة والحصول على فرص عمل أفضل

3 دقائق
مرشحون للوظائف يستغلون التزييف العميق للمنافسة والحصول على فرص عمل أفضل
حقوق الصورة: shutterstock.com/ fizkes
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

قال مكتب التحقيقات الفيدرالي الأميركي إنه لاحظ زيادةً في عدد الأشخاص الذين يستخدمون تكنولوجيا “التزييف العميق” (Deepfake) من أجل التظاهر بأنهم أشخاص آخرون في مقابلات العمل التي يجرونها عن بعد.

وأكد المكتب أن هؤلاء الأشخاص يستهدفون بشكلٍ خاص شركات تكنولوجيا المعلومات من أجل المنافسة ضد المرشحين الآخرين، أو للدخول إلى تلك الشركات والوصول لبياناتها الحساسة وسرقتها.

أكد المكتب في نفس الوقت أن استخدام تكنولوجيا التزييف العميق لانتحال الشخصية في مقابلات العمل هو أمر غير مضمون ولا ينجح في كل الحالات. لكن يمكن أن يتطور ذلك في المستقبل، ما يشكل علامة إنذار مبكرة لكل الشركات التي تجري مقابلات العمل عن طريق الإنترنت.

ما الذي جاء في إعلان مكتب التحقيقات الفيدرالي؟

صدر إعلان مكتب التحقيقات الفيدرالي في 28 يونيو/حزيران 2022، وجاء فيه أن المكتب لاحظ زيادة طفيفة في عدد الشكاوى التي يتلقاها حول قيام الأشخاص بإنشاء مقاطع فيديو أو صور أو مقاطع صوتية مفبركة باستخدام تكنولوجيا التزييف العميق من أجل الحصول على مزايا في مقابلات العمل.

وأكد المكتب في إعلانه أن معظم هذه الشكاوى تتعلق بمناصب وظيفية في شركات التكنولوجيا، وحذر من أن يؤدي توظيف هؤلاء الأشخاص أو منحهم الوصول إلى بيانات الشركة لأضرار كبيرة، لأنهم سيصبحون قادرين على الوصول للبيانات الحساسة، والتي قد تشمل البيانات الشخصية لعملاء الشركة مثل معلومات الدفع الإلكتروني أو أرقام الهواتف وغيرها.

اقرأ أيضاً: الذكاء الاصطناعي يرسم مستقبل عملية التوظيف في الشركات

تكنولوجيا التزييف العميق

تقنية التزييف العميق هي تقنية حديثة تطورت وانتشرت خلال الأعوام السابقة. يتم فيها استخدام الذكاء الاصطناعي للتلاعب بالصور والفيديوهات، وقد بدأت هذه التكنولوجيا في البداية لأغراض الترفيه، حيث كان البعض يستخدمها لإضافة صورته إلى مقاطع فيديو الأفلام، لكن نجاحها أدى إلى تفكير البعض باستخدامها من أجل فبركة مقاطع الأخبار والتضليل الإعلامي. على سبيل المثال، قالت شركة ميتا الأميركية في شهر آذار/مارس الماضي إنها حذفت مقطع فيديو استخدمت فيه تكنولوجيا التزييف العميق، يظهر في المقطع الرئيس الأوكراني فولوديمير زيلينسكي وهو يطلب من القوات الأوكرانية إلقاء سلاحها وإعلان استسلامها للجيش الروسي.

مثل هذا المقطع يمكن أن يكون ضاراً للغاية، فقد يؤثر على معنويات الجنود الأوكرانيين الذين يقاتلون على جبهات القتال، ما يؤدي إلى تغيير موازين القوى.

ما يثير القلق من هذه التكنولوجيا أيضاً الأضرار التي يمكن أن يواجهها الأشخاص العاديون إذا قام البعض باستهدافهم بمقاطع فيديو مزيفة، تظهرهم في وضعيات مخجلة أو مخلة، إذ يتعرض الكثيرون وخاصةً النساء للمضايقات والابتزاز عن طريق مقاطع فيديو إباحية مفبركة لهن.

اقرأ أيضاً: إليكم ثلاث مشاكل ناتجة عن التزييف العميق لن تستطيع التقنية أن تحلّها

التزييف العميق في مقابلات العمل

يبدو أن ظاهرة استغلال التزييف العميق في مقابلات العمل قد انتشرت بشكلٍ كبير خلال جائحة كوفيد-19، فقد أدت هذه الجائحة إلى إجراء الكثير من مقابلات العمل عن بعد عبر شبكة الإنترنت، ما أدى في البداية إلى لجوء بعض المرشحين للاستعانة بمساعدين من أجل الإجابة عن الأسئلة أثناء المقابلة.

فيما بعد فكر البعض في استخدام تكنولوجيات أخرى متطورة، من بينها تقنية التزييف العميق لفبركة مقاطع الفيديو وصور ومقاطع صوتية.

يقول مكتب التحقيقات الفيدرالي إن هناك توجه واضح من قبل الكثيرين لاستخدام تقنية التزييف العميق من أجل مساعدتهم في الحصول على وظائف، لكن على الرغم من ذلك، لم يذكر المكتب إحصائيات تتعلق بعدد الحالات التي تم تسجيلها أو عدد الشكاوى التي تلقاها.

اقرأ أيضاً: الذكاء الاصطناعي يثبت تفوقه على البشر في اختيار المرشح الأفضل للوظيفة

هل يمكن كشف التزييف العميق؟

مع ازدياد عدد مقاطع الفيديو المفبركة عن طريق تقنية التزييف العميق خلال الأعوام الماضية. بدأت شركات التكنولوجيا وجهات إنفاذ القانون وأجهزة الاستخبارات والعديد من المنظمات بالتفكير في إنشاء تقنيات وحلول تساعد على كشف هذا التزييف.

تتوفر حالياً العديد من التقنيات والحلول التي يمكن استخدامها، لكنها ما تزال غير مضمونة 100%، ووفقاً لتقرير صادر عن شركة استخبارات التهديدات الهولندية “سينسيتي” (Sensity)، تفشل تقنيات مكافحة التزييف العميق في الكشف عن 86 بالمئة من الفيديوهات.

على الرغم من ذلك، يمكن دعم هذه التقنيات بالمساعدة البشرية، حيث يستطيع البشر ملاحظة أي تغييرات في الأضواء أو الظلال أو الحركات أو الأصوات في الفيديوهات، ما يؤدي إلى كشف التزييف.

اقرأ أيضاً: هل يمكن اعتماد التوظيف باستخدام الذكاء الاصطناعي أم أنه في حاجة للتدقيق؟

نصيحة من مكتب التحقيقات الفيدرالي لكشف التزييف العميق

قال مكتب التحقيقات الفيدرالي إن هناك طريقة يمكن من خلالها كشف التزييف العميق، وهي من خلال مقارنة الصوت مع الفيديو. ففي معظم الحالات، لا تكون حركة شفاه الشخص متناسقة مع الصوت الصادر. خاصة إذا كان ذلك يتم وقت الفعلي، مثل مقابلة عمل مباشرة. كما أن بعض الأصوات يمكن أن تساعد في كشف التزييف، مثل السعال أو العطاس.

اقرأ أيضاً: نصائح لكتابة سيرة ذاتية تنال إعجاب الذكاء الاصطناعي

نصح مكتب التحقيقات الفيدرالي أيضاً جميع الشركات والأشخاص بأن يبلغوا عن حالات التزييف العميق التي يلاحظونها أو إذا شعروا بأنهم ضحية لعملية احتيال بتقنية التزييف العميق.