يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
شركة أيرلندية تطوّر تقنية للتعرف على أصوات الأطفال
ترتبط التقنيات الصوتية في أذهان معظم الناس بمساعدي الذكاء الاصطناعي الشخصيين، مثل أليكسا وسيري وكورتانا، إلا أن تلك التقنيات مصممة في المقام الأول للبالغين فقط. لذلك طورت مختبرات شركة سوب بوكس (SoapBox) الأيرلندية تقنية تعرّف على الكلام مصممة خصيصاً للأطفال، وتستخدم تلك التقنية حالياً في العديد من المجالات كالألعاب والتطبيقات التعليمية.
وتقول باتريسيا سكانلون، مؤسسة الشركة ورئيستها التنفيذية، إن الأطفال لديهم طبقة صوت أعلى أو يستخدمون لغة أو أنماط كلام مختلفة عن البالغين، ولا تستطيع تقنيات الصوت العادية أن تفهم تلك الأصوات دائماً. لذا، قامت سوب بوكس ببناء محركها الصوتي من الصفر، مع التركيز على الأطفال الذين تتراوح أعمارهم بين عامين و12 عاماً.
وتقول الشركة -التي تتخذ من مدينة دبلن مقراً لها- إنها أنشأت مجموعة بيانات لتدريب نظام الذكاء الاصطناعي الخاص بها تتكون من آلاف الساعات من كلام الأطفال. وأوضحت أن جمع الكلام تم في بيئات صاخبة في العالم الحقيقي، مثل المطابخ والفصول الدراسية والسيارات، من أطفال من جميع الأعمار واللهجات من 192 دولة.
ومن المتوقع أن يفتح هذا الأمر سوقاً جديدة بالكامل، حيث يتزايد الطلب على تلك التقنيات. ومن المتوقع أن يتم استخدام أكثر من 8 مليارات مساعد صوت رقمي بحلول عام 2024، ارتفاعاً من 4 مليارات في 2020، كما أن ثمة تركيز متزايد على تعديل التكنولوجيا للأطفال. وكانت شركة أمازون قد أطلقت العام الماضي الجيل الجديد من جهاز (Echo Dot Kids Edition)، وهو جهاز يستخدم المساعد الشخصي أليكسا ويركز على الأطفال.
وقد جمعت سوب بوكس، منذ تأسيسها عام 2013، تمويلاً يقدر بأكثر من 12 مليون دولار، واجتذبت أكثر من 50 عميلاً من جميع أنحاء العالم. كما عقدت شراكات مع شركات تعليم عبر الإنترنت مثل شركة أمبليفاي (Amplify) ومركز فلوريدا لأبحاث القراءة. وكذلك تُستخدم التتقنيات التي طورتها الشركة من قبل شركات الألعاب التي ترغب في إنشاء ألعاب مزودة بصوت يمكنها الدردشة مع الطفل، أو تقديم تجارب الواقع الافتراضي أو المعزز.
الرابط (إنجليزي)
مئات من أدوات الذكاء الاصطناعي في مواجهة كوفيد.. دون فائدة تُذكر
عندما تفشى وباء كوفيد-19 في أوروبا في مارس 2020، غرقت المستشفيات في أزمة صحية لا يمكن استيعابها حتى يومنا هذا. ولكن كانت تتوافر بيانات صادرة عن الصين التي انطلقت في سباقها في وقت أبكر بأربعة أشهر للتصدي للوباء. فإذا أمكن حينئذٍ تدريب خوارزميات التعلم الآلي على تلك البيانات لمساعدة الأطباء على فهم ما يتعاملون معه واتخاذ القرارات، فقد يؤدي ذلك إلى إنقاذ الأرواح.
بيد أن عدة دراسات حديثة أوضحت أن تلك الآمال ذهبت أدراج الرياح، رغم الجهود الكبيرة التي بذلتها الفرق البحثية حول العالم لتحويلها إلى حقيقة. وفي المحصلة، تم تطوير عدة مئات من الأدوات التنبؤية، لكن لم يُحدث أي منها فرقاً حقيقياً، بل ربما كان بعضها ضاراً.
وفي يونيو الماضي، أصدر معهد تورينج (المركز الوطني البريطاني لعلوم البيانات والذكاء الاصطناعي) تقريراً يلخص مناقشات سلسلة من ورش العمل التي عقدها في أواخر عام 2020. وكان الإجماع واضحاً على أن أدوات الذكاء الاصطناعي لم تحمل تأثيراً يُذكر -إن وجد- في مواجهة كوفيد.
فحصت إحدى الدراسات 232 خوارزمية لتشخيص المرضى أو التنبؤ بمدى تطور الأعراض عند المصابين بالمرض، وتوصلت إلى أن أياً من هذه الخوارزميات لم تكن صالحة للاستخدام السريري. وحددت الدراسة اثنتين منها فقط باعتبارهما واعدتين بما يكفي ليختبرونهما مستقبلاً. وفي دراسة أخرى نُشرت في دورية نيتشر ماشين إنتيليجينس (Nature Machine Intelligence)، قام الفريق البحثي بتمحيص نماذج التعلم العميق الخاصة بتشخيص الإصابة بكوفيد والتنبؤ بدرجة الخطورة على المريض بناء على الصور الطبية، مثل صور الأشعة السينية للصدر والتصوير المقطعي الحاسوبي للصدر (CT). وقد أخضعوا 415 أداة منشورة للفحص وتوصلوا إلى أن أياً منها لا يصلح للاستخدام السريري.
ووجد كلا الفريقين أن الباحثين قد كرروا نفس الأخطاء الأساسية في طريقة تدريب أو اختبار أدواتهم. وغالباً ما تفضي الافتراضات الخاطئة حول البيانات إلى عدم نجاح النماذج المدربة في العمل على النحو المطلوب.
الرابط
كيف تغيّر عمليات التزييف المتقنة نظرتنا للواقع؟
فتحت مقاطع الفيديو المزوّرة بتقنية عالية -التزييف العميق- الباب أمام حرية التلاعب بالمحتوى المرئي، للتأثير على الرأي العام ونشر معلومات مضللة. وتستخدم تقنية التزييف العميق الذكاء الاصطناعي لإنشاء صور مفبركة أقرب ما تكون إلى الحقيقة إلى درجة أنها لا تخدع أعيننا فحسب، بل تخدع أيضاً الخوارزميات المستخدمة للتعرف عليها.
ويرى عدد من خبراء تقنية التزييف العميق في سويسرا أن القضية أصبحت سباقاً مع الزمن. فمع تطور التكنولوجيا، انفجر بركان التلاعب بالمعلومات وأصبح -مع تفشي وسائل التواصل الاجتماعي- يهدد الأمن القومي في أنحاء كثيرة من العالم. ويقول توراج إبراهيمي، الذي يرأس مختبر معالجة إشارات الوسائط المتعددة التابع للمعهد التقني الفدرالي العالي في لوزان بسويسرا إن دولاً مثل روسيا والصين وإيران وكوريا الشمالية نشطة للغاية في نشر الإشاعات، والأخبار المزيفة باستخدام تقنية "التزييف العميق" داخل وخارج حدودها الوطنية.
ويوضح إبراهيمي أنه ليس من السهل على الناس التشكيك في صحة ما تراه الأعين، مشيراً إلى دراسة أجرتها جامعة إم آي تي أظهرت أن الأخبار المزيفة تنتشر على تويتر بسرعة قد تفوق الأخبار الحقيقية بست مرات. كما أن جودة مقاطع الفيديو مستمرة هي الأخرى في التطور، ووفقاً لإبراهيمي: "بإمكان أي دولة لديها موارد غير محدودة أو غنيّة أن تنتج اليوم فيديوهات مزيّفة تطابق الحقيقية لدرجة أنها تخدع حتى أكثر العيون خبرة"، وبينما تستطيع البرامج المتطورة كشف التزييف، إلا أن أستاذ المعهد التقني الفدرالي العالي في لوزان يقدر أنه في غضون عامين إلى خمسة أعوام لن تكون حتى الآلات المتطوّرة قادرة على تمييز المحتوى الحقيقي من المزيف.
من جانبه، يتوقع سيباستيان مارسيل، كبير الباحثين في معهد الأبحاث السويسري آي دياب (idiap)، أن تقنية التزييف العميق الحالية تتيح التلاعب بالمحتوى المرئي فقط، وليس الصوتي، وإذا لم تؤخذ الأصوات من مقاطع فيديو أخرى، فبالإمكان انتحالها من قبل محترفين، ويحذر من أنه " بينما لا يزال تزييف الصوت يمثل تحدياً، سنشهد مستقبلاً تقنية في غاية الواقعية، قادرة على استنساخ صورة أي شخص وصوته في الوقت الحقيقي وبدقة متناهية"، وعندئذ ستصبح عمليات التلاعب، مثل فبركة فضائح زائفة ضد منافسين لتعطيل صفقات أو عقود تجارية غير مرغوب بها، أمراً في غاية السهولة.
الرابط
|