يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
مايكروسوفت تستخدم التعلم المعزز لإنشاء برمجيات ضارة لتوقع الهجمات السيبرانية
يبدو مجال أمن الحاسوب (الأمن السيبراني) اليوم كلعبة القط والفأر بين المهاجمين والمدافعين. يصنع المهاجمون برامج أكثر تعقيداً لاختراق أنظمة المدافعين، فيبني المدافعون دفاعات جديدة بناء على ما تعلموه من الهجمات، ما يجبر المهاجمين على ابتكار استراتيجيات جديدة في الهجوم. لذا، حاول باحثون من شركة مايكروسوفت ومعهد بيرلا للعلوم والتكنولوجيا (بيتس بيلاني) ابتكار أداة ذكية لمنح المهاجمين طرقاً جديدة لخداع المدافعين باستخدام تقنيات الذكاء الاصطناعي.
وفي دراسة لم تخضع بعد لمراجعة الأقران، نشرت على خادم ما قبل النشر (arxiv)، ذكر الباحثون أنهم قاموا ببناء برنامج لتوليد البرمجيات الضارة باستخدام تقنية التعلم العميق المعزز، أطلقوا عليه اسم (ADVERSARIALuscator). ويجمع هذا البرنامج المعقد بين نظام كشف التسلل (IDS) وبعض عينات البرمجيات الضارة، ثم يُستخدم التعلم المعزز لإنشاء أشكال مختلفة من البرمجيات الضارة التي تتخطى نظام كشف التسلل. وللقيام بذلك، يستخدم الباحثون شبكة توليدية تنافسية (GAN) -المزيد من التفاصيل حول هذا النوع من الشبكات في فقرة "مصطلح اليوم"- حيث يجعلون وكيل التعلم العميق يلعب دور "المولِّد" فيما يلعب نظام كشف التسلل دور "الحَكَم". ويحصل الوكيل على عينة من برمجية ضارة، ويحاول خداع نظام كشف التسلل لينظر إليه كبرنامج حميد وليس جزءاً من البرمجية الضارة.
وتظهر نتائج الاختبارات التي أجريت على البرنامج، أن الوكلاء المدربين تمكنوا من إخفاء معظم البرمجيات الضارة، وأن "أكثر من 33٪ من الحالات المتحولة التي تم إنشاؤها بواسطة البرنامج كانت قادرة على التهرب حتى من أفضل أنظمة كشف التسلل التي تم تدريبها واختراق النظام المستهدف، حتى عندما يتمكن نظام كشف التسلل من اكتشاف البرمجية الضارة الأصلية".
ويقول الباحثون إن الهدف من تطوير هذا البرنامج هو تحسين السياسات المطبقة في مجال الأمن السيبراني. كما يمكن استخدام البيانات والمحاكاة التي تم إنشاؤها لتعزيز دفاعات أنظمة كشف التسلل ضد الهجمات البرمجيات الضارة وبرامج الفدية المتقدمة المعتمدة على الذكاء الاصطناعي.
الرابط (إنجليزي)
ما الذي يحتاج إليه المرضى لوضع ثقتهم بتطبيقات الذكاء الاصطناعي في المجال الطبي؟
أصبحت تطبيقات الرعاية الصحية المدعومة بالذكاء الاصطناعي المستخدمة في الرعاية التشخيصية متاحة على نطاق واسع للمستهلكين، بل ويمكن أيضاً الوصول إلى بعضها من خلال الهواتف الذكية. على سبيل المثال، أعلنت شركة جوجل مؤخراً دخولها إلى هذه السوق بأداة قائمة على الذكاء الاصطناعي تساعد الأشخاص في التعرف على حالة الجلد والشعر والأظافر.
ومع ذلك، فإن هناك عائق رئيسي أمام اعتماد هذه التكنولوجيات وهو أن المستهلكين يميلون إلى الثقة بتكنولوجيات الذكاء الاصطناعي المستخدمة في المجال الطبي بدرجة أقل من مقدمي الرعاية الصحية من البشر. فهم يعتقدون أن الذكاء الاصطناعي في المجال الطبي يفشل في تلبية احتياجاتهم الفريدة وأن أداءه أسوأ من مقدمي الرعاية الصحية من البشر، ويشعرون أنهم لا يستطيعون مساءلة الذكاء الاصطناعي عن الأخطاء بالطريقة نفسها التي يمكنهم بها مساءلة البشر.
وتظهر دراسة نُشرت مؤخراً في مجلة "نيتشر هيومان بيهيفيور" (Nature Human Behaviour) أن تبني المستهلكين للذكاء الاصطناعي في المجال الطبي يتعلق بتصوراتهم السلبية عن تطبيقات الرعاية الصحية المعتمدة على الذكاء الاصطناعي بقدر ما يتعلق بوجهات نظرهم الإيجابية غير الواقعية عن مقدمي الرعاية الصحية من البشر. إذ يتردد المستهلكون في الاعتماد على تطبيقات الرعاية الصحية القائمة على الذكاء الاصطناعي لأنهم لا يعتقدون أنهم يفهمون بموضوعية كيف يصنع الذكاء الاصطناعي القرارات الطبية؛ فهم ينظرون إلى عملية صناعة القرار التي يستخدمها الذكاء الاصطناعي على أنها صندوق أسود.
ولتشجيع المستهلكين على استخدام تطبيقات الذكاء الاصطناعي في المجال الطبي، وجد مؤلفو الدراسة أن ثمة نشاطين ناجحين ومختلفين قليلاً وتضمنا شرح كيفية صناعة كلا نوعي مقدمي الرعاية الصحية للقرارات الطبية. في إحدى التجارب، أوضحوا كيف يستخدم كلا النوعين إطار أيه بي سي دي (ABCD) وهي الحروف الأربعة الأولى من الكلمات الآتية: عدم التناظر (asymmetry) والحواف (border) واللون (color) والقطر (diameter) لفحص الشامات لتقييم مخاطر الإصابة بأورام خبيثة. وفي تجربة أخرى، أوضحوا كيف يقوم كلا النوعين من مقدمي الرعاية الصحية بفحص التشابه البصري بين الشامة المستهدفة والشامات الأخرى المعروف أنها خبيثة.
الرابط
نظرة مختلفة: هل روبوت أمازون الجديد (أسترو) هو أغبى وأخطر روبوت تم صنعه على الإطلاق؟
عقدت شركة أمازون، الأسبوع الماضي، مؤتمراً للإعلان عن مجموعة جديدة من الأجهزة التي طورتها، تتضمن روبوتاً ذاتي التحكم مزود بتقنيات ذكاء اصطناعي ومصمم للمساعدة المنزلية يُدعى (أسترو) -كتبنا عنه في نشرة الخميس الماضي- وكاميرا تطير داخل المنزل تُدعى (Ring Always Home Cam).
للوهلة الأولى، تبدو هذه التطورات مثيرة ومتوقعة من شركة عملاقة كأمازون، بيد أن تريستان جرين الكاتب المتخصص في تطورات الذكاء الاصطناعي المرتكزة على الإنسان، يثير -في مقالة كتبها على موقع (ذا نيكست ويب)- إشكالية أخرى تتعلق بهذه الأجهزة، وهي قدرتها المخيفة على جمع المعلومات الخاصة من داخل المنازل، فضلاً عن أنها لا تقدم أي فائدة حقيقية للمستخدمين، لدرجة أنه يمكن اعتبارها "أغبى المنتجات الاستهلاكية على الإطلاق".
يقول الكاتب إنه لو سأل الناس قبل 10 أعوام عما إذا كانوا على استعداد للسماح لشركة تبلغ قيمتها تريليون دولار تعمل مع وزارة الأمن الداخلي الأميركية وهيئات إنفاذ القانون المحلية، لوضع آلات لجمع البيانات في منازلهم، كان من الممكن أن يتم السخرية منه. اليوم، يبدو أن عامة الناس يستمتعون بالفكرة، حيث قوبلت أحدث إصدارات أمازون بالكثير من الحفاوة على مواقع التواصل الاجتماعي.
ويضيف: روبوتات أمازون ليسوا أصدقاء لك. إنها أدوات لجمع البيانات مصممة لاستغلالك بأي طريقة ممكنة من أجل جمع المزيد من البيانات، مشيراً إلى أنه خلال الساعات الـ 24 التي تلت الإعلان عن الروبوت، نشر خبراء أمن ما لا يقل عن اثنتي عشرة مقالة تحذر الناس من أن هذه الأشياء تمثل كوابيس للخصوصية.
وبعيداً عن مشاكل الخصوصية، يرى الكاتب أن أمازون تتعمد إهانة ذكاء المستهلك. فلا أحد يحتاج فعلاً إلى روبوت - سعره 1000 دولار- ليخبره إذا كان قد ترك الموقد مشتعلاً بينما يمكن لجهاز استشعار بقيمة 10 دولارات أن يطفئ الغاز إذا تدفق لمدة معينة من الثواني دون احتراق مناسب. أيضاً، أنت لست بحاجة إلى روبوت ينبهك لكسر زجاج المنزل ودخول شخص منزلك بشكل غير قانوني، لأن خدمة الإنذار أقل تكلفة بكثير، ولا تستدعي وجود غرباء ينظرون إلى بث فيديو على مدار الساعة طوال أيام الأسبوع من داخل منزلك.
في المجمل، هذا الروبوت لا يحل أي مشاكل على الإطلاق. وظيفته الوحيدة المفيدة هي أنه جهاز ترفيهي، ونشوة التكنولوجيا الجديدة ستتلاشى بسرعة كبيرة. أهم ما سيفعله أسترو هو "تعميم التكنولوجيا"، حيث تستخدمه أمازون لاستكشاف مقدار التطفل الذي سيسمح به المستهلك العادي عندما يتعلق الأمر بجمع البيانات. وقد اتضح أن الناس متحمسون للتعرض للاستغلال.
الرابط (إنجليزي)
|