اشترك

الاستمرار بالحساب الحالي

شارك
شارك


من شأن الإضافة الجديدة أن تساعد المطورين على تعزيز حماية الخصوصية في نماذج التعلم الآلي وضبط تسرب بيانات التدريب باستخدام أسلوب يسمى هجمات استخلاص العضوية.

2020-07-01 13:35:31

01 يوليو 2020
Article image
مصدر الصورة الأصلية: جوجل | تعديل: إم آي تي تكنولوجي ريفيو العربية
أعلنت جوجل يوم 24 يونيو عن إطلاق إضافة تجريبية لمجموعة أدوات الخصوصية في منصتها تنسرفلو (TensorFlow) الخاصة بتطوير نماذج التعلم الآلي، وهي إضافة تتيح للمطورين إمكانية تقييم درجة الخصوصية في نماذج التعلم الآلي والسيطرة بشكل أفضل على تسرب البيانات. وتأمل جوجل أن تشكِّل هذه الأدوات أساساً لتطوير حزمة اختبار الخصوصية التي يمكن لجميع المطورين استخدامها بغض النظر عن مستوى مهاراتهم. لا توجد حتى الآن قواعد محددة فيما يتعلق بتطوير نماذج ذكاء اصطناعي تحافظ على خصوصية البيانات، لكن العديد من الدراسات تشير إلى إمكانية تسرب أجزاء حساسة من بيانات التدريب عبر هذه النماذج. وقد كانت منصة تنسرفلو تتعامل مع هذه المسألة باستخدام تقنية الخصوصية التفاضلية التي تتيح إمكانية إضافة بعض التشويش إلى البيانات، بحيث لا يمكن تطبيق أدوات الهندسة العكسية للتعرّف على هوية أشخاص محددين، غير أن من شأن هذا التشويش أن يؤثر على دقة النموذج. شكل توضيحي لهجمات استخلاص العضوية؛ حيث يحاول الشخص المهاجم معرفة ما إذا كانت عينة ما موجودة ضمن بيانات التدريب أم لا. مصدر الصورة: مدونة (TensorFlow) من

أدخل بريدك الإلكتروني واقرأ المقال مجاناً

أنشئ حساباً مجاناً واقرأ مقالتين مجاناً كل شهر من أوسع تشكيلة محتوى أنتجته ألمع العقول العالمية والعربية.

مصطلح اليوم


FIREWALL

جدار الحماية

عبارة عن جهاز أمن يُستخدم في الشبكات الحاسوبية لمراقبة حركة البيانات الداخلة والخارجة واتخاذ القرار بمنع أو سماح مرور جزء محدد من تلك البيانات بناءً على مجموعة من القواعد الأمنية المعرفة مسبقاً.