check_post_to_show: string(2100) "{"is_valid":1,"global_remaining_posts_to_view":0,"remaining_posts_to_view":0,"number_all_post":0,"number_post_read":0,"exceeded_daily_limit":0,"is_watched_before":0,"sso_id":20742,"user_agent":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)","user_ip":"34.229.63.28","user_header":{"SERVER_SOFTWARE":"Apache\/2.4.52 (Debian)","REQUEST_URI":"\/technodad\/%d8%a7%d9%84%d8%aa%d8%b9%d9%84%d9%85-%d8%a7%d9%84%d8%a2%d9%84%d9%8a-%d8%a7%d9%84%d8%aa%d9%86%d8%a7%d9%81%d8%b3%d9%8a\/","REDIRECT_STATUS":"200","HTTP_X_FORWARDED_PROTO":"https","HTTP_CONNECTION":"upgrade","HTTP_HOST":"technologyreview.ae","HTTP_CDN_LOOP":"cloudflare","HTTP_CF_IPCOUNTRY":"US","HTTP_ACCEPT_ENCODING":"gzip","HTTP_CF_RAY":"83244fa26da32017-IAD","HTTP_CF_VISITOR":"{\\\"scheme\\\":\\\"https\\\"}","HTTP_USER_AGENT":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)","HTTP_ACCEPT":"text\/html,application\/xhtml+xml,application\/xml;q=0.9,*\/*;q=0.8","HTTP_ACCEPT_LANGUAGE":"en-US,en;q=0.5","HTTP_CF_CONNECTING_IP":"34.229.63.28","PATH":"\/usr\/local\/sbin:\/usr\/local\/bin:\/usr\/sbin:\/usr\/bin:\/sbin:\/bin","SERVER_SIGNATURE":"Apache\/2.4.52 (Debian) Server at technologyreview.ae Port 80<\/address>","SERVER_NAME":"technologyreview.ae","SERVER_ADDR":"172.18.0.17","SERVER_PORT":"80","REMOTE_ADDR":"34.229.63.28","DOCUMENT_ROOT":"\/var\/www\/html","REQUEST_SCHEME":"http","CONTEXT_PREFIX":null,"CONTEXT_DOCUMENT_ROOT":"\/var\/www\/html","SERVER_ADMIN":"webmaster@localhost","SCRIPT_FILENAME":"\/var\/www\/html\/index.php","REMOTE_PORT":"33680","REDIRECT_URL":"\/technodad\/\u0627\u0644\u062a\u0639\u0644\u0645-\u0627\u0644\u0622\u0644\u064a-\u0627\u0644\u062a\u0646\u0627\u0641\u0633\u064a\/","GATEWAY_INTERFACE":"CGI\/1.1","SERVER_PROTOCOL":"HTTP\/1.1","REQUEST_METHOD":"GET","QUERY_STRING":null,"SCRIPT_NAME":"\/index.php","PHP_SELF":"\/index.php","REQUEST_TIME_FLOAT":1702031196.774752,"REQUEST_TIME":1702031196,"argv":[],"argc":0,"HTTPS":"on"},"content_user_category":"paid","content_cookies":{"status":0,"sso":{"content_id":20742,"client_id":"1d1883f4-87d0-4156-8903-e6ceb0cb4224"},"count_read":null},"is_agent_bot":1}"
عبارة عن تقنية تُستخدم في التعلم الآلي لخداع أو تضليل النماذج بالاعتماد على مدخلات خبيثة تُعرف باسم الأمثلة التنافسية أو العدائية (Adversarial Examples). يُستخدم التعلم الآلي التنافسي في مجال واسع من التطبيقات، لكن أكثر استخداماته شيوعاً تنفيذ الهجمات الهادفة إلى تخريب وتعطيل أنظمة التعلم الآلي عن العمل. وتكمن خطورة هذه الهجمات في أن نفس الصنف منها يمكن تغييره بسهولة للعمل مع نماذج متعددة ذات بُنى مختلفة ومدربة بمجموعات بيانات مختلفة أيضاً.
ما هي أنواع هجمات التعلم الآلي التنافسي؟
يمكن تقسيم هجمات التعلم الآلي التنافسي إلى نوعين هما مدخلات سوء التصنيف وتسميم البيانات. وتعد مدخلات سوء التصنيف النوع الأكثر شيوعاً؛ حيث يقوم فيها المهاجمون بإخفاء محتوى خبيث في فلاتر خوارزميات التعلم الآلي. ويكون الهدف من ذلك إجبار النظام على تصنيف مجموعة بيانات معينة بشكل خاطئ. أما بالنسبة لتسميم البيانات فيتم فيه إضافة بيانات خاطئة أو غير دقيقة إلى مجموعة البيانات لتخفيض الدقة الإجمالية للخرج.
كيف يتم التصدي لهذه الهجمات؟
يتم التصدي لهجمات التعلم الآلي التنافسي بطريقتين هما:
التدريب التنافسي: طريقة تعتمد على التعلم الموجه لتدريب النموذج على اكتشاف الأمثلة التنافسية، وذلك عن طريقته تغذيته بجميع الأمثلة الممكنة بعد وسمها بأنها تهديد.
التقطير الدفاعي: طريقة تهدف لجعل خوارزميات التعلم الآلي أكثر مرونةً من خلال تدريب نموذج ما على التنبؤ بخرج نموذج آخر تم تدريبه في وقت سابق؛ مما يساعد على تعزيز الدقة.
عبارة عن تقنية تُستخدم في التعلم الآلي لخداع أو تضليل النماذج بالاعتماد على مدخلات خبيثة تُعرف باسم الأمثلة التنافسية أو العدائية (Adversarial Examples). يُستخدم التعلم الآلي التنافسي في مجال واسع من التطبيقات، لكن أكثر استخداماته شيوعاً تنفيذ الهجمات الهادفة إلى تخريب وتعطيل أنظمة التعلم الآلي عن العمل. وتكمن خطورة هذه الهجمات في أن نفس الصنف منها يمكن تغييره بسهولة للعمل مع نماذج متعددة ذات بُنى مختلفة ومدربة بمجموعات بيانات مختلفة أيضاً.
ما هي أنواع هجمات التعلم الآلي التنافسي؟
يمكن تقسيم هجمات التعلم الآلي التنافسي إلى نوعين هما مدخلات سوء التصنيف وتسميم البيانات. وتعد مدخلات سوء التصنيف النوع الأكثر شيوعاً؛ حيث يقوم فيها المهاجمون بإخفاء محتوى خبيث في فلاتر خوارزميات التعلم الآلي. ويكون الهدف من ذلك إجبار النظام على تصنيف مجموعة بيانات معينة بشكل خاطئ. أما بالنسبة لتسميم البيانات فيتم فيه إضافة بيانات خاطئة أو غير دقيقة إلى مجموعة البيانات لتخفيض الدقة الإجمالية للخرج.
كيف يتم التصدي لهذه الهجمات؟
يتم التصدي لهجمات التعلم الآلي التنافسي بطريقتين هما:
التدريب التنافسي: طريقة تعتمد على التعلم الموجه لتدريب النموذج على اكتشاف الأمثلة التنافسية، وذلك عن طريقته تغذيته بجميع الأمثلة الممكنة بعد وسمها بأنها تهديد.
التقطير الدفاعي: طريقة تهدف لجعل خوارزميات التعلم الآلي أكثر مرونةً من خلال تدريب نموذج ما على التنبؤ بخرج نموذج آخر تم تدريبه في وقت سابق؛ مما يساعد على تعزيز الدقة.
نستخدم ملفات تعريف الارتباط لتحسين تجربتك، استمرار استخدامك للموقع يعني موافقتك على ذلك. سياسة الخصوصيةأوافقX
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.