check_post_to_show: string(2244) "{"is_valid":1,"global_remaining_posts_to_view":0,"remaining_posts_to_view":0,"number_all_post":0,"number_post_read":0,"exceeded_daily_limit":0,"is_watched_before":0,"sso_id":18483,"user_agent":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)","user_ip":"44.197.101.251","user_header":{"SERVER_SOFTWARE":"Apache\/2.4.52 (Debian)","REQUEST_URI":"\/%D8%A5%D9%86%D8%B3%D8%AA%D9%82%D8%B1%D8%A7%D9%85-%D9%8A%D8%B3%D8%AA%D8%AE%D8%AF%D9%85-%D8%A7%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D9%84%D9%85%D8%AD\/","REDIRECT_STATUS":"200","HTTP_X_FORWARDED_PROTO":"https","HTTP_CONNECTION":"upgrade","HTTP_HOST":"technologyreview.ae","HTTP_CDN_LOOP":"cloudflare","HTTP_CF_IPCOUNTRY":"US","HTTP_ACCEPT_ENCODING":"gzip","HTTP_CF_RAY":"833fe1278dba2d1b-IAD","HTTP_CF_VISITOR":"{\\\"scheme\\\":\\\"https\\\"}","HTTP_USER_AGENT":"CCBot\/2.0 (https:\/\/commoncrawl.org\/faq\/)","HTTP_ACCEPT":"text\/html,application\/xhtml+xml,application\/xml;q=0.9,*\/*;q=0.8","HTTP_ACCEPT_LANGUAGE":"en-US,en;q=0.5","HTTP_CF_CONNECTING_IP":"44.197.101.251","PATH":"\/usr\/local\/sbin:\/usr\/local\/bin:\/usr\/sbin:\/usr\/bin:\/sbin:\/bin","SERVER_SIGNATURE":"Apache\/2.4.52 (Debian) Server at technologyreview.ae Port 80<\/address>","SERVER_NAME":"technologyreview.ae","SERVER_ADDR":"172.18.0.26","SERVER_PORT":"80","REMOTE_ADDR":"44.197.101.251","DOCUMENT_ROOT":"\/var\/www\/html","REQUEST_SCHEME":"http","CONTEXT_PREFIX":null,"CONTEXT_DOCUMENT_ROOT":"\/var\/www\/html","SERVER_ADMIN":"webmaster@localhost","SCRIPT_FILENAME":"\/var\/www\/html\/index.php","REMOTE_PORT":"56508","REDIRECT_URL":"\/\u0625\u0646\u0633\u062a\u0642\u0631\u0627\u0645-\u064a\u0633\u062a\u062e\u062f\u0645-\u0627\u0644\u0630\u0643\u0627\u0621-\u0627\u0644\u0627\u0635\u0637\u0646\u0627\u0639\u064a-\u0644\u0645\u062d\/","GATEWAY_INTERFACE":"CGI\/1.1","SERVER_PROTOCOL":"HTTP\/1.1","REQUEST_METHOD":"GET","QUERY_STRING":null,"SCRIPT_NAME":"\/index.php","PHP_SELF":"\/index.php","REQUEST_TIME_FLOAT":1702320272.820127,"REQUEST_TIME":1702320272,"argv":[],"argc":0,"HTTPS":"on"},"content_user_category":"paid","content_cookies":{"status":0,"sso":{"content_id":18483,"client_id":"1d1883f4-87d0-4156-8903-e6ceb0cb4224"},"count_read":null},"is_agent_bot":1}"
هذه الميزة مخصصة للمشتركين يمكنهم مشاركة المواضيع بحد اقصى 10 مواد من كافة مواقع مجرة
ستقوم منصة التواصل الاجتماعي بتحديد التعليقات التي يُحتمل أنها مسيئة قبل نشرها، وتطلب من المعلق إعادة النظر فيها.
خلفية الخبر
لطالما كانت الإساءات على الإنترنت مسألة معقدة بسبب حجمها وتفاصيلها، وهناك جدل متواصل حول ما يجب اعتباره يستحق الحذف، فإذا زادت الفلترة ستؤثر على إمكانية التعبير عن النفس، وإذا قلت ستؤدي إلى ظهور بيئة سلبية، ناهيك عن تعقيدات اختلافات اللغات والثقافات والمعايير، مما يجعل من هذا التحدي صعباً للغاية.
سجل في نشرة الخوارزمية
ابق مواكباً لأحدث أخبار وتطبيقات الذكاء الاصطناعي في قطاعك، وتأثيراته المستقبلية على مجال عملك.
تم الإشتراك بنجاح !هناك خطأ ما, حاول مجدداً
الذكاء الاصطناعي
لهذا السبب، لجأت منصات التواصل الاجتماعي مثل فيسبوك إلى الذكاء الاصطناعي لمساعدتها على التعامل مع الحجم الهائل من المنشورات والتعليقات. ولكن لطالما كان فهم اللغة أمراً صعباً على الذكاء الاصطناعي، ويمكن لأشياء بسيطة -مثل المعاني المزدوجة أو التهكم أو حتى أخطاء التهجئة- أن تُربك النظام ويخطئ فهمها. وللالتفاف حول هذه المشكلة، تُوظف فيسبوك الآلاف من مراقبي المحتوى الذين يمكنهم أن يتدخلوا عندما تعجز الخوارزميات عن اتخاذ القرار. غير أن التحقيقات كشفت أن هؤلاء الموظفين يعملون في ظروف صعبة للغاية.
حل إنستقرام
تجرب منصة إنستقرام التي تمتلكها فيسبوك حلاً جديداً، فبدلاً من الاتكال فقط على خوارزمياتها لحذف المواد المسيئة، ستعتمد أيضاً على المستخدمين للقيام بالحذف بأنفسهم. فعند نشر تعليق، إذا قام نموذج الذكاء الاصطناعي بوضع علامة عليه بوصفه مؤذياً، فسيرى الناشر رسالة تقول: "هل أنت متأكد من أنك تريد نشر هذا التعليق؟".
في الاختبارات الأولى، وجدت المنصة أن هذه الميزة شجعت الكثيرين على التراجع عن تعليقاتهم، وذلك وفقاً لإعلان نُشر مؤخراً. إنه أسلوب ذكي لمحاولة تخفيف شيء من العبء عن مراقبي المحتوى البشريين من دون فرض قيود شديدة.
بيانات التدريب
ليست هذه المرة الأولى التي تستخدم فيها إنستقرام الذكاء الاصطناعي لمراقبة المحتوى اللغوي. ففي يناير من عام 2017، أطلقت فلتر تعليقات مسيئة يعتمد على التعلم الآلي لإخفاء معظم التعليقات المسيئة الواضحة. ومن ذلك الحين، استمرت المنصة في تحسين نموذج التعلم الآلي، معتمدة في الغالب على ملايين نقاط البيانات التي ولَّدها المستخدمون عند الإبلاغ عن التعليقات من قبل. وتتضمن الميزة الأحدث أيضاً الطلب من المستخدمين أن يقوموا بإعلام المنصة إذا قامت باعتبار المحتوى مسيئاً عن طريق الخطأ، وهي حلقة تغذية راجعة أخرى يمكن أن تقدم المزيد من بيانات التدريب المفيدة.
كارين هاو هي مراسلة الذكاء الاصطناعي في إم آي تي تكنولوجي ريفيو. وهي تقوم على وجه الخصوص بتغطية التأثيرات الأخلاقية والاجتماعية لهذه التكنولوجيا، بالإضافة إلى تطبيقاتها في خدمة الصالح … المزيد الاجتماعي.
نستخدم ملفات تعريف الارتباط لتحسين تجربتك، استمرار استخدامك للموقع يعني موافقتك على ذلك. سياسة الخصوصيةأوافقX
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.