اشترك

الاستمرار بالحساب الحالي

*|MC:SUBJECT|*
صباح الخير،
إليك آخر أخبار الذكاء الاصطناعي لهذا اليوم، الخميس 16 سبتمبر:
  • استقالة قائد فريق الذكاء الاصطناعي المسؤول في فيسبوك.
  • دعوة أممية لوقف استخدام تكنولوجيا الذكاء الاصطناعي التي "تهدد" حقوق البشر.
  • هل يمكننا التحكم في استخدام "الروبوتات القاتلة"؟
للمشاركة بمقالات أو اقتراح شخصيات، يمكنك التواصل معنا عبر البريد الإلكتروني [email protected].
نتمنى لك يوم عمل مميز وعطلة نهاية أسبوع سعيدة،
فريق الخوارزمية وإم آي تي تكنولوجي ريفيو
قابل كليرا (C.L.Ai.R.A.) أول شخصية سمراء البشرة مولدة بالذكاء الاصطناعي وقائمة على النموذج اللغوي جي بي تي-3. ويقول القائمون على المشروع إن غايته تتمثل في تشجيع الأقليات والفئات المهمشة على تعلم تقنيات الذكاء الاصطناعي وفهم تأثيرها على حياتهم. الرابط (إنجليزي- مزيد من التفاصيل)
يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
استقالة قائد فريق الذكاء الاصطناعي المسؤول في فيسبوك
في منشور على لينكدإن، أعلن خواكين كانونيرو كانديلا، قائد فريق الذكاء الاصطناعي المسؤول في فيسبوك عن استقالته من الشركة. وقال كانديلا إن استقالته تأتي بعد عمله لدى الشركة لمدة 9 أعوام ونصف وأنه استقال ليخلق لنفسه المساحة التي يحتاجها لقضاء الوقت مع زوجته وأطفاله. وكان كانديلا أحد المساهمين الرئيسيين في تطوير تدفق عمل خوارزميات التعلم الآلي في مشاريع الشركة، بالإضافة إلى جهوده في مراقبة البث المباشر على المنصة بالاعتماد على الذكاء الاصطناعي. ومن الجدير بالذكر أن فيسبوك تعرضت مؤخراً لانتقادات شديدة بسبب تركيزها على النمو والتوسع وتجاهلها لأنظمة الذكاء الاصطناعي التي تقلل انخراط المستخدمين على المنصة.
الرابط1 (إنجليزي)
الرابط2 (حساب كانديلا على لينكدإن)

"صحة دبي" تستحدث سياسة الذكاء الاصطناعي في الرعاية الصحية
أطلقت هيئة الصحة بدبي "سياسة الذكاء الاصطناعي في المجال الصحي في دبي" والتي تعد الأولى من نوعها في هذا المجال المتخصص على مستوى الدولة. وتستهدف السياسة تحديد المتطلبات التنظيمية لتوفير حلول الذكاء الاصطناعي في هذا المجال المهم وتحديد المتطلبات الأخلاقية لحلول الذكاء الاصطناعي. كما تهدف السياسة إلى وضع الإطار التشريعي والتنظيمي في استخدام حلول الذكاء الاصطناعي في المجال الصحي والأبحاث وتعزيز مستوى التفاعل والتواصل والتعاون بين الجهات الصحية الحكومية والقطاع الخاص والمجتمع العلمي حول تطبيقات الذكاء الاصطناعي للمساهمة في تسريع تطوير خدمات هذا القطاع الحيوي في دولة الإمارات ودعم استراتيجيتها بعيدة المدى لترسيخ ريادتها في مجال الذكاء الاصطناعي.
الرابط

يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم

 
دعوة أممية لوقف استخدام تكنولوجيا الذكاء الاصطناعي التي "تهدد" حقوق البشر
دعت مفوضة الأمم المتحدة السامية لحقوق الإنسان، ميشيل باشيليت، يوم أمس لوقف استخدام تقنيات الذكاء الاصطناعي التي قد تمثل خطورة كبيرة على حقوق الإنسان. وقالت باشيليت، في بيان، إنه ينبغي على الدول أن تحظر علناً تطبيقات الذكاء الاصطناعي التي لا تتفق مع القانون الدولي لحقوق الإنسان.
 
وتشمل التطبيقات التي يجب حظرها وفقاً لباشيليت أنظمة الحكومات "للتقييم الاجتماعي" التي تحكم على الناس بناء على سلوكهم، بالإضافة إلى أدوات معينة مبنية على الذكاء الاصطناعي تصنف الناس تبعا لمجموعات كالعرق أو النوع. واعتبرت باشيليت أن التكنولوجيات القائمة على الذكاء الاصطناعي قد تكون "قوة من أجل الخير"، لكنها قد تحمل "آثارا سلبية أو حتى كارثية إن استخدمت دون اعتبار كاف لكيفية تأثيرها على حقوق الإنسان".
 
ولم تدع باشيليت لحظر صريح لتكنولوجيا التعرف على الوجوه، لكنها قالت إنه ينبغي على الحكومات وقف فحص سمات الناس بشكل مباشر حتى يمكنها أن تتأكد من دقة التكنولوجيا ومن أنها لن تميز بينهم وتفي بمعايير محددة لحماية الخصوصية والبيانات.

الرابط

ولاية أسترالية تختبر أداة ذكاء اصطناعي مصممة للتنبؤ بحوادث العنف المنزلي ومنعها
تستعد شرطة ولاية كوينزلاند الأسترالية لبدء تجربة نظام ذكاء اصطناعي لتحديد مرتكبي جرائم العنف المنزلي الخطرين للغاية. وينوي الضباط استخدام البيانات لـ "طرق الأبواب" قبل أن تتصاعد الأزمات بشكل خطير. وتستخدم الأداة الجديدة بيانات من النظام الحاسوبي (Qprime) الخاص بالشرطة، لاستحداث طريقة لتقييم المخاطر التي يمثلها جميع مرتكبي جرائم العنف المنزلي والعائلي المحتملين. وقد تم تطوير الخوارزمية منذ حوالي ثلاث سنوات وستبدأ التجارب العملية في بعض دوائر الشرطة قبل نهاية العام الجاري.
 
وأوضح رئيس الشرطة بالإنابة بن مارتين: "لن ننتظر مكالمة هاتفية حتى تصل حادثة العنف المنزلي والعائلي إلى نقطة الأزمة. بدلاً من ذلك، ومع هذه المجموعة من الجناة الذين تخبرنا أدواتنا التحليلية التنبؤية أنه من المرجح أن يرتكبوا المزيد من حوادث العنف المنزلي، فإننا نطرق الأبواب بشكل استباقي دون أي استدعاء للخدمة".
 
وكانت العديد من القضايا البارزة في مجال العنف المنزلي والعائلي قد اتبعت أنماطاً مألوفة ومتوقعة من التصعيد، وهو ما عرض الشرطة لانتقادات بسبب إخفاقها في التعرف على هذه الأنماط والتدخل في الوقت المناسب. ويقول مارتين إن النظام الجديد سيمثل تحولاً نحو المزيد من السياسات الشرطية الوقائية، ولكن لن يمكن استخدامه كدليل في المحكمة.

بيد أن النشطاء المدافعون عن الخصوصية يشيرون إلى أن إحدى أكبر المخاوف المتعلقة بهذه التقنية هي إمكانية إنشاء "حلقة مفرغة" تعزز التحيز في البيانات التاريخية، بدلاً من مواجهتها، لاسيما في قضايا العنف المنزلي المعقدة. ويؤكدون على أن أي نموذج ذكاء اصطناعي "يجب أن يكون شفافاً" ويخضع لتقييم مستقل.

ولمواجهة هذه المخاوف يقول مارتين إن الشرطة طورت أداة مراقبة لمعالجة التحيز داخل النموذج، مضيفاً أنه بالنسبة إلى البرنامج التجريبي، أزالت الشرطة البيانات الأولية التي تتعلق مباشرة بالعرق والموقع الجغرافي قبل تدريب النموذج. كما أوضح أن الشرطة شاركت أيضاً في مشروع بحثي حول التخفيف من التحيز في مثل هذه الأنظمة، وهو ما من شأنه أن يضع إطاراً حول مراقبة النماذج وإدارتها قبل نشرها. وتابع أن "هذا النموذج لا يستهدف استبدال التقدير المهني للضباط، وإنما سيُستخدم للمساعدة في الوصول إلى قرارات أكثر استنارة من خلال تجميع البيانات النمطية والموضوعية".

الرابط (إنجليزي)

هل يمكننا التحكم في استخدام "الروبوتات القاتلة"؟
ثمة اعتقاد في الثقافة الشعبية بأن التقدم التكنولوجي سيدفعنا في نهاية المطاف نحو تطوير "روبوتات قاتلة"، تتمتع بقدرة على التفكير المستقل -على غرار سلسلة أفلام تيرميناتور (Terminator)- وفي مرحلة ما، ستثور هذه الروبوتات ضد البشر. تغذي هذه المخاوف تقارير إعلامية متزايدة بشأن محاولات تقوم بها بعض الدول لتطوير أنظمة أسلحة ذاتية التشغيل "تختار الأهداف وتستخدم القوة ضدها دون تدخل بشري".
 
وتثير الوتيرة السريعة للتطور التكنولوجي أسئلة ملحة حول ما إذا كان من المقبول قانونياً وأخلاقياً تفويض المسؤوليات الحاسمة من البشر إلى الآلات. وهل ستتمكن الخوارزميات من التمييز بين المدنيين والمقاتلين؟ وإذا ارتكب نظام سلاح ذاتي التشغيل جرائم حرب، فهل يمكن معرفة من المسؤول؟ وماذا يحدث إذا تم اختراق مثل هذا النظام أو انحرف عن الأهداف المحددة له؟
 
للوهلة الأولى، قد تبدو هذه الأسئلة سابقة لأوانها. ومع ذلك، فإن هذه القضية لم تعد مصدر قلق مستقبلي فقط. فالجيوش في جميع أنحاء العالم تعمل حالياً على تطوير واختبار واستخدام "الذكاء الاصطناعي المُسلح"، بالإضافة إلى دمج ميزات مؤتمتة وذاتية التشغيل في الأنظمة الدفاعية والذخائر الموجهة وحتى المركبات التي تعمل تحت الماء.
 
وتُظهر الطرق التي تُستخدم بها أنظمة الدفاع الجوي، على سبيل المثال، أنه أصبح من الطبيعي بشكل متزايد تفويض المهام -مثل قرارات الاستهداف- بعيداً عن الرقابة البشرية. بيد أن تضاؤل ​​السيطرة البشرية على أنظمة الأسلحة لا يمثل فقط مشكلة أخلاقية، ولكنه أيضاً مصدر قلق أمني، نظراً لعدم القدرة على التنبؤ بقدرات الذكاء الاصطناعي وقضايا معالجة البيانات.
 
كما تراقب الدول الرائدة في مجال الذكاء الاصطناعي عن كثب القدرات التكنولوجية لبعضها البعض وتسعى إلى تطويرها، ما يشجع المنافسة الاستراتيجية في مجال الذكاء الاصطناعي العسكري. وثمة دول، مثل الصين وروسيا، تعلن صراحة نواياها لاستخدام الذكاء الاصطناعي والأتمتة بشكل متزايد في قواتها الدفاعية.
 
وفي ظل عدم وجود قواعد دولية لإدارة هذه المخاطر والتخفيف منها، اكتسبت هذه القضية مكانة بارزة في الأمم المتحدة. ومنذ عام 2014، يجتمع الخبراء في جنيف لمناقشة التحديات التي تفرضها أنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS). وفي عام 2019، اعتمدت الأطراف الموقعة على اتفاقية الأسلحة التقليدية المعينة (CCW) أحد عشر مبدأ توجيهياً بشأن أنظمة الأسلحة الفتاكة ذاتية التشغيل، إلا أنها لا تزال مبادئ عامة ولا تتمتع بمركز قانوني.
 
وتدفع مجموعة من الدول -بما فيها النمسا والبرازيل والفلبين- من أجل إقرار اتفاق ملزم قانوناً يحظر استخدام وتطوير هذا النوع من الأسلحة، بينما تجادل دول أخرى -مثل المملكة المتحدة والولايات المتحدة وروسيا- بأن القانون الإنساني الدولي القائم كافي لتدارك المخاطر في الوقت المناسب.

 الرابط (إنجليزي)

يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم

  • دورة مجانية بعناون "مقدمة حول الذكاء الاصطناعي في اختبار البرمجيات". الرابط (إنجليزي- على منصة Udemy)
  • استخدام الذكاء الاصطناعي لأول مرة في روسيا للتحكم بمنشآت النفط والغاز. الرابط
  • جوجل تطلق أداة "توأم رقمي" في مجال اللوجستيات والتصنيع. الرابط (إنجليزي)
  • الذكاء الاصطناعي يساعد على الكشف المبكر عن الإصابة بالزهايمر. الرابط
  • Researchai.co: منصة تستخدم الذكاء الاصطناعي لمساعدتك في كتابة الأوراق البحثية. الرابط

يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم

 
60 مليار دولار
القيمة المتوقعة لسوق الذكاء الاصطناعي في العالم بحلول عام 2025.
الرابط
هل وصلتك هذه الرسالة من صديق؟ هل أعجبك المحتوى وترغب في مواكبة آخر أخبار الذكاء الاصطناعي؟ ما عليك إلا الضغط هنا للاشتراك في نشرة الخوارزمية اليومية:
اشترك في ثوان

يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم

معتز الفراج
مصدر الصورة: الصفحة الشخصية على لينكدإن
معتز الفرّاج
أستاذ مساعد في قسم الهندسة الكهربائية في جامعة الملك فهد للبترول والمعادن، ورئيس فرع جمعية معالجة الإشارة التابع لمعهد مهندسي الكهرباء والإلكترون في المملكة العربية السعودية. سبق له العمل كباحث ومدرس مساعد في معهد جورجيا للتكنولوجيا. وهو حاصل على درجة الدكتوراه والماجستير في الهندسة الكهربائية تخصص معالجة الصورة الرقمية والتعلم الآلي من المعهد ذاته، وعلى درجة البكالوريوس من جامعة الملك فهد للبترول والمعادن. مهتم بالبحث في مجال معالجة الصورة والتعلم العميق والرؤية الحاسوبية.

يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم

 
علم البيانات | DATA SCIENCE
يجمع علم البيانات ما بين مجالات علم الحاسوب والبرمجة والرياضيات والإحصاء، ويهدف إلى اكتشاف الأنماط المخفية في الكميات الهائلة من البيانات الخام واستخراج الرؤى والأفكار منها. يشمل علم البيانات تطبيق مجموعة من الأدوات الإحصائية وخوارزميات التعلم الآلي على مجموعات البيانات الضخمة. قد تتألف هذه البيانات من أرقام أو نصوص أو صور أو صوت أو فيديو وغيرها. وذلك لإنتاج أنظمة ذكاء اصطناعي قادرة على أداء المهام التي تتطلب عادةً ذكاءً بشرياً لإنجازها أو مساعدة البشر في عمليات صنع القرار.
اقرأ المزيد حول هذا المصطلح على منصة تكنوضاد.
تابعنا على وسائل التواصل الاجتماعي:
تويتر
فيسبوك
موقع الويب
يوتيوب
لينكدإن
إنستقرام
Copyright © *|CURRENT_YEAR|* *|LIST:COMPANY|*, All rights reserved.
*|IFNOT:ARCHIVE_PAGE|* *|LIST:DESCRIPTION|*

Our mailing address is:
*|HTML:LIST_ADDRESS_HTML|* *|END:IF|*

Want to change how you receive these emails?
You can update your preferences or unsubscribe from this list.

*|IF:REWARDS|* *|HTML:REWARDS|* *|END:IF|*