اشترك

الاستمرار بالحساب الحالي

صباح الخير،
إليك آخر أخبار الذكاء الاصطناعي لهذا اليوم، الأحد 7 أغسطس:
  • شاهد: جامعة الملك عبدالله "كاوست" تطور منصة للسيارات ذاتية القيادة.
  • علماء يبتكرون ذكاء اصطناعياً لتقييم الصحة العقلية من خلال تعبيرات الوجه.
  • تعرف على الحرب الخفية بين المؤثرين وخوارزميات وسائل التواصل الاجتماعي.
نتمنى لك يوماً سعيداً.
فريق الخوارزمية وإم آي تي تكنولوجي ريفيو
تعمل جامعة الملك عبدالله للعلوم والتقنية، ممثلة في مبادرة "كاوست سمارت"، على تطوير منصة لاختبار أنظمة القيادة الذاتية في السيارات وتطويرها. يستعرض هذا المقطع الهدف من هذه المنصة وكيف تعمل على تحويل السيارات العادية إلى سيارات ذاتية القيادة.
هل تصلك هذه النشرة إلى قسم الترويج (Promotions) وترغب بأن تصلك بشكل تلقائي إلى البريد الأساسي (Primary)؟ اضغط هنا للاطلاع على طريقة ضمان ذلك.
يجب أن تعلم | للاطلاع | في صلب الموضوع | رقم اليوم | شخصية اليوم | مصطلح اليوم
ميتا تطلق روبوت دردشة يتحسن عبر الحديث مع الناس
طورت مختبرات الذكاء الاصطناعي التابعة لشركة ميتا (فيسبوك سابقاً) روبوت دردشة جديد، ووضعته على الإنترنت لتسمح للجمهور بالتحدث إليه، بهدف جمع الآراء حول المشكلات المختلفة التي تواجه النماذج اللغوية الكبيرة، ومنح الروبوت الفرصة لتطوير نفسه. وتقول ميتا إن الروبوت (BlenderBot 3) يستطيع المشاركة في الدردشات العامة، كما يجيب أيضاً على الاستفسارات التي يمكن طرحها على المساعدين الرقميين، كالحديث عن "وصفات الطعام الصحية" أو "المرافق الملائمة للأطفال في المدينة". من الميزات المهمة التي يتميز بها الروبوت الجديد قدرته على البحث في الإنترنت للتحدث عن مواضيع معينة. ثم يمكن للمستخدمين بعد ذلك النقر على ردوده لمعرفة من أين حصل على معلوماته. بعبارة أخرى، يمكن لـ (BlenderBot 3) الاستشهاد بالمصادر.
الرابط (إنجليزي)
في الوقت الحالي، يمكن للمقيمين في الولايات المتحدة فقط التحدث مع الروبوت، عبر هذا الرابط (إنجليزي)

علماء يبتكرون ذكاء اصطناعياً لتقييم الصحة العقلية من خلال تعبيرات الوجه
طور باحثون ألمان طريقة لتحديد الاضطرابات النفسية بناءً على تعبيرات الوجه التي يقوم بتفسيرها وتحليلها برنامج مبتكر للذكاء الاصطناعي. ويمكن للتقنية الجديدة -التي أُطلق عليها اسم (Opto Electronic Encephalography)- التمييز بين الأشخاص غير المصابين أو المتأثرين بأحد الاختلالات، كما يمكنها أيضاً التمييز بشكل صحيح بين حالات الاصابة بالاكتئاب والفصام، وكذلك الدرجة التي يتأثر بها المريض حالياً بالمرض. نشرت جامعة كورنيل الأميركية الدراسة التي تضمنت الإعلان عن البرنامج تحت اسم "وجه الاضطرابات العاطفية"، وقد شارك في التجارب ثمانية باحثين من مجموعة واسعة من المؤسسات من قطاع البحوث الطبية الخاصة والعامة. كما يقدم النهج الجديد أيضاً طريقة سهلة الاتباع لتقييم مدى تقدم المريض خلال العلاج، أو في بيئته المحلية لمراقبة التغيرات التي تحدث له.
الرابط
اشترك الآن وامنح نفسك فرصة الوصول إلى أفضل المصادر العالمية باللغة العربية. رابط الاشتراك

يجب أن تعلم | للاطلاع | في صلب الموضوع | رقم اليوم | شخصية اليوم | مصطلح اليوم

  • استمع إلى هذه الحلقة من بودكاست "خرافات"، الذي تنشره هيئة الإذاعة البريطانية (بي بي سي)، بعنوان "ما حقيقة وعي الذكاء الاصطناعي؟ وكيف أجابني الروبوت عندما سألته عن شعوره تجاهي؟" الرابط
  • لماذا يسعى الجيش الأميركي إلى فهم أهم البرمجيات على وجه الأرض؟ رابط المقالة على موقعنا
  • باحثون يطورون ملصقاً يعمل بالأمواج فوق الصوتية يتيح رؤية الأعضاء داخل الجسم. رابط المقالة على موقعنا
  • الإمارات ودعم جهود التحول إلى مركز عالمي للذكاء الاصطناعي. الرابط
  • Copymatic منصة تتيح للأفراد والشركات إنشاء محتوى كتابي خلال ثوانٍ باستخدام الذكاء الاصطناعي. يمكن استخدامها في كتابة المقالات أو إعادة صياغتها، أو كتابة وصف للمنتجات. الرابط (إنجليزي)

يجب أن تعلم | للاطلاع | في صلب الموضوع | رقم اليوم | شخصية اليوم | مصطلح اليوم

 
لست وحدك: جوجل أيضاً ترتكب هذا الخطأ الفادح في الذكاء الاصطناعي
أظهر مقال نُشر الشهر الماضي أن أكثر من 30% من البيانات التي استخدمتها جوجل في أحد نماذج التعلم الآلي الخاصة بها تم وسمها بشكل خاطئ. لم يكن النموذج نفسه مليئاً بالأخطاء فحسب، بل كانت بيانات التدريب الفعلية التي استخدمها هذا النموذج نفسه مليئة بالأخطاء. كيف يمكن لأي شخص يستخدم نموذج جوجل أن يأمل في الوثوق بالنتائج إذا كان مليئاً بالأخطاء؟

جوجل ليست وحدها التي وسمت كمية كبيرة من البيانات بشكل خاطئ، فقد وجدت دراسة أجرتها جامعة إم آي تي في عام 2021 أن ما يقرب من 6% من الصور في قاعدة بيانات "إيمدج نت" (ImageNet) المعيارية موسومة بشكل خاطئ. علاوة على ذلك، وجدت الدراسة "أخطاء في الوسم في 10 من أكثر مجموعات البيانات شيوعاً في مجالات الرؤية الحاسوبية واللغات الطبيعية والبيانات الصوتية". كيف يمكننا أن نثق في هذه النماذج أو نستخدمها إذا كانت البيانات المستخدمة لتدريب تلك النماذج سيئة للغاية؟

الجواب هو أنه لا يمكنك الوثوق بتلك البيانات أو تلك النماذج. وكما يقال في مجال الذكاء الاصطناعي: إدخال القمامة يخرج قمامة. إذا كانت جوجل و"إيمدج نت" وغيرهما يرتكبون هذا الخطأ، فمن المؤكد أنك ترتكب هذا الخطأ أيضاً.

يُظهر بحثاً أجرته شركة (Cognilytica) أن أكثر من 80٪ من الوقت الذي يستغرقه مشروع الذكاء الاصطناعي يُقضى في إدارة البيانات، بدءاً من جمعها إلى تنظيفها ووسمها. ولكن بالرغم من كل هذا الوقت المستغرق، لا بد أن تحدث الأخطاء. هذا إن كانت البيانات جيدة من البداية، فالبيانات السيئة تعني نتائج سيئة. وهذا هو الحال بالنسبة لجميع أنواع المشروعات الموجهة بالبيانات لعقود من الزمن، وهي الآن مشكلة كبيرة لمشروعات الذكاء الاصطناعي أيضاً، التي تعتبر في الأساس مجرد مشروعات بيانات ضخمة.

البيانات هي جوهر الذكاء الاصطناعي. ما يحرك مشروعات الذكاء الاصطناعي والتعلم الآلي ليس الرموز البرمجية، وإنما البيانات التي يتم التعلم منها. في كثير من الأحيان، تسرع المؤسسات في مشروعات الذكاء الاصطناعي الخاصة بها لتدرك لاحقاً أن الجودة الرديئة لبياناتها تتسبب في فشل أنظمة الذكاء الاصطناعي الخاصة بها. إذا لم تكن لديك بياناتك في حالة جيدة، فلا تتفاجأ عندما تتعرض مشروعات الذكاء الاصطناعي الخاصة بك للدمار.
الرابط (إنجليزي)

تعرف على الحرب الخفية بين المؤثرين وخوارزميات وسائل التواصل الاجتماعي
في الصيف الماضي، نشر أحد منتجي منصة تيك توك، زيغي تايلر، مقطع فيديو يتحدث فيه عن اكتشافه مشكلة مثيرة للقلق في كرييتور ماركت بليس (Creator Marketplace)، وهي أداة ضمن التطبيق للربط بين المنتجين والعلامات التجارية التي تريد أن تدفع لقاء رعايتها للمحتوى.

قال تايلر إنه لم يتمكن من إدخال بعض الجمل في حسابه على ماركت بليس، مثل شعار أرواح ذوي البشرة السمراء مهمة (Black Lives Matter)، ودعم تميز ذوي البشرة السمراء (supporting Black excellence)، لكن بعض الجمل الأخرى، مثل تفوق العرق الأبيض (white supremacy) ودعم تميز ذوي البشرة البيضاء (supporting white excellence) كانت مسموحة.

وإذا أمضيت فترة طويلة على تيك توك، فمن المرجح أنك شهدت نقاشات حول حوادث مماثلة بين المنتجين. هناك طريقتان لمحاولة فهم أثر مراقبة المحتوى والخوارزميات التي تفرض هذه القواعد، إما بالاعتماد على ما تقوله المنصات، أو بسؤال المنتجين أنفسهم. وفي حالة تايلر، قدمت منصة تيك توك اعتذارها وألقت باللائمة على أحد الفلاتر الآلية الذي تم ضبطه لالتقاط الكلمات المتوافقة مع خطاب الكراهية، ولكنه على ما يبدو لم يكن قادراً على استيعاب السياق.

وقد تعاونت الأستاذة المساعدة في جامعة كورنيل، بروك إرين دافي، مع طالب الدراسات العليا كولتين ميسنر، لإجراء مقابلات مع 30 منتجاً على منصات تيك توك وإنستغرام وتويتش ويوتيوب وتويتر، في نفس الفترة التي حقق فيها مقطع الفيديو الذي نشره تايلر انتشاراً واسعاً. وكان الهدف هو التعرف على أساليب المنتجين، خصوصاً المنتمين إلى شرائح مهمشة، في التعامل مع الخوارزميات وأساليب الرقابة للمنصات التي يستخدمونها.

وهذا ما وجدوه: يخصص المنتجون الكثير من الجهد في محاولة فهم الخوارزميات التي تتحكم بتجاربهم وعلاقاتهم على هذه المنصات. ونظراً لاستخدام الكثير من المنتجين عدة منصات، يجب أن يتعلموا القواعد الخفية لكل منصة منها. ويقوم بعض المنتجين بتعديل أساليبهم في إنتاج المحتوى والترويج له بالكامل للتكيف مع التحيزات الخوارزمية وتحيزات الرقابة التي يتعرضون لها.
للمزيد حول هذه الحرب الخفية، تابع قراءة المقالة على موقعنا عبر هذا الرابط


كيف يستفيد قطاع التأمين من الذكاء الاصطناعي؟
يعد قطاع التأمين بطبيعته قطاعاً محافظاً، حيث يميل إلى التأخر في تبني التكنولوجيا، ومن المحتمل أن يكون دخول الذكاء الاصطناعي ضمن بعض أكبر الشركات في قطاع التأمين دليلاً على نضج هذه التكنولوجيا والتقدم السريع الذي تحرزه.

تعد شركة تراكتابل (Tractable) مثالاً رئيسياً على هذا الاتجاه، وهي شركة مقرها المملكة المتحدة تستخدم الإبصار الحاسوبي لمساعدة شركات التأمين على تقييم الضرر الناجم باستخدام الصور. بدأت الشركة أعمالها في مجال التأمين على السيارات في أوروبا والآن في الولايات المتحدة، ويشمل عملاؤها شركات جيكو (Geico) وهارتفورد فايننشال (Hartford Financial) وغيرهما. كما بدأت في التوسع إلى التأمين على المنازل لمساعدة شركات التأمين على معالجة المطالبات بسرعة في أعقاب الكوارث الطبيعية، ثم انتقلت من التركيز فقط على تكنولوجيا الإبصار الحاسوبي إلى دمج معالجة اللغة الطبيعية بشكل متزايد لسحب المعلومات من المستندات.

ومن بين الشركات الأخرى التي تقوم بتطوير مثل هذه الأنظمة، شركة التأمين يو إس أيه أيه (USAA) التي عملت مع وحدة الحوسبة في منصة جوجل السحابية لتطوير نظام خاص بها مستند إلى الصور لتقدير الأضرار.

أعلنت شركة تراكتابل مؤخراً عن شراكة مع شركة أميركان فاميلي إنشورنس (American Family Insurance)، وهي واحدة من أكبر شركات التأمين على الممتلكات والحوادث في الولايات المتحدة، وتستخدم هذه الشركة نظام الذكاء الاصطناعي الخاص بشركة تراكتابل لتبسيط عملية تسمى الإنابة (أو الإحلال).

والإنابة هي الطريقة التي تحاول بها شركة تأمين ما استرداد أموال من شركة تأمين أخرى دفعتها مقابل مطالبة ما. ولتوضيح هذه الطريقة، لنفترض أن سائقاً ما تجاوز لافتة توقّف في أثناء القيادة واصطدم بسائق آخر صادف أنه كان مسرعاً أيضاً، كلتا السيارتين تضررتا بالحادث، ويطالب السائقان شركات التأمين الخاصة بهما بتعويض الضرر. تتفاوض بعد ذلك شركتا التأمين مع بعضهما لمحاولة استرداد بعض تكاليف المطالبة، وهذه هي الإنابة.

وشركة تراكتابل ليست الوحيدة التي تحاول استخدام الذكاء الاصطناعي في مجال الإنابة، حيث توفّر شركة رايفال كلير دوت أيه آي (Rival Klear.ai) منتجاً متخصصاً في الإنابة أيضاً، وتقدم الشركة عموماً مجموعة متنوعة من حلول الذكاء الاصطناعي لصناعة التأمين.
للمزيد حول هذا الموضوع، تابع قراءة المقالة على منصة فورتشن العربية عبر هذا الرابط

يجب أن تعلم | للاطلاع | في صلب الموضوع | رقم اليوم | شخصية اليوم | مصطلح اليوم
1.7 مليار دولار
قيمة صفقة استحواذ شركة أمازون على شركة "آي روبوت" (iRobot) المصنّعة لمكانس "رومبا" الروبوتية.
الرابط (إنجليزي)
منصة "ساهم" تفتح الباب أمام الباحثين والكتّاب والخبراء لنشر أبحاثهم وخبراتهم العلمية لتصل إلى مئات الآلاف من القراء عبر كافة منصات مجرة.
قدّم فكرتك وشارك بحثك الآن: الرابط
هل وصلتك هذه الرسالة من صديق؟ هل أعجبك المحتوى وترغب في مواكبة آخر أخبار الذكاء الاصطناعي؟ ما عليك إلا الضغط هنا للاشتراك في نشرة الخوارزمية اليومية:
اشترك في ثوان
يجب أن تعلم | للاطلاع | في صلب الموضوع | رقم اليوم | شخصية اليوم | مصطلح اليوم
صبحي عيسى
باحث ذكاء اصطناعي في شركة كوميت (Comeet) الفرنسية. عمل سابقاً كعالم بيانات في أكاديمية سنترال-سوبليه الفرنسية. حاز على درجة البكالوريوس من جامعة حلب في سوريا، ثم انتقل إلى جامعة باريس-سود ونال درجة الماجستير في الذكاء الاصطناعي. يركز في أبحاثه على الذكاء الاصطناعي وخوارزميات التعلم الآلي ومعالجة اللغة الطبيعية.

يجب أن تعلم | للاطلاع | في صلب الموضوع | رقم اليوم | شخصية اليوم | مصطلح اليوم

الذكاء الاصطناعي المسؤول | RESPONSIBLE AI
إطار حوكمة يوثق كيفية مواجهة منظمة معينة للتحديات المتعلقة بالذكاء الاصطناعي من وجهة نظر أخلاقية وقانونية. يتضمن هذا الإطار تفاصيل تجيب عن العديد من التساؤلات مثل متى يمكن جمع واستخدام البيانات، وكيف يجب تقييم نماذج الذكاء الاصطناعي، وما هي الطريقة الأمثل لنشر ومراقبة تلك النماذج. ويمكن أن يحدد أيضاً من ستتم محاسبته في حال كانت النتائج سلبية؛ حيث يُعد حل الغموض المرتبط بمن ستقع على عاتقه المسؤولية في حال وقوع خطأ ما المحرك الأساسي لمبادرات الذكاء الاصطناعي المسؤول.
اقرأ المزيد حول هذا المصطلح على منصة تكنوضاد
يمكنك الاطلاع على أرشيف نشرة الخوارزمية من خلال هذا الرابط:
أرشيف نشرة الخوارزمية
تابعنا على وسائل التواصل الاجتماعي:
تويتر
فيسبوك
موقع الويب
يوتيوب
لينكدإن
إنستقرام
Copyright © *|CURRENT_YEAR|* *|LIST:COMPANY|*, All rights reserved.
*|IFNOT:ARCHIVE_PAGE|* *|LIST:DESCRIPTION|*

Our mailing address is:
*|HTML:LIST_ADDRESS_HTML|* *|END:IF|*

Want to change how you receive these emails?
You can update your preferences or unsubscribe from this list.

*|IF:REWARDS|* *|HTML:REWARDS|* *|END:IF|*