يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
علماء يطورون روبوتاً يحاكي عمل الدماغ عبر الجمع بين حاستي الرؤية واللمس
استخدم فريق من الباحثين الأوروبيين خوارزميات التعلم العميق والهندسة الروبوتية، لتطوير روبوت جديد قادر على الجمع بين حاستي الرؤية واللمس، لمحاكاة طريقة عمل الدماغ.
وقد ظهرت فكرة الروبوت الجديد بعد التعاون بين عدد من الباحثين في مجال علم الأعصاب المعرفي ( Cognitive neuroscience) ومصممو النماذج الحاسوبية وعلماء الروبوتات العاملين في البنية التحتية الأوروبية للأبحاث إيبراينز ( EBRAINS)، لربط تقنية التعلم العميق المستوحاة من الدماغ مع روبوتات المحاكاة الحيوية ( Biomimetic Robots).
وقد انطلق العلماء من فكرة أن الدماغ يجمع المعلومات باستمرار من جميع الحواس الست على نحو يبدو أنه يتم بلا مجهود يذكر، وهي ميزة تكافح حتى أكثر أنظمة الذكاء الاصطناعي تقدماً لتقليدها. لذا، حاول العلماء إلقاء ضوء جديد على الآليات العصبية الكامنة وراء هذا الأمر، من خلال إنشاء روبوتات تحاكي طرق عملها الداخلية الدماغ.
وفي النموذج الجديد -المسمى مالتيبريدنت ( MultiPrednet)- تعاون سيرييل بينارتز أستاذ الإدراك وعلوم النظم العصبية في جامعة أمستردام، مع مصممي النماذج الحاسوبية شيرين دورا وساندر بوهتي وخورخي ميجياس لبناء هياكل شبكات عصبونية للإدراك، استناداً إلى بيانات واقعية مستمدة من الفئران. ويتكون النموذج الجديد من وحدتين للمدخلات المرئية واللمسية ووحدة ثالثة تدمج بينهما.
ولاختبار قدرات النموذج في جسم مادي، قام الباحثون بدمجه في ويسكآي ( Whiskeye)، وهو روبوت يشبه القوارض يستكشف بيئته بشكل مستقل، باستخدام كاميرات مثبتة على الرأس تعمل كالعيون و24 شعيرة صناعية لجمع معلومات اللمس.
ويشير الباحثون إلى أن المؤشرات الأولى تدل على أن النموذج يتمتع بأفضلية على أنظمة التعلم العميق التقليدية، لاسيما فيما يتعلق بالتنقل والتعرف على المواقع المألوفة، وهو اكتشاف يبحث فيه الفريق حالياً بشكل أكبر. ويقول بينارتز إن الأمر لا يقتصر على إمكانية تحسين الروبوتات من خلال استخدام معرفتنا بشأن الدماغ، بل يمكن لهذا الأمر أن يساعدنا على فهم الدماغ نفسه بشكل أفضل.
تابع القراءة على موقعنا: الرابط
لماذا لا يستطيع الذكاء الاصطناعي حل مشاكل التحيز في الدرجات الائتمانية؟
في أكبر دراسة على الإطلاق لبيانات الرهن العقاري في العالم الحقيقي، أظهر الاقتصاديان، لورا بلاتنر من جامعة ستانفورد وسكوت نيلسون من جامعة شيكاغو، أن الاختلافات في الموافقة على الرهن العقاري بين مجموعات الأقليات والأغلبية لا يرجع فقط إلى التحيز، ولكن إلى حقيقة أن الأقليات وفئات الدخل المنخفض تمتلك بيانات أقل في تاريخها الائتماني.
وهذا يعني أنه عند استخدام هذه البيانات لحساب درجة الائتمان، ومن ثم استخدام درجة الائتمان هذه للتنبؤ بالتخلف عن سداد القرض، فإن هذا التنبؤ سيكون أقل دقة. وهذا الافتقار إلى الدقة هو ما يؤدي إلى عدم المساواة، وليس فقط التحيز. يترتب على هذه النتيجة تداعيات كبيرة؛ إذ إنها تعني أن تطوير خوارزميات أكثر عدلاً لن يحل المشكلة.
تَجمع درجات الائتمان مجموعة من البيانات الاجتماعية والاقتصادية، مثل تاريخ التوظيف والسجلات المالية وعادات الشراء، في رقم واحد. وعلاوة على استخدام هذه الدرجات للبت في طلبات القروض، فإنها تستخدم اليوم لاتخاذ العديد من القرارات التي تؤثر على حيوات الأشخاص بشكل كبير بما في ذلك القرارات المتعلقة بالتأمين والتوظيف والإسكان.
في مسعى لاكتشاف سبب معاملة الأقليات والأغلبية بشكل مختلف من قِبل مقرضي الرهن العقاري، قام بلاتنر ونيلسون بجمع تقارير ائتمانية لـ 50 مليون مستهلك مغفل الهوية في الولايات المتحدة، وربط كل من هؤلاء المستهلكين بتفاصيلهم الاجتماعية والاقتصادية المأخوذة من مجموعة بيانات تسويقية، وسندات ممتلكاتهم ومعاملات الرهن العقاري، وبيانات عن مقرضي الرهن العقاري الذين قدموا لهم القروض.
تابع القراءة للاطلاع على تفاصيل الدراسة ونتائجها: الرابط
استطلاع: بحلول عام 2030، هل ستستعين معظم أنظمة الذكاء الاصطناعي بمبادئ أخلاقية تركز على الصالح العام؟
أغلب الخبراء أجابوا لا
قام مركز بيو للأبحاث ومركز (Imagining the Internet) التابع لجامعة إيلون الأميركية باستطلاع آراء 602 خبيراً تكنولوجياً حول أفكارهم بشأن استخدام المبادئ الأخلاقية للذكاء الاصطناعي كمعيار في معظم أنظمة الذكاء الاصطناعي خلال العقد القادم.
وتظهر نتيجة الاستطلاع -الذي تم نشر نتائجه الأسبوع الماضي- أن ثمة مخاوف واسعة بين المختصين من أن الذكاء الاصطناعي سيظل يركز في الغالب على الرقابة الاجتماعية وتحسين أرباح الشركات، كما يشيرون إلى صعوبة التوصل إلى إجماع حول مفاهيم الأخلاقيات.
وأوضح المركز أن العينة غير العشوائية التي أجابت على الاستطلاع ضمت عدداً من المبتكرين والمطورين وقادة الأعمال والباحثين والناشطين في مجال التكنولوجيا. وقد طُلب منهم الإجابة عن السؤال الآتي: "بحلول عام 2030، هل ستستعين معظم أنظمة الذكاء الاصطناعي التي تستخدمها جميع أنواع المؤسسات بمبادئ أخلاقية تركز في المقام الأول على الصالح العام؟"
ورداً على ذلك، اختار 68٪ من المستجيبين الخيار الذي يعتبر أن المبادئ الأخلاقية التي تركز بشكل أساسي على الصالح العام لن يتم استخدامها في معظم أنظمة الذكاء الاصطناعي بحلول عام 2030، بينما اختار 32٪ الخيار المقابل.
وفي معرض إجاباتهم التفصيلية عن السؤال، أوضح معظم الخبراء أن لديهم مخاوف بشأن كيفية تأثير تطور أنظمة الذكاء الاصطناعي على ما يعنيه أن تكون إنساناً وأن تكون منتجاً وأن تكون حر الإرادة. واعتبر بعضهم أن المشكلة ليست "ماذا نريد أن يكون الذكاء الاصطناعي؟" وإنما "أي نوع من البشر نريد أن نكون؟ وكيف نريد أن نتطور؟" إذ أن أنظمة الذكاء الاصطناعي سُتستخدم بطرق تؤثر على سبل عيش الناس، بما فيها الوظائف والسكن والائتمان، والطريقة التي يتنقلون بها، والأشياء التي يشترونها، والأنشطة الترفيهية والثقافية التي يمارسونها، بل وحتى ما يعتقدون أنه صحيح.
ويرى باري شوداكوف، مؤسس ومدير شركة (Sertain Research) الاستشارية أنه "... لكي يتم استخدام الذكاء الاصطناعي بطرق أخلاقية، ولتجنب الأساليب المشكوك فيها، يجب أن نبدأ بإعادة تصور الأخلاق نفسها".
بينما يعتقد مايك جودوين، المستشار العام السابق لمؤسسة ويكيميديا، أن تكاليف التقنيات التي تعمل بالذكاء الاصطناعي ستستمر في الانخفاض، وهو ما يرجح نشر أنظمة الذكاء الاصطناعي قبل الحصول على ضمانات بشأن الخصوصية وغيرها من الضمانات الأخلاقية. ويضيف: "السيناريو الأكثر ترجيحاً هو ظهور نوع من إساءة استخدام تقنيات الذكاء الاصطناعي عموماً، ما سيؤدي إلى فرض قيود تفاعلية على استخدام تلك الأنظمة، والتي ستكون إما قيوداً قاطعة على استخدامها أو (على الأرجح) مزيجاً من القيود الأخلاقية الموجهة لحالات استخدام معينة، مع الاستمرار في استخدامها بشكل غير مقيد خارج هوامش هذه القيود".
الرابط (إنجليزي)
|