يجب أن تعلم | للاطلاع | في صلب الموضوع | رقم اليوم | شخصية اليوم | مصطلح اليوم
شاومي وتسلا تنقلان سباق الروبوتات الشبيهة بالبشر إلى مستوى جديد
كشفت شركة التكنولوجيا الصينية العملاقة شاومي (Xiaomi)، يوم الجمعة الماضي، النقاب عن مجموعة من ابتكاراتها الجديدة التي تضمنت هاتفاً قابلاً للطي وجهازاً لوحياً وساعة ذكية ذات تصميم جذاب. لكن المفاجأة التي لفتت الأنظار خلال المؤتمر الذي عقدته الشركة في بكين هي روبوت ذو هيئة بشرية تقول إنه يستطيع اكتشاف مشاعر البشر والتفاعل معهم. وقد أثار ظهور هذا الروبوت الجديد المُسمى سايبر وان (CyberOne) على خشبة المسرح مقارنات فورية بينه وبين روبوت شركة تسلا المنتظر أوبتيموس (Optimus)، الذي من المقرر أن نرى النموذج الأولي منه خلال "يوم تسلا الثاني للذكاء الاصطناعي"، يوم 30 سبتمبر القادم.
سايبر وان
أوضحت شاومي، في بيان صحفي، أن طول "سايبر وان" يبلغ 177 سم، ووزنه 52 كغم، وقد تم تجهيزه بوحدة رؤية عميقة مدمجة مع خوارزمية ذكاء اصطناعي تفاعلية. وأضافت أن الروبوت قادر على إدراك الفضاء ثلاثي الأبعاد، بالإضافة إلى التعرف على الأفراد والإيماءات والتعبيرات، ما يسمح له ليس فقط برؤية بيئته المحيطة وإنما معالجتها أيضاً.
للتواصل مع العالم، تم تجهيز "سايبر وان" بمحرك للتعرف على دلالات البيئة ومحرك للتعرف على المشاعر الصوتية، ما يمكّنه من التعرف على 85 نوعاً من الأصوات و45 تصنيفاً للعواطف البشرية. وبالتالي فهو "قادر على اكتشاف السعادة ومواساة المستخدم في أوقات الحزن"، على حد قول الشركة.
وأخيراً، تم دمج كل هذه الميزات في وحدات معالجة "سايبر وان"، التي يتم إقرانها مع شاشة أو إل إي دي (OLED) منحنية لعرض معلومات تفاعلية في الوقت الفعلي.
أوبتيموس
على العكس من ذلك، تعهد الرئيس التنفيذي لشركة تسلا إيلون ماسك، أن يبدأ إنتاج الإصدار الأول من الروبوت "أوبتيموس" في عام 2023، وهو موعد قد يكون طموحاً لدرجة تجعله غير واقعي.
روبوت تسلا الذي سيقارب "سايبر وان" طولاً (170 سم تقريباً) ووزناً (57 كغم)، سيتفوق عليه بشكل كبير في قدرته على الرفع، حيث يمكنه رفع نحو 68 كغم وحمل 20 كغم. بينما لا يمكن لـ"سايبر وان" سوى حمل أشياء خفيفة -كالزهرة التي حملها في حفل تقديمه- لا تزيد على 1.5 كغم بيد واحدة.
للمزيد حول هذا السباق، تابع قراءة المقالة على موقعنا عبر هذا الرابط
هل يفيد أن تحل الآلات محل اختصاصي الرياضيات؟
تبهرني الرياضيات البحتة، ويرجع ذلك تحديداً إلى صعوبتها وإبهامها، أتصورها عالماً بعيداً، بارداً، محفوفاً بالمخاطر، مثل سلسلة جبال سينتينيل الواقعة في القارة القطبية الجنوبية، يبدو لي هؤلاء القادرون على سبر أغوار الرياضيات وكأنهم أشخاص خارقون.
ذات مرّة سألت أندريه فاي -وهو أحد هؤلاء الخارقين الذين نجحوا في الوصول إلى قمة جبل الرياضيات- عما إذا كان منزعجاً من أن إنجازاته في نظرية الأعداد والهندسة الجبرية لا يعلم عنها سوى عددٍ قليلٍ من الناس، بل إن مَن يفهمها عددٌ أقل أيضاً. وبعد أن بدا فاي متحيرًا من السؤال، أجابني بالنفي، مضيفاً: "هذا ما يجعل الأمر أكثر إثارة". يذكر فاي في سيرته الذاتية أن عمله في مجال الرياضيات ينقله إلى "حالة من الانتشاء الجزْل، تتوالى فيها الأفكار على نحوٍ يشبه المعجزة".
وربما لأنني أنظر إلى علماء الرياضيات نظرةً مثالية، أجدني منزعجاً من فكرة أن الآلات قد تحل محلهم، وهو الاحتمال الذي أثرته في مقال بعنوان "موت البرهان" (The Death of Proof)، نشرته مجلة ساينتفك أمريكان، في أكتوبر 1993، أوردتُ فيه أن اختصاصي الرياضيات قد أصبحوا أكثر اعتماداً على الحواسيب نتيجة تزايُد تعقيد علم الرياضيات، وقد أثَرت في هذا المقال التساؤل التالي: "هل سيكون علماء الرياضيات العظماء في القرن القادم مصنوعين من السيليكون؟"
لا يزال اختصاصيو الرياضيات ينتقدونني بسبب ذلك المقال، حتى مع استمرار الظواهر التي أشرت إليها فيه؛ فقد أعرب أنتوني بورج- اختصاصي الرياضيات بجامعة كامبريدج البريطانية- عن قلقه إزاء تعرُّض علم الرياضيات "لأزمة تكرار" مثل تلك التي نشهدها في مجال البحث العلمي. ويشير بورج في دورية "ذا ماثيماتيكال إنتيليجنسر" (The Mathematical Intelligencer) إلى أن اختصاصي الرياضيات يقبلون أحياناً برهاناً ما لأنهم يثقون بالمنهجية المستخدمة في البرهان وفي واضعه، وليس لأنهم تحققوا من صحته خطوةً بخطوة.
كذلك، يقول بورج إنه نظراً إلى "زيادة صعوبة التحقق من صحة الطروح الرياضية"، فقد لا يمكننا الاكتفاء بالمراجعات التقليدية التي يُجريها الأقران؛ لأن بعض علماء الرياضيات البارزين نشروا "براهين" على درجةٍ عاليةٍ من الابتكار والتفصيل، يعجز حتى المتخصصون في المجالات المشابهة عن التحقق من صحتها. على سبيل المثال، هناك البرهان الذي نشره شينيتشي موتشيزوكي في عام 2012، الذي يقول فيه إنه أثبت حدسية (ABC)، وهي مسألةٌ بارزةٌ في نظرية الأعداد. فقد نظّم علماء الرياضيات العديد من المؤتمرات على مدار العقد الماضي لتحديد ما إذا كان برهان موتشيزوكي صحيحاً أم لا، ولكن دون جدوى. وحتى الآن، لا يزال البعض يقبله والبعض الآخر يرفضه. هنا يشير بورج إلى أن حوسبة "محققات البراهين" سوف تساعد في التأكد من صحتها.
للمزيد حول هذا الموضوع المثير، تابع قراءة المقالة عبر هذا الرابط
كيف يمكن للاستخدام المسؤول للذكاء الاصطناعي أن يخلق فضاءات أكثر أماناً على الإنترنت؟
أصبح الذكاء الاصطناعي حقيقة يومية وأداة للأعمال يدفعها التقدم الحاسوبي وعلوم البيانات وتوافر مجموعات ضخمة من البيانات. تعمل شركات التكنولوجيا الكبرى، مثل أبل وجوجل وميتا، حالياً على تطوير أنظمة قائمة على الذكاء الاصطناعي، ويمكن لهذه الأنظمة أن تحاكي الكلام البشري وتكتشف السرطان وتتنبأ بالأنشطة الإجرامية وتصيغ العقود القانونية. وبالنسبة للشركات، يعد الذكاء الاصطناعي بالتنبؤ بنتائج الأعمال وتحسين العمليات وتحقيق الكفاءة مع توفير كبير في التكلفة.
لكن لا تزال هناك مخاوف متزايدة بشأن الذكاء الاصطناعي. أصبحت الخوارزميات قوية للغاية، لدرجة اعتبار بعض الخبراء أن الذكاء الاصطناعي يتمتع بالوعي. وبالتالي، يمكن أن يكون لأي فساد أو تلاعب أو تحيز أو تمييز آثار هائلة على المؤسسات وحياة الناس والمجتمع.
نظراً لأن قرارات الذكاء الاصطناعي تؤثر بشكل متزايد على حياة الناس، فإن المؤسسات تتحمل مسؤولية أخلاقية واجتماعية لإدارة تبني الذكاء الاصطناعي بشكل أخلاقي. ويمكنها القيام بذلك بعدة طرق:
1- ترجمة القواعد الأخلاقية إلى مقاييس
يلتزم الذكاء الاصطناعي الأخلاقي بالمبادئ التوجيهية والأخلاقية والقيم الأساسية محددة المعالم، مثل الحقوق الفردية والخصوصية وعدم التمييز ومنع التلاعب. يجب على المؤسسات وضع مبادئ واضحة لتحديد وقياس وتقييم وتخفيف المخاطر التي قد يسببها الذكاء الاصطناعي. بعد ذلك، يجب عليها ترجمتها إلى مقاييس عملية وقابلة للقياس وتضمينها في العمليات اليومية.
2- فهم مصادر التحيز
إن امتلاك الأدوات المناسبة للتحقيق في مصادر التحيز وفهم تأثيرات الإنصاف في صنع القرار أمر بالغ الأهمية في تطوير الذكاء الاصطناعي الأخلاقي. حدد الأنظمة التي تستخدم التعلم الآلي، وحدد مدى أهميتها للأعمال، وقم بتطبيق عمليات وضوابط وإجراءات مضادة ضد التحيزات التي يسببها الذكاء الاصطناعي.
3- تحقيق التوازن بين الاستقلالية والإشراف البشري
يجب على المؤسسات إنشاء لجنة أخلاقيات متعددة المجالات تشرف على إدارة ومراقبة المخاطر التي تسببها أنظمة الذكاء الاصطناعي داخل المؤسسة وسلسلة التوريد. ويجب أن تضم هذه اللجنة أشخاصاً من خلفيات متنوعة لضمان تفهمها لجميع أنواع القضايا الأخلاقية.
الرابط (إنجليزي)
|