يجب أن تعلم | في صلب الموضوع | للاطلاع | رقم اليوم | شخصية اليوم | مصطلح اليوم
جوجل تطور باثويز: الجيل التالي من بُنى الذكاء الاصطناعي
في معظم الأحيان، تتخصص أنظمة التعلم الآلي بشكل مفرط في أداء المهام الفردية، في حين أنها يمكن أن تتفوق في العديد من المهام معاً. لهذا السبب، أعلنت شركة جوجل أنها تبني باثويز (Pathways) وهي بنية ذكاء اصطناعي جديدة ستضطلع بالعديد من المهام في وقت واحد وتتعلم بسرعة وتعكس فهماً أفضل للعالم، على حد وصف الشركة.
وأوضح جيف دين، نائب رئيس جوجل، أن باثويز هي طريقة جديدة للتفكير في الذكاء الاصطناعي تعالج العديد من نقاط الضعف في الأنظمة الحالية وتجمع نقاط قوتها. وأضاف أنه بدلاً من تدريب نماذج الذكاء الاصطناعي الحالية كل مرة من الصفر على حل مشكلة واحدة فقط، تسعى الشركة لتدريب نظام واحد يضطلع بالعديد من المهام المنفصلة، ويعتمد أيضاً على مهاراته ويقوم بدمجها لتعلم مهام جديدة بشكل أسرع وأكثر فعالية.
وبهذه الطريقة، فإن ما يتعلمه النموذج من خلال التدريب على مهمة واحدة -مثل تعلم كيف يمكن للصور الجوية أن تتنبأ بارتفاع أحد التضاريس- يمكن أن يساعده في تعلم مهمة أخرى كالتنبؤ مثلاً بكيفية تدفق مياه الفيضانات عبر تلك التضاريس. وبدلاً من تركيز النماذج الحالية على حاسة واحدة فقط، ستعمل باثويز على تمكين النماذج من استخدام حواس متعددة -على غرار البشر- لإدراك العالم، وستتيح بناء نماذج متعددة الوسائط تشمل الرؤية والسمع وفهم اللغة في وقت واحد.
وبالتالي، سواء كان النموذج يعالج كلمة "فهد"، أو يعالج صوت شخص يقول "فهد"، أو فيديو لفهد يركض، سيتم تنشيط نفس الاستجابة: مصطلح الفهد. والنتيجة هي تطوير نموذج أكثر استنارة وأقل عرضة للأخطاء والتحيزات.
الرابط (إنجليزي)
حروب الروبوتات.. الذكاء والمجهول
التطورات في مجال الذكاء الاصطناعي وتكنولوجيا الروبوتات باتت مخيفة بشكل لافت، خصوصاً إن تم استخدامها في الأغراض العسكرية، وتطويرها لخدمة سباق التسلح العالمي، حينها سنجد جيوشاً من الروبوتات ومقاتلات حربية بدون طيار وذخائر جوالة قادرة على تنفيذ أصعب المهمات وبصورة فائقة من الدقة والسرعة.
لك أن تتخيل روبوتاً مجهزاً بأحدث الأسلحة وقادراً على تصويب أهدافه بدقة عالية ولا يتأثر لا برصاص ولا بنيران، وتخيل وجود روبوتات على شكل دبابات مجهزة بتقنيات ذكاء اصطناعي يمكنها من تحديد خصومها، وقادرة على الاتصال مع بعضها البعض وقادرة على التشكيل العسكري، الذي يمنحها التفوق بتكتيكات هجومية لا تستطيع ردعها، خصوصاً إن كان يخدمها من الخلف مدافع وروبوتات مهمات خاصة قادرة على إيجاد ثغرات في تشكيل العدو.
ولك أن تتخيل أيضاً، طائرات حربية دون طيار تؤمن الغطاء الجوي لهذه الدبابات ومزودة بذخائر جوالة تجول في الأجواء لتبحث عن هدفها وعندما تجده تقوم بقصفه بمنتهى الدقة هذا بخلاف الغواصات ذاتية القيادة، ولك أن تتخيل أن كل هذه الأسلحة والمعدات تدار من قبل حواسيب عملاقة قادرة على القيام بملايين العمليات الحسابية بثوانٍ معدودة وقادرة على تحليل الموقف وتغيير خطة الهجوم والدفاع بلمح البصر، حينها تأكد أن الغلبة لمن يمتلك تكنولوجيا أفضل وأسرع وأكثر تطوراً.
ما عرضته عليك هو أحد أوجه الحروب بصورتها التقليدية مع تغيير في شكل الأسلحة واستخداماتها، فماذا لو تم تطوير تقنيات الذكاء الاصطناعي لتشن حروباً مغايرة؟ حروب على شبكات الاتصالات والكهرباء، حروب على الأنظمة المصرفية والمالية، حروب على سيرفرات الحكومات والشركات، وتقوم بهجمات على الأنظمة العسكرية فتفعل ما يحلو لها من أنظمة الدفاع والهجوم الجوي والبحري والأرضي، حينها العالم كله ليس بمأمن من إطلاق صواريخ نووية أو غيرها من صواريخ أسلحة الدمار الشامل.
إن تم توظيف الذكاء الاصطناعي في المجال العسكري حينها لن نخاف من بني البشر بقدر ما سنخاف من أن تتحول الروبوتات لتصبح هي عدونا؛ وجه قبيح لتطور التكنولوجيا لم نجربه حتى الآن، وما ذكرته هنا ما هو إلا جزء بسيط من قدرات هائلة ستجعل حروب الفضاء وحروب الخيال العلمي أقرب للواقع إن لم نتمكن من كبح جماح العالم بالتسابق نحو التسلح وأوجدنا نظاماً أممياً قادراً على الحد من انتشار مثل هذه الأسلحة.
الرابط
الوصول إلى الذكاء العام الخارق ليس ضرورياً لكي يدمر الذكاء الاصطناعي العالم
يخشى معظم الناس من أن يؤدي تطوير الذكاء الاصطناعي العام (AGI) إلى آثار كارثية على عالمنا المعاصر. لكن المهندس السابق في شركة فيسبوك كيفن لاكر، يشير إلى زاوية أخرى قد تكون غير مألوفة، مفادها أن الذكاء العام الخارق (Generic Superhuman Intelligence) ليس ضرورياً لكي يدمر الذكاء الاصطناعي العالم، إذ أن ثمة طرق عديدة لكي يتسبب ذكاء اصطناعي ضيق خارق (Superhuman Narrow AI) في كارثة مروعة.
وأوضح لاكر -مؤسس منصة أكسيوم، وهي منصة مصممة لمساعدة المطورين على بناء تطبيقات لامركزية- أن هناك طريقتان يفكر فيهما الناس بشأن مخاطر الذكاء الاصطناعي. الأولى هي سيناريو "مشبك الورق"، الذي قد يحدث عندما تعمل مجموعة من مهندسي البرمجيات على تطوير نظام ذكاء اصطناعي، وفجأة يصلون إلى ذكاء اصطناعي فائق الذكاء، يمكنه أن يفعل ما يشاء، ربما أمر مجنون مثل تحويل العالم إلى مشابك ورقية. أما الطريقة الأخرى فهي طريقة "المستشار الإداري" لتحليل المخاطر، وهي عندما تقوم بإدراج مجموعة من المشكلات العملية المختلفة لكي يفكر الذكاء الاصطناعي في حلها بنفس الطريقة التي قد يفكر بها البشر في مخاطر تقلب أسعار صرف العملات.
ويقول لاكر إنه غير مقتنع بأي من هاتين الطريقتين. فطريقة "المستشار الإداري" تجعل تأثير الذكاء الاصطناعي في العالم لا يتعدى تأثير جهاز الفاكس. أما الطريقة الأخرى فهي صعبة التحقق لأن الذكاء الاصطناعي لن يقوم بقفزة نوعية ويصل إلى القدرة العامة الخارقة لدرجة تحويل الكوكب إلى مشابك ورقية.
وبالتالي، فالخطر الأكبر -في رأي الكاتب- لا يتمثل في الذكاء العام الخارق، وإنما في الذكاء الضيق الخارق. ويستعرض عدة طرق قد يتسبب فيها هذا النوع من الذكاء الاصطناعي في كارثة. فمثلاً، قد يستخدم القرصنة الإلكترونية: يمسح الإنترنت بحثاً عن أنظمة غير محمية، فيخترقها، ويساوم كل ما يمكنه الحصول عليه بالمال، ثم ينفق هذا المال على تعزيز قوته الحوسبية، ثم يكرر العملية. وبالطبع، هذا السيناريو لا يتطلب ذكاء اصطناعي عام، وإنما يحتاج الذكاء الاصطناعي فقط إلى أن يكون قرصاناً خارقاً.
الاحتمال الآخر هو ممارسة العنف في العالم الحقيقي. تخيل ذكاءً اصطناعياً يبني بعض الروبوتات القاتلة، ويحتجز بعض الناس كرهائن مقابل المال، ثم ينفق الأموال في بناء المزيد من الروبوتات القاتلة. قد يكون هذا السيناريو صعب التحقق مقارنة بالقرصنة الإلكترونية.
ويرى الكاتب أن المشكلة لا تكمن في أن الذكاء الاصطناعي يُقصد منه أن يكون جيداً ويخرج عن سيطرة البشر الذين يقومون ببنائه. فعندما تكون هناك أموال يمكن جنيها، سيكون البشر سعداء ببناء ذكاء اصطناعي يُقصد به أن يكون شريراً. وبشكل عام، تعمل أبحاث الذكاء الاصطناعي على جعل هذه المشكلة أسوأ.
الرابط (إنجليزي)
|