اشترك

الاستمرار بالحساب الحالي

شارك
شارك


يقول كل من علماء الحاسوب، علماء الإدراك والمعرفة، وباحثو القانون إنه يتوجب على أنظمة الذكاء الاصطناعي أن تكون قادرة على تفسير قراراتها دون الكشف عن جميع أسرارها.

2021-05-28 14:29:40

31 يوليو 2018
Article image

من المتوقع للذكاء الاصطناعي أن يلعب دوراً أكبر بصورة ملموسة، وهو ما يثير قضية المساءلة. فإذا اعتمدنا على الآلات لاتخاذ قرارات تكتسي بأهمية متزايدة، فسنحتاج إلى توفر آليات للاستدراك والتعويض إذا تبيّن أن النتائج غير مقبولة أو يصعب فهمها. ولكن جعل أنظمة الذكاء الاصطناعي تفسر قراراتها ليس بالأمر البسيط تماماً. إحدى المشاكل هي أن تقديم التفسيرات عملية مكلفة، فهو يتطلب موارد كبيرة سواء في تطوير نظام الذكاء الاصطناعي، أو في الطريقة التي يتم بها استجوابها من الناحية العملية. ومن الشواغل الأخرى أن التفسيرات قد تكشف عن الأسرار التجارية عبر إجبار المطورين على نشر نشر الآليات الداخلية التي يعمل وفقها نظام الذكاء الاصطناعي. علاوة على ذلك، تتمثل إحدى مزايا هذه الأنظمة في قدرتها على فهم البيانات المعقدة بطرق يتعذر على البشر استخدامها. لذا فإن جعل تفسيراتها يسيرة الفهم على البشر قد يستدعي الانخفاض في أدائها. إذاً، كيف يمكننا جعل الذكاء الاصطناعي مسؤولاً عن قراراته دون كبح إمكانات الابتكار؟ نحصل اليوم على إجابة من نوع من ما بفضل العمل الذي يقوم به كل من فينالي

أدخل بريدك الإلكتروني واقرأ المقال مجاناً

أنشئ حساباً مجاناً واقرأ مقالتين مجاناً كل شهر من أوسع تشكيلة محتوى أنتجته ألمع العقول العالمية والعربية.