🔺هنگامی که قوانین، هوش مصنوعی را کنترل میکند!
🖊 نویسنده: زهرا مجدیزاده
✅ تفسیرپذیری الگوریتمهای هوش مصنوعی، به یکی از نگرانیهای اصلی جامعه تبدیل شده است و سیاستگذاران در سراسر جهان شروع به پاسخگویی به چنین نگرانیهایی کردهاند.
✅ در اروپا، یک گروه متخصص در زمینه هوش مصنوعی، هفت مورد را برای یک هوش مصنوعی قابل اعتماد پیشنهاد دادهاند که عبارتند از: مداخلهی انسانی و نظارت، استحکام فنی و ایمنی، حفظ حریم خصوصی و حکمرانی داده، شفافیت، تنوع / عدم تبعیض / انصاف، سامانیابی اجتماعی و محیط زیستی و نهایتا مسئولیتپذیری.
✅ بر همین اساس، کمیسیون اروپا در گزارش خود در مورد هوش مصنوعی، شش نوع الزام را برای کاربردهای پرخطر هوش مصنوعی ارائه داده است که از میان آنها دو عامل #شفافیت و #تفسیرپذیری، به عنوان عوامل کلیدی در نظر گرفته شده اند.
✅ به همین دلیل در اروپا و به منظور ارتقاء تفسیرپذیری در تصمیمات الگوریتمی، چندین تعهد جدید برای سیستمهای خودکار، به ویژه در خصوص قوانین حمایت از داده و قوانین حمایت از مصرفکننده، اتخاذ شده است.
💠 جهت مشاهده محتوا در وبسایت #آزمایشگاه_داده_و_حکمرانی روی لینک کلیک کنید.
🖊 نویسنده: زهرا مجدیزاده
✅ تفسیرپذیری الگوریتمهای هوش مصنوعی، به یکی از نگرانیهای اصلی جامعه تبدیل شده است و سیاستگذاران در سراسر جهان شروع به پاسخگویی به چنین نگرانیهایی کردهاند.
✅ در اروپا، یک گروه متخصص در زمینه هوش مصنوعی، هفت مورد را برای یک هوش مصنوعی قابل اعتماد پیشنهاد دادهاند که عبارتند از: مداخلهی انسانی و نظارت، استحکام فنی و ایمنی، حفظ حریم خصوصی و حکمرانی داده، شفافیت، تنوع / عدم تبعیض / انصاف، سامانیابی اجتماعی و محیط زیستی و نهایتا مسئولیتپذیری.
✅ بر همین اساس، کمیسیون اروپا در گزارش خود در مورد هوش مصنوعی، شش نوع الزام را برای کاربردهای پرخطر هوش مصنوعی ارائه داده است که از میان آنها دو عامل #شفافیت و #تفسیرپذیری، به عنوان عوامل کلیدی در نظر گرفته شده اند.
✅ به همین دلیل در اروپا و به منظور ارتقاء تفسیرپذیری در تصمیمات الگوریتمی، چندین تعهد جدید برای سیستمهای خودکار، به ویژه در خصوص قوانین حمایت از داده و قوانین حمایت از مصرفکننده، اتخاذ شده است.
💠 جهت مشاهده محتوا در وبسایت #آزمایشگاه_داده_و_حکمرانی روی لینک کلیک کنید.