هوش مصنوعی قابل توضیح یا XAI، یک زمینه رو به رشد با هدف افزایش شفافیت و قابلیت فهم مدل های یادگیری ماشینی برای انسان ها
خدمات مشتری
قوانین و مقررات
خدمات مالی
بهداشت
پیاده سازی XAI
مدلهای یادگیری ماشین (ML) به طور فزایندهای در بسیاری از بخشها از جمله بهداشت و آموزش تا قانون و تحقیقات جنایی مورد استفاده قرار میگیرند. ازاینرو، تاثیرگذاری آنها بر زندگی انسانها بیشتر و بیشتر خواهد شد.
در تصمیمگیریهایی که نتایج آنها نقش حیاتی در زندگی دارند مانند تشخیص بیماری، شناخت دلایل پشت تصمیمات بسیار حائز اهمیت است. شرکت دانش بنیان فن آوران گیتی افروز، با پیاده سازی هوش مصنوعی توضیح پذیر(XAI)، سعی در طراحی سیستمهای هوشمند قابل توضیح دارد که انتقال استدلال پشت نتایج را تسهیل نماید.
شفاف سازی تصمیمات
هوش مصنوعی توضیح پذیر، مجموعه ای از فرآیندها و روش ها میباشد که اعتماد به نتایج و خروجی ارائه شده توسط الگوریتم های یادگیری ماشین را ارتقا میدهد. پیاده سازی هوش مصنوعی توضیح پذیر بر روی سامانه های مبتنی بر هوش مصنوعی به سازمان ها این امکان را میدهد تا رویکردی مسئولانه و منصفانه در بکارگیری مدل های هوش مصنوعی اتخاذ نمایند.
زمینه های اهمیت XAI
توضیح پذیری هوش مصنوعی یکی از الزامات اتحادیه اروپا برای استفاده از سامانه های مختلفی است که از هوش مصنوعی استفاده می کنند. پیاده سازی هوش مصنوعی توضیح پذیر در هر یک از سناریوهای زیر حائز اهمیت است:
- نیاز کاربران نهایی یا مشتریان به توضیح برای تصمیم گیری آگاهانه
- گسترده بودن عواقب تصمیم گیری اشتباه هوش مصنوعی
- بالا بودن هزینه مالی یک اشتباه و احتمال آسیب به سلامت افراد
- تایید فرضیه جدید هوش مصنوعی توسط متخصصان حوزه یا موضوع
- برای اهداف انطباق، مانند مقررات عمومی حفاظت از داده ها