Skip to main content

ویکی AI

منبعی معتبر و کامل جهت معرفی رودمپ یادگیری مفاهیم تخصصی هوش مصنوعی

بازگشت به صفحه اصلی ویکی

جهت کسب اطلاع در مورد رودمپ عمومی هوش مصنوعی روی لینک رو به رو کلیک کنید.

هوش مصنوعی توضیح پذیر(XAI)

مدل‌های یادگیری ماشین (ML) به طور فزاینده‌ای در بسیاری از بخش‌ها از جمله بهداشت و آموزش تا عدالت و تحقیقات جنایی مورد استفاده قرار می‌گیرند. ازاین‌رو، تأثیرگذاری آنها بر زندگی انسان‌ها بیشتر و بیشتر خواهد شد. از نمونه‌های این تأثیرات می‌توان به مدل‌سازی ریسک، تصمیم‌گیری در بیمه، آموزش (پیش‌بینی پیشرفت و موفقیت)، امتیازدهی اعتبار، مراقبت‌های بهداشتی، تحقیقات جنایی و پیش‌بینی تکرار جرم و… اشاره کرد.

در تصمیم‌گیری‌هایی که نتایج آن ها نقش حیاتی در زندگی دارند مانند تشخیص بیماری، دانستن دلایل پشت چنین تصمیم مهمی بسیار حائز اهمیت است. با وجود اینکه الگوریتم‌های هوش مصنوعی از نظر نتایج و پیش‌بینی‌ها قدرتمند به نظر می‌رسند، در عین حال می‌توانند مشکل‌ساز نیز باشند زیرا به سختی می‌توان بینشی در مورد مکانیسم داخلی کار آن ها، به ویژه الگوریتم‌‌های ML بدست آورد.

این مسئله باعث بروز مشکلات بیشتری می‌شود، زیرا سپردن تصمیمات مهم به سیستمی که نمی‌تواند خود را توضیح دهد، خطرات آشکاری را به همراه دارد. شفافیت، حداقل معیاری است که کارشناسان ML می‌توانند مستقیما در آن مشارکت داشته باشند و این می‌تواند اولین گام در این مسیر باشد.

بنابراین، طراحی سیستم‌های هوشمند قابل توضیح که انتقال استدلال پشت نتایج را تسهیل می‌کند، در طراحی مدل‌های منصفانه از اهمیت بالایی برخوردار است. معیارهای ارزیابی مرسوم مانند دقت و صحت، عادلانه بودن مدل را در نظر نمی‌گیرند. بنابراین، برای ارائه مدلی مطلوب، مدل‌های قابل توضیح مورد نیاز است.

هوش مصنوعی توضیح پذیر

توضیح پذیری منجر به شفافیت می شود و هر دو منجر به بهبود عادلانه مدل های ML می شود.

تحولات فعلی در هوش مصنوعی (AI) منجر به تجدید حیات هوش مصنوعی قابل‌توضیح (XAI) شده است. روش‌های جدیدی برای به‌دست‌آوردن اطلاعات از سیستم‌های AI به‌منظور ایجاد توضیحات برای خروجی آنها در حال تحقیق است. بااین‌حال، فقدان کلی ارزیابی معتبر و قابل‌اعتماد برای تأثیرات ایجاد شده بر تجربه کاربران و رفتار حاصل از توضیحات وجود دارد.

توضیحات مبتنی بر قانون و توضیحات مبتنی بر مثال، دو سبک توضیح نمونه هستند. نتایج نشان می‌دهد که توضیحات مبتنی بر قانون تأثیر مثبت کمی بر درک سیستم دارند، درحالی‌که به نظر می‌رسد هر دو توضیح مبتنی بر قانون و توضیح مبتنی بر مثال، کاربران را در پیروی از توصیه‌ها حتی در صورت نادرست بودن متقاعد می‌کنند. هیچ‌کدام از روش‌های توضیحی در مقایسه با عدم توضیح، عملکرد کار را بهبود نمی‌بخشد. این را می‌توان با این واقعیت توضیح داد که هر دو سبک توضیحی فقط جزئیات مربوط به یک تصمیم واحد را ارائه داده و در مورد دلیل اساسی یا علیت آن نظری نمی‌دهد. این نتایج اهمیت ارزیابی‌های کاربر را در ارزیابی مفروضات و شهود موجود در مورد توضیحات مؤثر نشان می‌دهد.

توجیه‌پذیری راه ساده‌ای برای کاربران غیرفنی ارائه می‌دهد تا فرایندهای یادگیری درونی یک مدل یادگیری را درک کنند و به آنها اجازه می‌دهد مدل را توجیه کنند. وقتی یک مدل هوش مصنوعی توضیح‌پذیر می‌شود، کاربران را جذب می‌کند. در نتیجه، به‌طورکلی، XAI قابلیت استفاده و مقبولیت مدل‌های هوش مصنوعی موجود را بهبود می‌بخشد، زیرا به کاربران اجازه می‌دهد در فرایند اشکال‌زدایی و ساخت مدل‌ها شرکت کنند.

هوش مصنوعی توضیح پذیر

تفاوت هوش مصنوعی معمولی و هوش مصنوعی توضیح پذیر

برای استفاده ایمن از سیستم‌های ML، رعایت معیارهای کمکی بسیار مهم است. بااین‌حال، بر خلاف معیارهای عملکرد مانند دقت، این معیارها اغلب نمی‌توانند به طور کامل اندازه‌گیری شوند. به‌عنوان‌مثال، ممکن است نتوانیم تمام آزمایش‌های واحد موردنیاز برای عملکرد ایمن یک خودروی نیمه خودران یا همه موارد سردرگمی را که ممکن است باعث تبعیض‌آمیز بودن سیستم امتیازدهی اعتبار شوند، برشماریم. در چنین مواردی، یک ملاک عمومی توضیح‌پذیری است: اگر سیستم بتواند استدلال خود را توضیح دهد، ما می‌توانیم بررسی کنیم که آیا آن استدلال با توجه‌ به این معیارهای کمکی صحیح است یا خیر. متأسفانه، در مورد اینکه توضیح‌پذیری در یادگیری ماشین چیست و چگونه آن را برای محک‌زدن ارزیابی کنیم، اتفاق‌نظر کمی وجود دارد.

ارزیابی توضیح‌پذیری فعلی معمولاً به دودسته تقسیم می‌شود:

دسته اول: تفسیرپذیری را در زمینه یک برنامه ارزیابی می‌کند. اگر سیستم در یک برنامه کاربردی یا یک نسخه ساده شده از آن مفید باشد، پس باید به نحوی قابل‌تفسیر باشد.

دسته دوم: تفسیرپذیری را از طریق یک پروکسی قابل‌اندازه‌گیری ارزیابی می‌کند. یک محقق ممکن است ابتدا ادعا کند که برخی از کلاس‌های مدل – به‌عنوان‌مثال، مدل‌های خطی پراکنده، فهرست‌های قوانین، درخت‌های تقویت‌شده گرادیان – قابل‌تفسیر هستند و سپس الگوریتم‌هایی را برای بهینه‌سازی در آن کلاس ارائه می‌کنند.

مفاهیم تفسیرپذیری در بالا معقول به نظر می‌رسند؛ زیرا آنها با اولین آزمون اعتبار تصویری در مجموعه آزمایشی صحیح موضوعات با انسان‌ها مواجه می‌شوند. بااین‌حال، این مفهوم اساسی بسیاری از سؤالات را بی‌پاسخ می‌گذارد: آیا همه مدل‌ها در همه کلاس‌های مدل تعریف شده برای تفسیرشدن به یک اندازه قابل‌تفسیر هستند؟ به نظر می‌رسد که پراکسی‌های قابل‌سنجش مانند پراکندگی امکان مقایسه را فراهم می‌کنند، اما چگونه می‌توان در مورد مقایسه یک مدل پراکنده در ویژگی‌ها با یک مدل پراکنده در نمونه‌های اولیه فکر کرد؟ علاوه بر این، آیا همه برنامه‌ها نیازهای توضیح‌پذیری یکسانی دارند؟ اگر می‌خواهیم این زمینه را به جلو ببریم – برای مقایسه روش‌ها و درک اینکه چه زمانی ممکن است روش‌ها تعمیم پیدا کنند، باید این مفاهیم را رسمی کنیم و آنها را مبتنی بر شواهد کنیم.

تفسیرپذیری و توضیح‌پذیری گاهی اوقات به‌جای یکدیگر استفاده می‌شوند، اما مهم است که بین این دو واژه تمایز قائل شویم. تفسیرپذیری در مورد درک علت و معلول در یک سیستم هوش مصنوعی است. میزانی است که می‌توانیم به طور مداوم تخمین بزنیم که یک مدل باتوجه‌به یک ورودی چه چیزی را پیش‌بینی می‌کند، بفهمیم که چگونه مدل پیش‌بینی کرده است، بفهمیم که چگونه پیش‌بینی با تغییر در پارامترهای ورودی یا الگوریتمی تغییر می‌کند، و در نهایت، درک کنیم که مدل چه زمانی اشتباه کرده است. تفسیرپذیری عمدتاً توسط کارشناسانی قابل‌تشخیص است که در حال ساخت، استقرار یا استفاده از سیستم هوش مصنوعی هستند، و این تکنیک‌ها بلوک‌های سازنده‌ای هستند که به ما کمک می‌کنند تا به توضیح‌پذیری دست پیدا کنیم.

از سوی دیگر، توضیح‌پذیری فراتر از تفسیرپذیری است؛ زیرا به ما کمک می‌کند به شکلی قابل‌فهم برای انسان دریابیم که یک مدل چگونه و چرا پیش‌بینی می‌کند. این مکانیک درونی سیستم را باهدف دستیابی به مخاطبان بسیار گسترده‌تر با عبارات انسانی توضیح می‌دهد. توضیح‌پذیری نیازمند تفسیرپذیری به‌عنوان بلوک ساختمانی است و همچنین به حوزه‌های دیگری مانند تعامل انسان و رایانه (HCI)، قانون و اخلاق نگاه می‌کند.

برای ساختن یک سیستم هوش مصنوعی قابل‌تفسیر، باید انواع مدل‌هایی را که می‌توانیم برای هدایت سیستم هوش مصنوعی استفاده کنیم و تکنیک‌هایی که می‌توانیم برای تفسیر آنها به کار ببریم، درک کنیم.

مدل های جعبه سفید

مدل‌های جعبه سفید ذاتاً شفاف هستند و ویژگی‌هایی که باعث شفافیت آن‌ها می‌شود:

  • درک الگوریتم مورداستفاده برای یادگیری ماشینی ساده است و می‌توانیم به‌ وضوح نحوه تبدیل ویژگی‌های ورودی به متغیر خروجی یا هدف را تفسیر کنیم.
  • ما می‌توانیم مهم‌ترین ویژگی‌ها را برای پیش‌بینی متغیر هدف شناسایی کنیم، و این ویژگی‌ها قابل‌درک هستند.

نمونه‌هایی از مدل‌های جعبه سفید شامل: رگرسیون خطی، رگرسیون لجستیک، درخت‌های تصمیم‌گیری و مدل‌های افزایشی تعمیم‌یافته(Generalized Additive Models) است.

مدل های جعبه سیاه

مدل‌های جعبه سیاه مدل‌هایی با قدرت پیش‌بینی واقعاً بالا هستند و معمولاً در کارهایی که عملکرد مدل (مانند دقت) برای آن ها بسیار مهم است، استفاده می‌شوند. بااین‌حال، آنها ذاتاً مات هستند و ویژگی‌هایی که آن ها را غیرشفاف می‌کند شامل موارد زیر است:

  • فرایند یادگیری ماشین پیچیده است و شما نمی‌توانید به‌راحتی درک کنید که چگونه ویژگی‌های ورودی به متغیر خروجی یا هدف تبدیل می‌شوند.
  • شما نمی‌توانید به‌ راحتی مهم‌ترین ویژگی‌ها را برای پیش‌بینی متغیر هدف شناسایی کنید.

نمونه‌هایی از مدل‌های جعبه سیاه مجموعه‌های درختی شامل: جنگل‌های تصادفی و درخت‌های تقویت‌شده با گرادیان(Gradient-boosted trees)، شبکه‌های عصبی عمیق (DNN)، شبکه‌های عصبی کانولوشنال (CNN) و شبکه‌های عصبی تکراری (RNNs) هستند.

هوش مصنوعی قابل توضیح

مقایسه تصویری بین مدل‌های جعبه سفید و سیاه

طبقه‌بندی روش‌های توضیح‌پذیری

 این معیار تشخیص می‌دهد که آیا تفسیرپذیری با محدودکردن پیچیدگی مدل یادگیری ماشین ذاتی(intrinsic) یا با استفاده از روش‌هایی که مدل را پس از آموزش تحلیل می‌کنند (post-hoc) به دست می‌آید. تفسیرپذیری ذاتی به مدل‌های یادگیری ماشینی اشاره دارد که به دلیل ساختار ساده‌شان قابل‌تفسیر در نظر گرفته می‌شوند، مانند درخت‌های تصمیم کوتاه یا مدل‌های خطی پراکنده.

تفسیرپذیری تعقیبی به کاربرد روش‌های تفسیری پس از آموزش مدل اشاره دارد. اهمیت ویژگی جای‌گشت، به‌عنوان‌مثال، یک روش تفسیر پس از آموزش است. روش‌های post hoc نیز می‌توانند برای مدل‌های قابل‌تفسیر ذاتی اعمال شوند. به‌ عنوان‌ مثال، اهمیت ویژگی جای‌گشت را می‌توان برای درختان تصمیم محاسبه کرد.

انواع روش توضیح‌پذیری مدل

 ابزارهای تفسیر مدل خاص(Model-specific) به کلاس‌های خاصی از مدل محدود می‌شوند. تفسیر وزن‌های رگرسیون در یک مدل خطی یک تفسیر مدل خاص است، زیرا – طبق تعریف – تفسیر مدل‌های ذاتی قابل‌تفسیر همیشه مختص مدل است. ابزارهایی که فقط برای تفسیر به‌ عنوان‌ مثال شبکه‌های عصبی کار می‌کنند مدل خاص هستند.

ابزارهای مدل – آگنوستیک(Model-agnostic) را می‌توان در هر مدل یادگیری ماشینی استفاده کرد و پس از آموزش مدل (post hoc) استفاده می‌شود. این روش‌های آگنوستیک معمولاً با تجزیه‌ و تحلیل جفت‌های ورودی و خروجی ویژگی کار می‌کنند. طبق تعریف، این روش‌ها نمی‌توانند به اجزای داخلی مدل مانند وزن یا اطلاعات ساختاری دسترسی داشته باشند.

هوش مصنوعی توضیح پذیر

انواع تکنیک های توضیح‌پذیری

دامنه‌های توضیح‌پذیری مدل

تفسیر کل‌نگر جهانی:

شما می‌توانید توضیح دهید که چگونه یک مدل پیش‌بینی می‌کند، به این دلیل که می‌توانید کل مدل را به طور هم‌زمان با درک کامل داده‌ها درک کنید، و این یک مدل آموزش‌دیده است.

تفسیر ماژولار جهانی:

همان‌طور که می‌توانید نقش قطعات یک موتور احتراق داخلی را در کل فرایند تبدیل سوخت به حرکت توضیح دهید، می‌توانید با یک مدل نیز این کار را انجام دهید. به‌ عنوان‌ مثال، در مثال عامل خطر CVD، روش اهمیت ویژگی ما به ما می‌گوید که ap_hi (فشارخون سیستولیک)، سن، کلسترول و وزن بخش‌هایی هستند که بیشترین تأثیر را بر کل دارند. اهمیت ویژگی تنها یکی از بسیاری از روش‌های تفسیر ماژولار جهانی است، اما مسلماً مهم‌ترین آن است.

تفسیر تک پیش‌بینی محلی:

می‌توانید توضیح دهید که چرا یک پیش‌بینی واحد انجام شده است. می‌توانید روی یک نمونه بزرگنمایی کنید و آنچه را که مدل برای این ورودی پیش‌بینی می‌کند بررسی کنید و توضیح دهید که چرا. اگر به یک پیش‌بینی فردی نگاه کنید، رفتار مدل پیچیده‌تر ممکن است خوشایندتر رفتار کند. به‌طور محلی، پیش‌بینی ممکن است فقط به‌صورت خطی یا یکنواخت به برخی ویژگی‌ها بستگی داشته باشد، نه اینکه وابستگی پیچیده‌ای به آنها داشته باشد. به عنوان مثال، ارزش یک خانه ممکن است به طور غیرخطی به اندازه آن بستگی داشته باشد. اما اگر فقط به یک خانه ۱۰۰ متر مربعی خاص نگاه می کنید، این احتمال وجود دارد که برای آن زیر مجموعه داده، پیش بینی مدل شما به صورت خطی به اندازه بستگی دارد. شما می توانید با شبیه سازی نحوه تغییر قیمت پیش بینی شده با افزایش یا کاهش اندازه ۱۰ متر مربع به این موضوع پی ببرید. بنابراین توضیحات محلی می توانند دقیق تر از توضیحات جهانی باشند.

تفسیر پیش‌بینی گروه محلی:

همان پیش‌بینی تک است، با این تفاوت که در مورد گروه‌های پیش‌بینی اعمال می‌شود. روش‌های توضیح فردی را می‌توان در هر نمونه استفاده کرد و سپس برای کل گروه فهرست یا جمع کرد.

جهت کسب اطلاعات در مورد رویدادهای آموزشی هوش مصنوعی با ما در ارتباط باشید.

تماس با ما
Close Menu