Skip to main content

ویکی AI

منبعی معتبر و کامل جهت معرفی رودمپ یادگیری مفاهیم تخصصی هوش مصنوعی

بازگشت به صفحه اصلی ویکی

جهت کسب اطلاع در مورد رودمپ عمومی هوش مصنوعی روی لینک رو به رو کلیک کنید.

رودمپ شبکه های عصبی

یادگیری عمیق (DL)

از سال ۲۰۰۶ یادگیری ساختار عمیق یا عنوان شناخته شده‌تر آن به نام‌های یادگیری عمیق یا یادگیری سلسله‌مراتبی به عنوان حوزه‌ی جدیدی در تحقیقات یادگیری ماشین پدیدار شد. روش‌ها و الگوریتم‌های یادگیری عمیق در چند سال اخیر توسعه چشم‌گیری یافت که موجب پیشرفت در مسائلی چون پردازش سیگنال و تصویر شده‌است. پیش از آن روش‌های یادگیری عمیق و پردازش سیگنال از ساختارهای سطحی تشکیل شده بودند که تنها شامل تبدیلات ویژگی غیرخطی می‌شدند و از ساختار چندلایه ویژگی‌های تطبیقی غیر خطی تهی بودند. روش‌هایی همچون مدل‌های مارکف مخفی، سیستم‌های پویای خطی و غیرخطی، مدل‌های بیشینه آنتروپی، ماشین‌های بردار پشتیبان، رگرسیون لجستیک و پرسپترون چندلایه از جمله روش‌های متداول با ساختار غیر عمیق بودند که شامل تنها یک لایه برای تبدیل داده‌های خام یا ویژگی‌ها به فضای ویژگی‌های خاص مسئله هستند…

شبکه عصبی کلاسیک

شبکه عصبی پرسپترون چندلایه (MLP)

شبکه عصبی پرسپترون چندلایه از ساده ترین و قدیمی ترین شبکه های عصبی مصنوعی محسوب میشود. در شبکه عصبی پرسپترون چندلایه حداقل سه لایه از نودها که به آن نورون نیز گفته می شود، وجود دارد که عبارتند از: لایه ورودی، لایه نهان و لایه خروجی. در هر لایه، نورون ها به این صورت کار می کنند که ابتدا مقادیر ورودی در وزن متناظر خود ضرب و با یک مقدار ثابت بایاس جمع می شوند. در نهایت نتیجه این ضرب وارد یک تابع فعال ساز شده و خروجی آن به لایه بعدی منتقل می شود، این فرایند تا زمان رسیدن به آخرین لایه تکرار می شود. به لایه هایی که بین لایه ورودی و لایه خروجی قرار می گیرند لایه نهان گفته می شود. تابع فعال ساز تصمیم می گیرد که هر نورون فعال باشد یا نباشد…

توابع پایه شعاعی (RBF)

شبکه‌های تابع پایه شعاعی (RBF) نوعی از شبکه‌های عصبی هستند که از توابع پایه شعاعی به عنوان توابع فعال‌ساز استفاده می‌کنند. شبکه‌های RBF از سه لایه تشکیل شده‌اند: لایه ورودی، لایه مخفی و لایه خروجی. جزئیات هر لایه به شرح زیر است…

نروفازی

زمانی که محبوبیت سیستم های فازی در کنترل کننده‌های فازی شروع به افزایش کرد در اوایل دهه ۱۹۹۰ میلادی محققین علاقه مند شدند تا توسعه فرآیند را با استفاده از پروسه یادگیری اتوماتیک حمایت کنند. تنها طی چند سال گذشته قانون یادگیری پس انتشار برای شبکه‌های عصبی چند لایه به عنوان ایده ای ناب موجی از علاقه مندی را در شبکه‌های عصبی به راه انداخت. این الگو باعث شد تا ایده آموزش سیستم‌های فازی به واسطه شبکه‌های عصبی ایجاد شود…

شبکه های عصبی مصنوعی (ANN)

شبکه‌های عصبی مصنوعی الهام گرفته از شبکه های عصبی بیولوژیکی مانند مغز انسان هستند. مغز انسان از تعداد زیادی واحد بسیار ریز به نام نرون تشکیل شده است، نرون ها از چهار بخش اصلی دندریت، سوما، آکسون و سیناپس تشکیل شده‌اند. دندریت‌ها به شکل رشته‌های طویل هستند که از مرکز سلول به اطراف پراکنده می‌شوند و در انتهای دندریت‌ها سیناپس‌ها واقع شده است که اطلاعات را منتقل می‌کنند. شبکه‌های عصبی زیستی قادر به یادگیری هستند…

شبکه عصبی عمیق

شبکه عصبی پرسپترون چندلایه (MLP)

شبکه عصبی پرسپترون چندلایه از ساده ترین و قدیمی ترین شبکه های عصبی مصنوعی محسوب میشود. در شبکه عصبی پرسپترون چندلایه حداقل سه لایه از نودها که به آن نورون نیز گفته می شود، وجود دارد که عبارتند از: لایه ورودی، لایه نهان و لایه خروجی. در هر لایه، نورون ها به این صورت کار می کنند که ابتدا مقادیر ورودی در وزن متناظر خود ضرب و با یک مقدار ثابت بایاس جمع می شوند. در نهایت نتیجه این ضرب وارد یک تابع فعال ساز شده و خروجی آن به لایه بعدی منتقل می شود، این فرایند تا زمان رسیدن به آخرین لایه تکرار می شود. به لایه هایی که بین لایه ورودی و لایه خروجی قرار می گیرند لایه نهان گفته می شود. تابع فعال ساز تصمیم می گیرد که هر نورون فعال باشد یا نباشد…

شبکه های عصبی بازگشتی (RNN)

 شبکه های عصبی بازگشتی یکی از مدل های یادگیری عمیق هستند که برای سری های زمانی یا داده هایی که شامل دنباله می شوند، مورد استفاده قرار می گیرند. در سال ۱۹۹۷ اولین نمونه های شبکه های عصبی بازگشتی طراحی شدند. شبکه های عصبی بازگشتی دارای مفهوم حافظه هستند که به آنها کمک می کند وضعیت ها یا اطلاعات ورودی های قبلی را برای تولید خروجی بعدی دنباله ذخیره کنند. به عبارت دیگر، وضعیت فعلی یک شبکه عصبی بازگشتی تحت تاثیر تصمیمات گذشته می باشد و به طور مشابه حالت های فعلی شبکه نیز بر تصمیمات بعدی تاثیرگذار خواهد بود. این شبکه ها حافظه ای مشابه مکانیسم مغز انسان دارند که علاوه بر حفظ حافظه توالی ورودی ها، می توانند اطلاعات بی فایده را نیز فیلتر کنند…

شبکه حافظه طولانی کوتاه مدت (LSTM)

شبکه های حافظه طولانی کوتاه مدت نوع خاصی از شبکه های عصبی بازگشتی محسوب می شوند که برای استفاده در داده های بسیار بلندمدت طراحی شده اند. این شبکه ها بر مشکل ناپدید شدن گرادیان (صفر شدن گرادیان) که شبکه های عصبی بازگشتی سنتی با آن رو به رو هستند، غلبه می کنند. هدف اصلی استفاده از شبکه های عصبی بازگشتی یادگیری وابستگی های بلندمدت داده ها می باشد. شبکه های عصبی بازگشتی در برخورد با داده های بسیار طولانی به درستی نمی توانند عمل کنند بنابراین، برای این نوع داده ها استفاده از شبکه های حافظه طولانی کوتاه مدت توصیه می شود که توانایی بالایی در برخورد با داده های بلندمدت دارند و می توانند مشکلات توالی را حل کرده و به نتایج پیشرفته دست یابند.

شبکه های عصبی همگشتی (CNN)

اولین نمونه موفق شبکه‌های عصبی همگشتی شبکه‌ای با عنوان لی­نت که در دهه ۹۰ معرفی گردید است. این شبکه برای تشخیص اعداد و کاراکترهای دست‌نویس مورد استفاده قرار گرفته‌است. ساختار شبکه‌های عصبی همگشتی از سازمان قشر بصری در حیوانات الهام گرفته ‌است. ویژگی‌های این شبکه‌ها، آن‌ها را از سایر شبکه‌های یادگیری عمیق متمایز می‌کند. اولین ویژگی، لایه‌های همگشتی و لایه‌های کاهش اندازه است. برخلاف شبکه‌های عصبی کاملا متصل که در هر لایه تمام نورون‌ها به نورون‌های لایه بعدی متصل می‌شوند، در لایه‌های همگشتی تنها قسمتی از نورون‌های یک لایه به یک نورون از لایه بعد متصل می‌شود. همچنین در لایه‌های کاهش اندازه، تنها اندازه ورودی پس از عبور از این لایه کاهش می‌یابد…

شبکه های مولد تخاصمی (GANS)

شبکه های مولد تخاصمی (GANs)، الگوریتم یادگیری بدون نظارت میباشد که قابلیت شناسایی و یادگیری خودکار الگوهای درون داده ها را داراست. شبکه های مولد تخاصمی از دو شبکه عصبی استفاده می کنند که به منظور ایجاد نمونه های جدیدی از داده که نمایانگر دیتاست اورجینال باشد با هم در رقابت هستند. این شبکه ها کاربرد گسترده ای در تولید تصاویر، ویدئو و صدا دارند. در ادامه با نحوه کارکرد GANs جهت درک بهتر آن آشنا خواهید شد…

خودرمزگذار (Autoencoder)

اتوانکدر یک شبکه عصبی مصنوعی بدون نظارت است که یاد می گیرد چگونه داده ها را به طور موثر فشرده و کدگذاری نماید. سپس، نحوه بازسازی داده ها را از بازنمایی رمزگذاری شده کاهش یافته به یک بازنمایی که تا حد امکان مشابه با ورودی اصلی باشد می آموزد. اتوانکدر، ابعاد داده را از طریق یادگیری نحوه حذف نویز از آن ها کاهش می دهد.

جهت کسب اطلاعات در مورد رویدادهای آموزشی هوش مصنوعی با ما در ارتباط باشید.

تماس با ما
Close Menu