Skip to main content

ویکی AI

منبعی معتبر و کامل جهت معرفی رودمپ یادگیری مفاهیم تخصصی هوش مصنوعی

بازگشت به صفحه اصلی ویکی

جهت کسب اطلاع در مورد رودمپ عمومی هوش مصنوعی روی لینک رو به رو کلیک کنید.

شبکه عصبی پرسپترون چندلایه

فهرست محتوا:

  • معرفی پرسپترون چندلایه
  • توابع فعال ساز
    • سیگموید
    • RELU
    • خطی

شبکه عصبی پرسپترون چندلایه یا MLP، از ساده ترین و قدیمی ترین شبکه های عصبی مصنوعی محسوب می شود. در شبکه عصبی پرسپترون چندلایه حداقل سه لایه از نودها که به آن نورون نیز گفته می شود، وجود دارد که عبارتند از: لایه ورودی، لایه نهان و لایه خروجی.

در هر لایه، نورون ها به این صورت کار می کنند که ابتدا مقادیر ورودی در وزن متناظر خود ضرب و با یک مقدار ثابت بایاس جمع می شوند. در نهایت، نتیجه این ضرب وارد یک تابع فعال ساز شده و خروجی آن به لایه بعدی منتقل می شود، این فرایند تا زمان رسیدن به آخرین لایه تکرار می شود.

به لایه هایی که بین لایه ورودی و لایه خروجی قرار می گیرند لایه نهان گفته می شود. تابع فعال ساز تصمیم می گیرد که هر نورون فعال باشد یا نباشد. قبل از بررسی توابع فعال ساز مدل MLP، به رسم ساختار مدل پرداخته می شود. این شبکه ها می توانند تعداد ورودی و لایه های پنهان و خروجی متفاوتی داشته باشند. برای آشنایی و درک بهتر، ساختار شبکه با ۴ ورودی در شکل زیر رسم شده است.

پرسپترون چندلایه

ساختار شبکه MLP

در شکل فوق، لایه اول مربوط به لایه های ورودی، لایه دوم مربوط به لایه های نهان و لایه سوم مربوط به لایه خروجی می باشد. جهت آشنایی با عملیاتی که در داخل نورون ها انجام می شود، شکل بازشده یک نورون عصبی نیز در شکل بالا نشان داده شده است.

توابع فعال سازی شبکه های عصبی پرسپترون چندلایه

برخی از توابع فعال سازی که برای شبکه های عصبی پرسپترون چندلایه مورد استفاده قرار می گیرند توابع فعال سازی Sigmoid ،RELU و Linear هستند. رابطه شماره ۱ مربوط به تابع فعال سازی Sigmoid، رابطه شماره ۲ مربوط به تابع فعال سازی RELU و رابطه شماره ۳ مربوط به تابع فعال سازی Linear است.

g(z)=11+e-z

رابطه شماره ۱

g(z)=max(0,z)

رابطه شماره ۲

f(x)=x

رابطه شماره ۳

تابع Sigmoid مقادیر را در میان بازه [0،1] قرار می دهد. تابع فعال ساز RELU به این صورت عمل می کند که  مقادیر منفی را صفر، مقادیر مثبت و مقادیر برابر با صفر را همان مقدار خودشان در نظر می گیرد. تابع فعال ساز خطی جمع وزن دار ورودی هر نود را عینا برمی گرداند و مقادیر را در بازه خاصی قرار نمی دهد. برای داده هایی با پیچیدگی بالا استفاده از این نوع تابع توصیه نمی شود زیرا نمی تواند پردازش چنین داده هایی را به درستی انجام دهد.

شکل مربوط به هریک از توابع فعال سازی نیز برای درک بهتر توابع رسم شده است. شکل شماره ۱ مربوط به تابع فعال ساز Sigmoid، شکل شماره ۲ مربوط به تابع فعال ساز RELU و شکل شماره ۳ مربوط به تابع فعال ساز خطی است.

پرسپترون چندلایه

شکل شماره ۱- نمودار تابع فعال سازی Sigmoid

پرسپترون چندلایه

شکل شماره ۲- نمودار تابع فعال سازی RELU

پرسپترون چندلایه

شکل شماره ۳- نمودار تابع فعال سازی Linear

جهت کسب اطلاعات در مورد رویدادهای آموزشی هوش مصنوعی با ما در ارتباط باشید.

تماس با ما
Close Menu