مغز به عنوان یک سیستم پردازش با ساختار موازی دارای۱۰۱۱ واحد پایه به نام نرون است و هر نرون تقریباً به ۱۰۴ نرون دیگر اتصال دارد. نرون عنصر اصلی مغز است و به تنهایی مانند یک واحد پردازش منطقه­ای عمل می­ کند. نحوه عملیات نرون بسیار پیچیده است و هنوز در سطح میکروسکوپی چندان شناخته شده نیست، هر چند قوانین پایه آن نسبتاً روشن است. هر نرون ورودیهای متعددی را پذیراست که با یکدیگر به طریقی جمع می­شوند. اگر در یک لحظه تعداد ورودیهای فعال نرون به حد کفایت برسد نرون نیز فعال شده و آتش می­ کند، در غیر این صورت نرون به صورت غیر فعال و آرام باقی می­ماند. نمایشی از ویژگیهای عمده نرون در شکل (۱-۱۸) آمده است.
شکل(۱-۱۸): مشخصات اصلی یک نرون بیولوژیک[۲۶].
اکثر نرون­ها از سه قسمت ­اساسی تشکیل شده ­اند:
بدنه­ی سلول(که شامل هسته و قسمت­ های حفاظتی دیگر می­باشد و سوما نامیده می­شوند)
دندریت
اکسون
که دو قسمت آخر عناصر ارتباطی نرون را تشکیل می­دهد. نرون­ها براساس ساختارهایی که بین آنها پیام­ها هدایت می­شوند به سه دسته تقسیم می­گردند:
نرون­های حسی که اطلاعات را از ارگان­های حسی به مغز و نخاع می­فرستند.
نرون­های محرک که سیگنال­های فرمان را از مغز و نخاع به ماهیچه­ها و غدد هدایت ­می­ کنند.
نرون­های ارتباطی که نرون­ها را به هم متصل می­ کنند.
۱-۸-۲- مدل ریاضی یک نرون
نرون کوچکترین واحد یک شبکه عصبی مصنوعی است. بدنه هر سلول عصبی از دو بخش تشکیل می‌شود، بخش اول را تابع ترکیب می‌گویند، وظیفه تابع ترکیب این‌است که تمام ورودی‌ها را ترکیب و یک عدد تولید کند. در بخش دوم سلول تابع انتقال قرار دارد که به آن تابع تحریک نیز می‌گویند [۲۶]. در شکل(۱-۱۴)، ساختار یک نرون مصنوعی نشان داده‌شده است. رایج‌ترین انواع توابع تحریک بر پایه مدل‌های بیولوژیک استوار گردیده است. درواقع همان‌گونه که یک سلول بیولوژیک باید به سطح آستانه تحریک خاصی برسد تا یک سیگنال تولید کند، توابع تحریک نیز تا زمانی که ورودی‌های ترکیب شده و وزن‌دار شده به یک حد آستانه‌ای خاص نرسند مقدار خروجی بسیار کوچکی تولید می‌کنند.
شکل(۱-۱۹): ساختار یک نرون مصنوعی [۶]
وقتی ورودی‌های ترکیب شده به حد آستانه‌ای خاصی برسند، سلول عصبی تحریک شده و سیگنال خروجی را تولید می‌کند.
ارتباط داخلی بین نرونهای موجود در یک شبکه عصبی مصنوعی بسیار ساده می‌باشد. اکثر شبکه‌های عصبی دارای یک لایه‌ی ورودی، حداقل یک لایه‌ی مخفی[۴۱] و یک لایه‌ی خروجی[۴۲] می‌باشند.
لایه‌ی ورودی: اطلاعات را از یک منبع خارجی دریافت کرده و در داخل شبکه پخش می کند.
لایه‌ی مخفی، اطلاعات را از لایه‌ی قبلی دریافت می‌کند. پردازش اطلاعات در این لایه انجام می‌شود.
لایه‌ی خروجی، اطلاعات پردازش‌شده را دریافت و نتایج را به یک دریافت‌کننده‌ی خارجی انتقال می‌دهد.
پردازش اطلاعات درون نرونهای شبکه عصبی به صورت عددی انجام می‌شود. اندازه‌ی سیگنالی که به هر نرون وارد می‌شود به دو عامل بستگی دارد:
– اندازه سیگنال ورودی از نرون قبلی.
– وزن یا طول ارتباطی که بین دو نرون وجود دارد.
۱-۸-۳- یادگیری شبکه
الف)یادگیری با ناظر
در یادگیری با ناظر، قانون یادگیری اینگونه می­باشد که به ازای مجموعه ­ای از بردار ورودی به شبکه و خروجی مطلوب شبکه برای ورودی ها وجود دارد. پس از اعمال ورودی به شبکه عصبی در خروجی شبکه، مقدار خروجی با مقدار خرجی مطلوب مقایسه شده و سپس خطای یادگیری محاسبه و از آن جهت تنظیم پارامترهای شبکه استفاده می­ شود، به گونه ­ای که اگر دفعه­ی بعد به شبکه همان ورودی اعمال شود خروجی شبکه به مقدار مطلوب خروجی نزدیکتر گردد.

(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

ب)یادگیری بدون ناظر
در یادگیری بدون ناظر یا یادگیری خودسازمانده، پارامترهای شبکه عصبی تنها توسط پاسخ سیستم اصلاح می­ شود. به عبارتی تنها اطلاعات دریافتی از محیط به شبکه را بردارهای ورودی تشکیل می­ دهند و بردار جواب مطلوب به شبکه اعمال نمی­ شود و طبقه ­بندی موجود در الگوهای ورودی و شاخص­ های موجود در ورودی­ ها و ارتباط میان آنهاتنها توسط شبکه تنظیم می­ شود.
ج)یادگیری تشدیدی
این الگوریتم یک حالت ویژه از یادگیری نظارت شده است که به جای استفاده از خروجی مطلوب، یک معیار را فقط برای تعیین میزان خوب بودن خروجی شبکه عصبی متناظر با یک ورودی به کار می­گیرد. یک مثال از این نوع الگوریتم یادگیری، الگوریتم ژنتیک است. در این نوع یادگیری به جای فراهم نمودن جواب واقعی­، به شبکه عددی که نشانگر میزان عملکرد شبکه است ارائه می­ شود­.
۱-۸-۴- تقسیم بندی بر اساس ساختار
الف) شبکه های پیش خور[۴۳]
در این شبکه ها سیگنالها از لایه ورودی به لایه خروجی توسط اتصالهای یک جهته جریان پیدا می­ کنند. نرونهای یک لایه به نرونهای لایه بعد متصل هستند اما با نرونهای لایه خود ارتباطی ندارند. شبکه های پیش خور یک ارتباط ثابت و ایستا بین فضای ورودی و خروجی برقرار می­ کنند به این معنا که خروجی در یک لحظه فقط تابعی از ورودی در همان لحظه است. شبکه های MLP، LVQ، GMDH مثالهایی از شبکه های پیش خور می باشند[۳۰].
ب) شبکه های بازگشتی[۴۴]
در یک شبکه بازگشتی خروجی بعضی نرونها به همان نرون یا نرونهای لایه قبل بازگردانده می­ شود. در نتیجه سیگنال می ­تواند در دو جهت رفت و برگشت جریان داشته باشد. شبکه های بازگشتی یک حافظه پویا دارند، به این معنا که خروجی آنها در یک لحظه بازتابی از ورودی در همان لحظه و ورودیها و خروجی های پیشین می­باشد. شبکه های Hopfield، Elman و Jordan جزء شبکه های بازگشتی می باشند[۲۴].
۱-۸-۵- شبکه پرسپترون
شبکه­ عصبی پرسپترون، به ویژه پرسپترون چند لایه، در زمره­ی کاربردی ترین شبکه­ های عصبی می­باشند. این شبکه­ ها قادرند با انتخاب مناسب تعداد لایه ­ها و سلول­های عصبی،که اغلب زیاد هم نیستند، یک نگاشت غیر خطی را با دقت دلخواه انجام دهند. قانون یادگیری این شبکه از نوع یادگیری با ناظر است. در شبکه­ عصبی پرسپترون چند لایه عموماً دو نوع سیگنال استفاده می­ شود که بهتر است از هم تمیز داده شوند یک نوع سیگنال در مسیر رفت حرکت می­ کنند(از سمت چپ به راست ) و دسته­ی دیگر سیگنال­هایی هستند که در مسیر برگشت حرکت می­ کنند(از سمت راست به چپ). به دسته­ی اول سیگنال­های تابعی[۴۵] و به دسته­ی دوم سیگنال­های خطا[۴۶] گویند. شکل (۱-۲۰) یک MLP با سه لایه را نشان می­دهد. نرونها در لایه ورودی فقط به عنوان فضاهایی برای توزیع سیگنالهای ورودی به نرونهای لایه مخفی عمل می­ کنند. هر نرون l در لایه مخفی مجموع سیگنالهای ورودی را که در وزن مربوطه ضرب شده است حساب کرده و خروجی را که تابعی از این مجموع است تولید می­ کند. خروجی نرونهای لایه خروجی هم به همین صورت محاسبه می­شوند.
(۱-۴۸)
Input Layer
Hidden Layer
Output Layer
Bias
Bias
Environment
Environment
External Input
External Output

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...