فایل های مشابه شاید از این ها هم خوشتان بیاید !!!!
توضیحات محصول دانلود پاورپوینت آشنایی با انواع شبکه های عصبی مصنوعی (کد13125)
دانلود پاورپوینت آشنایی با انواع شبکه های عصبی مصنوعی
\nشبکه های عصبی مصنوعی
\n\n عنوان های پاورپوینت :
\nشبکه عصبی چیست؟
\nشبکه عصبی چه قابلیتهائی دارد؟
\nالهام از طبیعت
\nاضافه کردن بایاس
\nقانون دلتا Delta Rule
\nالگوریتم gradient descent
\nبدست آوردن قانون gradient descent
\nقانون دلتا Delta Rule
\nمحاسبه گرادیان
\nخلاصه یادگیری قانون دلتا
\nمشکلات روش gradient descent
\nتقریب افزایشی gradient descent
\nمقایسه آموزش یکجا و افزایشی
\nشبکه های چند لایه
\nیک سلول واحد
\nتابع سیگموئید
\nالگوریتم Back propagation
\nالگوریتم BP
\nانتشار به سمت جلو
\nانتشار به سمت عقب
\nشرط خاتمه
\nمحنی یادگیری
\nمرور الگوریتم BP
\nافزودن ممنتم
\nقدرت نمایش توابع
\nفضای فرضیه و بایاس استقرا
\nقدرت نمایش لایه پنهان
\nنمودارخطا
\nقدرت تعمیم و overfitting
\nدلایل رخ دادن overfitting
\nروشهای دیگر
\nمثال: تشخیص ارقام
\nروشی که وزنها یاد گرفته میشوند:
\nشکل گیری وزنها:
\nThe learned weights
\nشبکه چه چیزی را یاد میگیرد؟
\nمثالی از تنوع ارقام دستنویس
\nانواع اتصالات شبکه
\nانواع مختلف یادگیری
\nاعمال Backpropagation به تشخیص اشیا
\n\n
\n\nقسمت ها و تکه های اتفاقی از فایل\n\nالهام از طبیعت\n\nمطالعه شبکه های عصبی مصنوعی تا حد زیادی ملهم از سیستم های یادگیر طبیعی است که در آنها یک مجموعه پیچیده از نرونهای به هم متصل در کار یادگیری دخیل هستند.\n\nگمان میرود که مغز انسان از تعداد 10 11 نرون تشکیل شده باشد که هر نرون با تقریبا 104 نرون دیگر در ارتباط است.\n\nسرعت سوئیچنگ نرونها در حدود 10-3 ثانیه است که در مقایسه با کامپیوترها 10 -10 ) ثانیه ( بسیار ناچیز مینماید. با این وجود آدمی قادر است در 0.1 ثانیه تصویر یک انسان را بازشناسائی نماید. این قدرت فوق العاده باید از پردازش موازی توزیع شده در تعدادی زیادی از نرونها حاصل شده باشد.\n\nیک پرسپترون میتواند بسیاری از توابع بولی را نمایش دهد نظیر AND, OR, NAND, NOR\n\nاما نمیتواند XORرا نمایش دهد.\n\nدر واقع هر تابع بولی را میتوان با شبکه ای دوسطحی از پرسپترونها نشان داد.\n\nاضافه کردن بایاس\n\nافزودن بایاس موجب میشود تا استفاده از شبکه پرسپترون با سهولت بیشتری انجام شود.\n\nبرای اینکه برای یادگیری بایاس نیازی به استفاده از قانون دیگری نداشته باشیم بایاس را بصورت یک ورودی با مقدار ثابت 1 در نظر گرفته و وزن W0 را به آن اختصاص میدهیم.\n\n \n\nچگونه وزنهای یک پرسپترون واحد را یاد بگیریم به نحوی که پرسپترون برای مثالهای آموزشی مقادیر صحیح را ایجاد نماید؟\n\nدو راه مختلف :\n\nقانون پرسپترون\n\nقانون دلتا\n\nالگوریتم یادگیری پرسپترون\n\nمقادیری تصادفی به وزنها نسبت میدهیم\n\nپرسپترون را به تک تک مثالهای آموزشی اعمال میکنیم.اگر مثال غلط ارزیابی شود مقادیر وزنهای پرسپترون را تصحیح میکنیم.\n\nآیا تمامی مثالهای آموزشی درست ارزیابی میشوند:\n\nبله پایان الگوریتم\n\nخیربه مرحله 2 برمیگردیم\n\nبرای یک مثال آموزشیX = (x1, x2, …, xn) در هر مرحله وزنها بر اساس قانون پرسپتون بصورت زیر تغییر میکند:\n\nwi = wi + Δwi\n\nکه در آن\n\nقانون دلتا Delta Rule\n\nوقتی که مثالها بصورت خطی جداپذیر نباشند قانون پرسپترون همگرا نخواهد شد. برای غلبه بر این مشکل از قانون دلتا استفاده میشود.\n\nایده اصلی این قانون استفاده از gradient descent برای جستجو در فضای فرضیه وزنهای ممکن میباشد. این قانون پایه روش Back propagation است که برای آموزش شبکه با چندین نرون به هم متصل بکار میرود.\n\nهمچنین این روش پایه ای برای انواع الگوریتمهای یادگیری است که باید فضای فرضیه ای شامل فرضیه های مختلف پیوسته را جستجو کنند.\n\nقانون دلتا Delta Rule\n\nبرای درک بهتر این روش آنرا به یک پرسپترون فاقد حد آستانه اعمال میکنیم. در انجا لازم است ابتدا تعریفی برای خطا ی آموزش ارائه شود. یک تعریف متداول این چنین است:\n\nE = ½ Σi (ti – oi) 2\n\n \n\nکه این مجموع برای تمام مثالهای آموزشی انجام میشود.\n\nالگوریتم gradient descent\n\nبا توجه به نحوه تعریف E سطح خطا بصورت یک سهمی خواهد بود. ما بدنبال وزنهائی هستیم که حداقل خطا را داشته باشند . الگوریتم gradient descent در فضای وزنها بدنبال برداری میگردد که خطا را حداقل کند. این الگوریتم از یک مقدار دلخواه برای بردار وزن شروع کرده و در هر مرحله وزنها را طوری تغییر میدهد که در جهت شیب کاهشی منحنی فوق خطا کاهش داده شود.\n\nبدست آوردن قانون gradient descent\n\nایده اصلی: گرادیان همواره در جهت افزایش شیب E عمل میکند.\n\nگرادیان E نسبت به بردار وزن w بصورت زیر تعریف میشود:\n\n \n\nE (W) = [ E’/w0, E’/w1, …, E’/wn]\n\nکه در آن E (W) یک بردارو E’مشتق جزئی نسبت به هر وزن میباشد.\n\n \n\nقانون دلتا Delta Rule\n\nبرای یک مثال آموزشیX = (x1, x2, …, xn) در هر مرحله وزنها بر اساس قانون دلتا بصورت زیر تغییر میکند:\n\nwi = wi + Δwi\n\n \n\nWhere Δwi = -η E’(W)/wi\n\n \n\nη: learning rate (e.g., 0.1)\n\nعلامت منفی نشاندهنده حرکت در جهت کاهش شیب است.\n\nمحاسبه گرادیان\n\nبا مشتق گیری جزئی از رابطه خطا میتوان بسادگی گرادیان را محاسبه نمود:\n\nE’(W)/ wi = Σi (ti – Oi) (-xi)\n\nلذا وزنها طبق رابطه زیر تغییر خواهند نمود.\n\nΔwi = η Σi (ti – oi) xi\n\n \n\n \n\n30 تا 70 درصد پروژه | پاورپوینت | سمینار | طرح های کارآفرینی و توجیهی | پایان-نامه | پی دی اف مقاله ( کتاب ) | نقشه | پلان طراحی | های آماده به صورت رایگان میباشد ( word | pdf | docx | doc )