داک فارسی بانک جامع تحقیق آماده و مقالات جهت استفاده عموم الخصوص دانش آموزان و دانشجویان

محبوبترین محصولات

تماس با مدیر 09393453403 50درصد تخفیف ویژه داک فارسی ها عضویت در کانال تلگرام منابع تحقیق از کتب مرجع و معتبر علمی هستند

اطلاعیه فروشگاه

برای ارتباط با مدیر می توانید از شماره 09393453403 و یا ایمیل docfarsi1@gmail.com استفاده نمایید . برای دریافت فایل در تلگرام هم می توانید به شماره 09393453403 پیام ارسال کنید .

مقاله آماده در مورد بهبود سرعت یادگیری شبکه های عصبی

بهبود سرعت یادگیری شبکه های عصبی

 عنوان : بهبود سرعت یادگیری شبکه های عصبی 

 فرمت : doc - ورد 2003 ( قابل ویرایش و اجرا در کلیه آفیس ها ) 

 تعداد صفحات : 24 صفحه - صفحه آرایی شده آماده چاپ ، صحافی و ارائه 

 فونت های استفاده شده : b titr و  b trafic (دانلود فونت های مورد نیاز) 

 پشتیبانی  :   09393453403 - 24 ساعته پاسخگو شما عزیزان هستیم - محمدی 

  ★  مقاله دارای نتیجه گیری است .

  ★  منابع مقاله از مراجع علمی انگلیسی است .

مقدمه :

شبکه های عصبی چند لایه پیش خور1 به طور وسیعی د ر زمینه های متنوعی از قبیل طبقه بندی الگوها، پردازش تصاویر، تقریب توابع و ... مورد استفاده قرار گرفته است.
الگوریتم یادگیری پس انتشار خطا2، یکی از رایج ترین الگوریتم ها جهت آموزش شبکه های عصبی چند لایه پیش خور می باشد. این الگوریتم، تقریبی از الگوریتم بیشترین تنزل3 می باشد و در چارچوب یادگیری عملکردی 4 قرار می گیرد.
عمومیت یافتن الگوریتمBP ، بخاطر سادگی و کاربردهای موفقیت آمیزش در حل مسائل فنی- مهندسی می باشد.
علیرغم، موفقیت های کلی الگوریتم BP در یادگیری شبکه های عصبی چند لایه پیش خور هنوز، چندین مشکل اصلی وجود دارد:
- الگوریتم پس انتشار خطا، ممکن است به نقاط مینیمم محلی در فضای پارامتر، همگرا شود. بنابراین زمانی که الگوریتم BP همگرا می شود، نمی توان مطمئن شد که به یک جواب بهینه رسیده باشیم.
- سرعت همگرایی الگوریتم BP، خیلی آهسته است.
از این گذشته، همگرایی الگوریتم BP، به انتخاب مقادیر اولیه وزنهای شبکه، بردارهای بایاس و پارامترها موجود در الگوریتم، مانند نرخ یادگیری، وابسته است.
در این گزارش، با هدف بهبود الگوریتم BP، تکنیک های مختلفی ارائه شده است. نتایج شبیه سازیهای انجام شده نیز نشان می دهد، الگوریتم های پیشنهادی نسبت به الگوریتم استاندارد BP، از سرعت همگرایی بالاتری برخوردار هستند.

منابع :


[1] Wen Jin-Wei, Zhao Jia-Li, Luo Si-Wei and Han Zhen, ''The Improvements of BP Neural Network Learninig Algorithm'', IEEE, 2000.

[2] Chien-Cheng Yu, and Bin-Da Liu, ''A BACKPROPAGATION ALGORITHM WITH ADAPTIVE LEARNING RATE AND MOMENTOM COEFFI CIENT'', IEEE, 2000

[3] Yahya H.Zweiri, James F.Whidborne, Kaspar Althoefer and Lakmal D.Seneviratne, ''A New Three-Term Backpropagation Algorithm with Convergence Analysis'', Proceeding of the IEEE International Conference on Robotics 8Automation, 2002.

[4] S.C.Ng, S.H.Leung and A.Luk, ''A Generalized Back-Propagtion Algorithm for Faster Convergence'', IEEE, 1996.

[5] Riedmiller.M and H.Braun, ''A Direct Adaptive Method for Faster Backpropagation Learning: The RPROP Algorithm'', proceeding of the IEEE International Conference on Neural Networks, 1993.

[6] Z.Zainuddin, N. Mahat and Y.Abu Hassan, ''Improving the Convergence of the Backpropagation Algorithm USING Local Adaptive Techniques'', Tnternational Journal of Computational Intelligence, Vol. 1, No. 3, 2004.

[7] Zaiyong Tang and Gary J.KOEHLER, ''A Convergent Neural Network Learning Algorithm'', IEEE, 1992.

[8] Neural Network Toolbox.


مرجع فارسی:
1- مبانی شبکه های عصبی (هوش محاسباتی)، دکتر محمد باقر منهاج، انتشارات دانشگاه صنعتی امیر کبیر، چاپ دومف پائیز 1381.

منابع از کتب معتبر علمی می باشد.

لینک دانلود را پس از پرداخت دریافت می کنید .

پرداخت توسط کلیه کارت های عضو شتاب امکان پذیر است .


اشتراک بگذارید:


پرداخت اینترنتی - دانلود سریع - اطمینان از خرید

پرداخت هزینه و دریافت فایل

مبلغ قابل پرداخت 3,900 تومان
کدتخفیف:

درصورتیکه برای خرید اینترنتی نیاز به راهنمایی دارید اینجا کلیک کنید


فایل هایی که پس از پرداخت می توانید دانلود کنید

نام فایلحجم فایل
bhbvd_sreet_yadgyry_shbkh_hay_eesby_1761453_2270.zip178.7k





نظرسنجی

از کیفیت محصولات سایت راضی هستید ؟