بهبودی بر شبکه‌های عصبی چند لایه انتشار برگشتی با به کارگیری نرخ یادگیری متغیر و تئوری اتوماتان و تعیین نرخ یادگیری بهینه

نوع مقاله: مقاله پژوهشی

نویسندگان

چکیده

شبکه‌های عصبی چند لایه پیش خور از دیرباز به طور وسیعی مورد توجه محققان بوده است. این شبکه‌ها علی‌رغم موفقیت چشم‌گیر در برقراری ارتباط بین ورودی و خروجی، دارای چندین نقطه ضعف بوده‌اند. به عنوان مثال زمان آموزش این شبکه‌ها نسبتاً طولانی است و گاهی ممکن است این شبکه‌ها آموزش نبینند. دلیل طولانی بودن زمان آموزش را می‌توان به انتخاب نامناسب پارامترهای شبکه نسبت داد. روش به دست آوردن پارامترهای وزن وبایاس شبکه، استفاده از گرادیان تابع انرژی شبکه می‌باشد. همان طور که می‌دانیم تابع خطای شبکه دارای سطح ناهمواری بوده لذا شبکه در نقاط بهینه محلی متوقف شده و آموزش نمی‌بیند. برای جبران اشکال‌های وارد به الگوریتم بازگشتی، جهت بالا بردن سرعت آموزش از نرخ یادگیری متغیر تطبیقی و برای جلوگیری از به دام افتادن شبکه در نقاط بهینه محلی از روش الگوریتم اتوماتان استفاده می‌نماییم. با استفاده از این روش‌ها می‌توان نرخ یادگیری بهینه برای شبکه‌های مختلف به دست آورد.

عنوان مقاله [English]

Improving multilayer back propagation neural networks by using variable learning rate and automata theory and determining optimum learning rate

نویسندگان [English]

  • mohammadreza jafariyan
  • Alireza Abaszadeh
چکیده [English]

Multilayer Bach propagation neural networks have been considered by researchers. Despite their outstanding success in managing contact between input and output, they have had several drawbacks. For example the time needed for the training of these neural networks is long, and some times not to be teachable. The reason For this long time of teaching is due to the selection unsuitable network parameters. The method For Obtaining the network parameters Of bias and weight is using is using gradient network energy function. As we Know, network error Function is of a not flat level, So the network is stopped at some optimum local points and we have no instruction at this points. To compensate for returned algorithm drawbacks, we use adaptive variable learning rate to enhance learning rate and in order to avoiding our network trapping in local points we used automata algorithm. By using this method it is possible to obtain improved learning rate For different net works.