شماره ركورد :
688833
عنوان مقاله :
بهبودي بر شبكه‌هاي عصبي چند لايه انتشار برگشتي با به كارگيري نرخ يادگيري متغير و تيوري اتوماتان و تعيين نرخ يادگيري بهينه
عنوان فرعي :
Improving multilayer back propagation neural networks by using variable learning rate and automata theory and determining optimum learning rate
پديد آورندگان :
جعفريان، محمدرضا نويسنده , , عباس زاده، عليرضا نويسنده عضو هيات علمي دانشكده فني دانشگاه آزاد اسلامي واحد ايلام Abbaszadeh, alireza
اطلاعات موجودي :
فصلنامه سال 1387 شماره 6
رتبه نشريه :
فاقد درجه علمي
تعداد صفحه :
10
از صفحه :
31
تا صفحه :
40
كليدواژه :
تيوري اتوماتان , شبكه هاي عصبي چند لايه , نرخ يادگيري متغير , الگوريتم انتشار برگشتي
چكيده فارسي :
شبكه‌هاي عصبي چند لايه پيش خور از ديرباز به طور وسيعي مورد توجه محققان بوده است. اين شبكه‌ها علي‌رغم موفقيت چشم‌گير در برقراري ارتباط بين ورودي و خروجي، داراي چندين نقطه ضعف بوده‌اند. به عنوان مثال زمان آموزش اين شبكه‌ها نسبتاً طولاني است و گاهي ممكن است اين شبكه‌ها آموزش نبينند. دليل طولاني بودن زمان آموزش را مي‌توان به انتخاب نامناسب پارامترهاي شبكه نسبت داد. روش به دست آوردن پارامترهاي وزن وباياس شبكه، استفاده از گراديان تابع انرژي شبكه مي‌باشد. همان طور كه مي‌دانيم تابع خطاي شبكه داراي سطح ناهمواري بوده لذا شبكه در نقاط بهينه محلي متوقف شده و آموزش نمي‌بيند. براي جبران اشكال‌هاي وارد به الگوريتم بازگشتي، جهت بالا بردن سرعت آموزش از نرخ يادگيري متغير تطبيقي و براي جلوگيري از به دام افتادن شبكه در نقاط بهينه محلي از روش الگوريتم اتوماتان استفاده مي‌نماييم. با استفاده از اين روش‌ها مي‌توان نرخ يادگيري بهينه براي شبكه‌هاي مختلف به دست آورد.
چكيده لاتين :
Multilayer Bach propagation neural networks have been considered by researchers. Despite their outstanding success in managing contact between input and output, they have had several drawbacks. For example the time needed for the training of these neural networks is long, and some times not to be teachable. The reason For this long time of teaching is due to the selection unsuitable network parameters. The method For Obtaining the network parameters Of bias and weight is using is using gradient network energy function. As we Know, network error Function is of a not flat level, So the network is stopped at some optimum local points and we have no instruction at this points. To compensate for returned algorithm drawbacks, we use adaptive variable learning rate to enhance learning rate and in order to avoiding our network trapping in local points we used automata algorithm. By using this method it is possible to obtain improved learning rate For different net works.
سال انتشار :
1387
عنوان نشريه :
مهندسي سازه
عنوان نشريه :
مهندسي سازه
اطلاعات موجودي :
فصلنامه با شماره پیاپی 6 سال 1387
كلمات كليدي :
#تست#آزمون###امتحان
لينک به اين مدرک :
بازگشت