شماره ركورد :
1169131
عنوان مقاله :
يك شبكه عصبي بازگشتي تك لايه كارا براي حل دسته‌اي از مسائل بهينه‌سازي محدب ناهموار
عنوان به زبان ديگر :
An efficient one-layer recurrent neural network for solving a class of nonsmooth optimization problems
پديد آورندگان :
عبادي، محمدجواد دانشگاه دريانوردي و علوم دريايي چابهار , حسيني، علي‌رضا دانشگاه تهران - پرديس علوم - دانشكده رياضي، آمار و علوم كامپيوتر , جعفري، حسين دانشگاه دريانوردي و علوم دريايي چابهار
تعداد صفحه :
14
از صفحه :
97
از صفحه (ادامه) :
0
تا صفحه :
110
تا صفحه(ادامه) :
0
كليدواژه :
مسأله بهينه‌سازي محدب ناهموار , معادله خطي , نامساوي غيرخطي , شبكه عصبي بازگشتي
چكيده فارسي :
مسائل بهينه‌سازي مقيد داراي كاربردهاي وسيعي در علوم، مهندسي و اقتصاد مي‌باشند. در اين مقاله يك مدل شبكه عصبي براي حل دسته‌اي از مسائل بهينه‌سازي مقيد ناهموار با تابع هدف محدب ناهموار و قيود نامساوي‌هاي غيرخطي و خطي آفين پيشنهاد شده است. آن يك شبكه عصبي بازگشتي تك لايه غير جريمه‌اي مبتني بر شمول ديفرانسيلي است. برخلاف اكثر مدل‌هاي شبكه‌ عصبي موجود براي حل مسائل بهينه‌سازي، در ساختار مدل پيشنهادي هيچ پارامتر جريمه‌اي يا تابع جريمه وجود نداشته و مدل از پيچيدگي كمتري برخوردار است كه منجر به پياده‌سازي آسان‌تر مدل پيشنهادي مي‌شود. معادل بودن مجموعه جواب‌هاي بهينه مسأله بهينه‌سازي اصلي و مجموعه نقاط تعادلي مدل شبكه عصبي پيشنهادي اثبات گرديده است. به‌علاوه همگرايي سراسري و پايداري شبكه عصبي پيشنهادي نشان داده شده‌اند. به منظور روشن ساختن كارايي و اثربخشي مدل ارائه شده تعدادي مثال شامل مسأله مينيمم‌سازي نرم L1 ارائه و حل شده‌است.
چكيده لاتين :
Constrained optimization problems have a wide range of applications in science, economics, and engineering. In this paper, a neural network model is proposed to solve a class of nonsmooth constrained optimization problems with a nonsmooth convex objective function subject to nonlinear inequality and affine equality constraints. It is a one-layer non-penalty recurrent neural network based on the differential inclusion. Unlike most of the existing neural network models, there is neither a penalty parameter nor a penalty function in its structure. It has less complexity which leads to the easier implementation of the model for solving optimization problems. The equivalence of optimal solutions set of the main optimization problem and the equilibrium points set of the model is proven. Moreover, the global convergence and the stability of the introduced neural network are shown. Some examples including the L1-norm minimization problem are given and solved by the proposed model to illustrate its performance and effectiveness.
سال انتشار :
1399
عنوان نشريه :
پژوهش هاي نوين در رياضي
فايل PDF :
8203187
لينک به اين مدرک :
بازگشت