عنوان مقاله :
يك شبكه عصبي بازگشتي تك لايه كارا براي حل دستهاي از مسائل بهينهسازي محدب ناهموار
عنوان به زبان ديگر :
An efficient one-layer recurrent neural network for solving a class of nonsmooth optimization problems
پديد آورندگان :
عبادي، محمدجواد دانشگاه دريانوردي و علوم دريايي چابهار , حسيني، عليرضا دانشگاه تهران - پرديس علوم - دانشكده رياضي، آمار و علوم كامپيوتر , جعفري، حسين دانشگاه دريانوردي و علوم دريايي چابهار
كليدواژه :
مسأله بهينهسازي محدب ناهموار , معادله خطي , نامساوي غيرخطي , شبكه عصبي بازگشتي
چكيده فارسي :
مسائل بهينهسازي مقيد داراي كاربردهاي وسيعي در علوم، مهندسي و اقتصاد ميباشند. در اين مقاله يك مدل شبكه عصبي براي حل دستهاي از مسائل بهينهسازي مقيد ناهموار با تابع هدف محدب ناهموار و قيود نامساويهاي غيرخطي و خطي آفين پيشنهاد شده است. آن يك شبكه عصبي بازگشتي تك لايه غير جريمهاي مبتني بر شمول ديفرانسيلي است. برخلاف اكثر مدلهاي شبكه عصبي موجود براي حل مسائل بهينهسازي، در ساختار مدل پيشنهادي هيچ پارامتر جريمهاي يا تابع جريمه وجود نداشته و مدل از پيچيدگي كمتري برخوردار است كه منجر به پيادهسازي آسانتر مدل پيشنهادي ميشود. معادل بودن مجموعه جوابهاي بهينه مسأله بهينهسازي اصلي و مجموعه نقاط تعادلي مدل شبكه عصبي پيشنهادي اثبات گرديده است. بهعلاوه همگرايي سراسري و پايداري شبكه عصبي پيشنهادي نشان داده شدهاند. به منظور روشن ساختن كارايي و اثربخشي مدل ارائه شده تعدادي مثال شامل مسأله مينيممسازي نرم L1 ارائه و حل شدهاست.
چكيده لاتين :
Constrained optimization problems have a wide range of applications in science, economics, and engineering. In this paper, a neural network model is proposed to solve a class of nonsmooth constrained optimization problems with a nonsmooth convex objective function subject to nonlinear inequality and affine equality constraints. It is a one-layer non-penalty recurrent neural network based on the differential inclusion. Unlike most of the existing neural network models, there is neither a penalty parameter nor a penalty function in its structure. It has less complexity which leads to the easier implementation of the model for solving optimization problems. The equivalence of optimal solutions set of the main optimization problem and the equilibrium points set of the model is proven. Moreover, the global convergence and the stability of the introduced neural network are shown. Some examples including the L1-norm minimization problem are given and solved by the proposed model to illustrate its performance and effectiveness.
عنوان نشريه :
پژوهش هاي نوين در رياضي