查询结果:   喻昕,胡悦,马崇,伍灵贞,汪炎林.递归神经网络方法解决非光滑伪凸优化问题[J].计算机应用与软件,2019,36(11):145 - 151,242.
中文标题
递归神经网络方法解决非光滑伪凸优化问题
发表栏目
人工智能与识别
摘要点击数
342
英文标题
RECURRENT NEURAL NETWORK METHOD FOR SOLVING NONSMOOTH PSEUDOCONVEX OPTIMIZATION PROBLEMS
作 者
喻昕 胡悦 马崇 伍灵贞 汪炎林 Yu Xin Hu Yue Ma Chong Wu Lingzhen Wang Yanlin
作者单位
广西大学计算机与电子信息学院 广西 南宁 530004     
英文单位
School of Computer and Electronics Information, Guangxi University, Nanning 530004, Guangxi, China     
关键词
递归神经网络 非光滑伪凸优化 收敛性
Keywords
Recurrent neural network Nonsmooth pseudoconvex optimization Convergence
基金项目
国家自然科学基金项目(61462006,61862004)
作者资料
喻昕,教授,主研领域:人工神经网络,互联网络,优化计算。胡悦,硕士生。马崇,硕士生。伍灵贞,硕士生。汪炎林,硕士生。 。
文章摘要
针对目标函数为非光滑伪凸函数且带有等式约束和不等式约束的优化问题,基于罚函数以及微分包含的思想,构建一个层次仅为一层且不包含惩罚算子的新型递归神经网络模型。该模型不用提前计算惩罚参数,能够很好地收敛。理论证明全局解存在,模型的状态解能够在有限的时间内进到原目标函数的可行域并不再离开,其状态解最终收敛到目标函数的一个最优解。仿真实验证实了理论结果的可行性。
Abstract
Aiming at the optimization problem of nonsmooth pseudoconvex function with equality and inequality constraints, a new recursive neural network model with only one level and no penalty operator is constructed based on the idea of penalty function and differential inclusion. The model did not need to calculate penalty parameters in advance and could converge well. We theoretically prove the existence of global solutions. The state solutions of the model can enter the feasible region of the original objective function in a limited time and never leave, and the state solutions of the model converge to an optimal solution of the objective function. The feasibility of the theoretical results is verified by simulation experiments.
下载PDF全文