您现在所在的位置:首页 >> 科学研究 >> 共享资源 >> 学术报告 >>
发布日期:2019年6月24日
学术报告-机器学习中的非凸优化

      机器学习模型可化简为求解一个目标函数/损失函数的最优化问题,根据优化目标及约束的不同,可划分为凸优化(Convex optimization)与非凸优化(Non-convex optimization)两类。本次报告首先回顾了优化问题及凸优化的相关理论知识,进而面向机器学习中因目标函数非凸、可行域非凸或是边缘凸等非凸优化情况,介绍了凸松弛、非凸投影梯度下降、交替优化等非凸优化方法,并对神经网络模型的可优化理论进行了问答式介绍。期望本次报告可对理解算法优化过程及设计易优化目标函数提供帮助。

附件-机器学习中的非凸优化.pdf