坐标梯度下降法(coordinate gradient descent),理学-统计学-大数据统计分析-深度神经网络-梯度下降,梯度投影法和坐标下降法结合的优化算法。梯度投影法是以目标函数负梯度方向在作用约束的约束界面交集上的投影作为下降可行方向的可行方向法。2009年,华盛顿大学教授曾保罗[注]等人在考虑光滑函数与可分凸函数之和的极小化问题时,提出了(块)坐标梯度下降法。该问题包括有约束的优化问题和带正则化的光滑优化问题。在2009年,研究了该算法的收敛性质、收敛速度和误差界。在2010年,将该算法推广到求解SVM问题和具有线性约束的非光滑可分离函数的优化问题。在2011年,新加坡国立大学卓金全[注]等人深入研究了该算法在包含正则化的凸优化中的应用,给出了更高效的方法求解规模较大的正则化线性最小二乘问题和正则化逻辑回归问题。坐标梯度下降法在求函数最小值时,求解目标函数可写成一个光滑函数和一个具有可分离性的凸函数的和的形式。设非凸非光滑优化问题为:式中;为下半连续的正凸函数,在包含的开集上;为光滑函数。,意为是正定矩阵。