坐标下降法(coordinate descent),理学-统计学-大数据统计分析-深度神经网络-梯度下降,一种寻求函数局部极小值的非梯度优化算法。坐标下降法依次沿着坐标轴的方向最小化目标函数,以下面形式的最小化目标函数为例:式中为可导的凸函数;为凸的惩罚函数(并不一定可导)。基于惩罚函数的可分离性,有学者证明上式最小化目标函数可以收敛到全局最小值。高维数据分析中的最小绝对收缩和选择算子(Lasso)、Group lasso、Fused lasso等经典的惩罚回归都可以归结于上面的目标函数。坐标下降法的基本思想是:在最小化目标函数问题中,每次迭代,固定其余参数不变,一次仅更新其中一个参数,不断循环直至收敛。利用坐标下降法优化上式最小化目标函数,其具体步骤是:①固定参数,对进行优化,并且更新。②固定参数,对进行优化,并且更新。③以此类推,对剩余参数进行循环更新,并得到新的一组参数。④判断收敛条件,如果收敛则停止更新,否则重复步骤①~③。坐标下降法操作简单,易于实现。