题目标题

LR常用的优化方法

难度:初级

机器学习
参考解析

逻辑回归本身是可以用公式求解的,但是因为需要求逆的复杂度太高,所
以才引入了梯度下降算法。
一阶方法:梯度下降、随机梯度下降、mini 随机梯度下降降法。随机梯
度下降不但速度上比原始梯度下降要快,局部最优化问题时可以一定程度上抑
制局部最优解的发生。
二阶方法:牛顿法、拟牛顿法:
这里详细说一下牛顿法的基本原理和牛顿法的应用方式。牛顿法其实就是
通过切线与 x 轴的交点不断更新切线的位置,直到达到曲线与 x 轴的交点得到
方程解。在实际应用中我们因为常常要求解凸优化问题,也就是要求解函数一
阶导数为 0 的位置,而牛顿法恰好可以给这种问题提供解决方法。实际应用中
牛顿法首先选择一个点作为起始点,并进行一次二阶泰勒展开得到导数为 0 的
点进行一个更新,直到达到要求,这时牛顿法也就成了二阶求解问题,比一阶
方法更快。我们常常看到的 x 通常为一个多维向量,这也就引出了 Hessian 矩
阵的概念(就是 x 的二阶导数矩阵)。缺点:牛顿法是定长迭代,没有步长因
子,所以不能保证函数值稳定的下降,严重时甚至会失败。还有就是牛顿法要
求函数一定是二阶可导的。而且计算 Hessian 矩阵的逆复杂度很大。
拟牛顿法: 不用二阶偏导而是构造出 Hessian 矩阵的近似正定对称矩阵的方
法称为拟牛顿法。拟牛顿法的思路就是用一个特别的表达形式来模拟 Hessian
矩阵或者是他的逆使得表达式满足拟牛顿条件。主要有 DFP 法(逼近 Hession
的逆)、BFGS(直接逼近 Hession 矩阵)、 L-BFGS(可以减少 BFGS 所需
的存储空间)