返回顶部

我想问下,EM算法为什么可以用于隐变量的求解问题呢,采用极大似然估计难以求得最优解,但是EM算法也只能求解得到稳定的解,也不能保证最优啊

2

0/300

评论 1

fish

没错,EM算法可以保证收敛到一个稳定点,但不能保证收敛到全局的极大值点,EM本身就是局部最优算法。如果目标函数是凸函数,那是全局最优。为了避免局部最优,很多时候我们会以不同的初始点多次进行EM算法,这样可以打破模型的对称性,并从结果集中选择最优的结果。 只是一个基于已有参数来对缺失数据(隐变量)计算概率值,并迭代和逼近的算法。 最常使用EM算法的场景是GMM模型的参数估计,但其实那也保证不了全局最优,不过没关系,这个方法可以至少得到一个效果比较OK的局部最优。(类似神经网络里,用反向传播+梯度下降也是得到局部最优,但这个局部最优只要最够好,在实际应用中就完全可用)

2021-09-13 17:38:09

- 没有更多了 -