EM算法和GMM模型

编辑
本词条由“匿名用户” 建档。
在统计学中,EM(期望最大化)算法处理潜变量,而GMM是高斯混合模型。背景在下面的图片中,显示了两组人的红细胞血红蛋白浓度和红细胞体积数据,贫血组和对照组(即没有贫血的人)。正如预期的那样,贫血症患者的红细胞体积和红细胞血红蛋白浓度都比非贫血症患者低。现在,似然函数可以通过对以下方面进行偏导来实现最大化μ,Σ,ϕ{displaystylemu,Sigma,phi},得到的结果是:.{displ...

EM算法和GMM模型

编辑

在统计学中,EM(期望最大化)算法处理潜变量,而GMM是高斯混合模型。背景在下面的图片中,显示了两组人的红细胞血红蛋白浓度和红细胞体积数据贫血组和对照组(即没有贫血的人)。正如预期的那样,贫血症患者的红细胞体积和红细胞血红蛋白浓度都比非贫血症患者低。现在,似然函数可以通过对以下方面进行偏导来实现xxx化μ,Σ,ϕ{displaystylemu,Sigma,phi},得到的结果是:.{displaystylez}是一个潜在的变量(即没有被观察到),在无标签的情况下,期望xxx化算法是一个潜在的变量(即没有被观察到),在没有标记的情况下,需要用期望xxx化算法来估计z{displaystylez}以及其他参数。以及其他参数。一般来说,这个问题被设定为GMM,因为每组的数据都是正态分布。在机器学习中,潜变量被认为是隐藏在数据之下的潜在模式,观察者不能很直接地看到它。

gmm及em算法

{displaystylex_{i}}中的数据,可以找到参数的估计。可以找到,同时也可以对参数进行估计。这种情况在机器学习中的广泛应用是EM算法的重要原因。GMM中的EM算法EM算法由两步组成:E步和M步。首先,模型参数和{displaystylez{(i)}}可以随机初始化。可以被随机初始化。在E步骤中,该算法试图猜出的猜测更新模型参数值。这两个步骤重复进行,直到达到收敛。GMM中的算法是。重复进行,直到收敛。{displaystylew_{j}{(i)}:=pleft(z{(i)}=j|x{(i)

内容由匿名用户提供,本内容不代表vibaike.com立场,内容投诉举报请联系vibaike.com客服。如若转载,请注明出处:https://vibaike.com/175600/

(1)
词条目录
  1. EM算法和GMM模型

轻触这里

关闭目录

目录