记录:EM 算法估计混合高斯模型参数

Posted mbcbyq-2137

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了记录:EM 算法估计混合高斯模型参数相关的知识,希望对你有一定的参考价值。

当概率模型依赖于无法观测的隐性变量时,使用普通的极大似然估计法无法估计出概率模型中参数。此时需要利用优化的极大似然估计:EM算法。

在这里我只是想要使用这个EM算法估计混合高斯模型中的参数。由于直观原因,采用一维高斯分布。

一维高斯分布的概率密度函数表示为:

技术分享图片

多个高斯分布叠加在一起形成混合高斯分布:

技术分享图片

其中:表示一共有 个子分布,技术分享图片。为什么累加之和为 1?因为哪怕是混合模型也表示一个概率密度,从负无穷到正无穷积分概率为 1,所以只有累加之和为 1才能保证,很简单的推导。

设总体 ξ,总体服从混合高斯分布。技术分享图片 是一个取自总体的样本。罢了,公式编辑实在慢到令人发指,简单记录而已,手写。

以下是关于一维混合高斯分布的参数估计推导过程:

技术分享图片

技术分享图片

参考:周志华《机器学习》

简单代码实现一下,代码很丑:

技术分享图片
import numpy as np
import matplotlib.pyplot as plt


# 使用 numpy 生成两组符合高斯分布(正态分布)的数据,然后将他们累加成混合模型,使用 EM 算法求解其中参数
# 假设两个分布累加的系数 α1=0.6,α2=0.4
# 假设 N1 分布的均值 μ1=1.7,方差 δ12=0.572=0.3249
# 假设 N2 分布的均值 μ2=3.5,方差 δ22=0.332=0.1089
np.random.seed(77)
num1 = 6000
num2 = 4000
X1 = np.random.normal(1.7, 0.57, num1).astype(np.float32)
X2 = np.random.normal(3.5, 0.33, num2).astype(np.float32)
X = np.hstack((X1, X2))  # 其中包含两个高斯分布的数据
np.random.shuffle(X)  # 混洗数据

re_tuple = plt.hist(X, 300, density=1, facecolor=r)
plt.show()

# 设置 EM 算法的初始值,任意设置
modulus = np.array([0.2, 0.8])
mean = np.array([1.1, 2.1])
var = np.array([1.2, 1.5])

# 首先计算每个样本点由每一个独立分布产生的概率,然后通过推导公式去更新参数
gamma_j_i = np.zeros((2, num1 + num2), dtype=np.float32)

# 设置迭代次数
epochs = 100
for epoch in range(epochs):
    print(开始第 %d 次迭代 ... % (epoch + 1))
    # E 步
    part_1 = 1 / np.sqrt(2 * np.pi * var[0])
    part_2 = 1 / np.sqrt(2 * np.pi * var[1])
    for i in range(2):
        part_i = 1 / np.sqrt(2 * np.pi * var[i])
        for j in range(num1 + num2):
            p_m = (modulus[0] * (part_1 * np.exp(-1 * ((X[j] - mean[0]) ** 2) / (2 * var[0]))) +
                   modulus[1] * (part_2 * np.exp(-1 * ((X[j] - mean[1]) ** 2) / (2 * var[1]))))
            p_i = modulus[i] * (part_i * np.exp(-1 * ((X[j] - mean[i]) ** 2) / (2 * var[i])))
            gamma_j_i[i, j] = p_i / p_m

    # 中间计算步骤
    sum_gamma_j_i = np.sum(gamma_j_i, axis=1)
    sum_for_mean = np.matmul(gamma_j_i, X)
    sum_for_var = np.sum(gamma_j_i * np.square(np.broadcast_to(X, (2, num1 + num2)) - mean.reshape((2, 1))), axis=1)

    # M 步
    for i in range(2):
        mean[i] = sum_for_mean[i] / sum_gamma_j_i[i]
        modulus[i] = sum_gamma_j_i[i] / (num1 + num2)
        var[i] = sum_for_var[i] / sum_gamma_j_i[i]

    print(迭代 %d 次后得到的 N1 分布的比率、均值和方差分别为:%s %s %s % (epoch + 1, modulus[0], mean[0], var[0]))
    print(迭代 %d 次后得到的 N2 分布的比率、均值和方差分别为:%s %s %s % (epoch + 1, modulus[1], mean[1], var[1]))
    print()

# 迭代 100 次后得到的结果是:
# N1: 0.59798 1.69166 0.33037
# N2: 0.40202 3.49959 0.11023
# 总之,结果还不错
View Code

以上是关于记录:EM 算法估计混合高斯模型参数的主要内容,如果未能解决你的问题,请参考以下文章

用EM思想估计GMM(高斯混合聚类)

估计高斯混合模型参数的三种方式

统计学习方法c++实现之八 EM算法与高斯混合模型

EM算法原理以及高斯混合模型实践

EM 算法 理论

机器学习3_EM算法与混合高斯模型