深入探討GMM算法

一、什麼是GMM算法

GMM(Gaussian Mixture Model)是一種基於概率密度函數的聚類方法。GMM算法把數據看作若干個高斯分布隨機變量的組合,因此,它也被稱為混合高斯模型。在GMM模型中,每一個數據點都可以被多個高斯分布所解釋,每一個高斯分布代表簇中的一個部分。通過計算每個高斯分布對於數據點的貢獻度,可以確定該數據點所屬的聚類簇。

二、GMM算法的原理

GMM算法把數據看成由若干個高斯分布組成的混合分布,並通過最大似然估計來求解模型參數。模型參數包括每個高斯分布的均值、協方差矩陣和權重。具體來說,GMM算法的原理包括以下幾個步驟:

1、初始化模型參數:包括高斯分布的均值、協方差矩陣和權重。一般地,初始化時選取K個隨機數,分別作為K個高斯分布的均值,對於協方差矩陣採用單位矩陣進行初始化,而每個高斯分布的權重使用平均值進行初始化。

import numpy as np
from sklearn.mixture import GaussianMixture

X = np.array([...])
gm_model = GaussianMixture(n_components=K, covariance_type='full', random_state=0)
gm_model.fit(X)
print(gm_model.means_)  # K個高斯分布的均值
print(gm_model.covariances_)  # K個高斯分布的協方差矩陣
print(gm_model.weights_)  # K個高斯分布的權重

2、E步驟:計算數據點被每個高斯分布所解釋的概率。具體來講就是計算每個數據點分別屬於這K個高斯分布的概率分布,並且使用權重對其進行加權求和。

import numpy as np
from scipy.stats import multivariate_normal

def calc_prob(X, mu, sigma, alpha):
    prob = []
    for i in range(K):
        norm = multivariate_normal(mean=mu[i], cov=sigma[i])
        prob.append(norm.pdf(X) * alpha[i])        
    return prob

X = np.array([...])
mu = np.array([...])  # K個高斯分布的均值
sigma = np.array([...])  # K個高斯分布的協方差矩陣
alpha = np.array([...])  # K個高斯分布的權重
prob = calc_prob(X, mu, sigma, alpha)

3、M步驟:更新高斯分布的均值、協方差矩陣和權重,使得對於每個數據點,被加權後的高斯分布概率值最大。具體的更新方式如下:

對於每個高斯分布,更新均值與協方差矩陣

import numpy as np

def update_mu_sigma(X, prob):
    mu = []
    sigma = []
    for i in range(K):
        mu_i = np.sum(prob[:, i].reshape(-1, 1) * X, axis=0) / np.sum(prob[:, i])
        mu.append(mu_i)
        sigma_i = np.zeros((n_features, n_features))
        for j in range(n_samples):
            sigma_i += prob[j][i] * np.dot((X[j] - mu_i).reshape(-1, 1), (X[j] - mu_i).reshape(1,-1))
        sigma_i /= np.sum(prob[:, i])
        sigma.append(sigma_i)
    return np.array(mu), np.array(sigma)

X = np.array([...])
prob = np.array([...])
n_samples, n_features = X.shape
mu_new, sigma_new = update_mu_sigma(X, prob)

對於每個高斯分布,更新權重

import numpy as np

def update_alpha(prob):
    alpha = np.sum(prob, axis=0) / prob.shape[0]
    return alpha

prob = np.array([...])
alpha_new = update_alpha(prob)

4、重複進行E步驟和M步驟,直至收斂。

import numpy as np
from scipy.stats import multivariate_normal

def calc_prob(X, mu, sigma, alpha):
    prob = []
    for i in range(K):
        norm = multivariate_normal(mean=mu[i], cov=sigma[i])
        prob.append(norm.pdf(X) * alpha[i])        
    return prob

def update_mu_sigma(X, prob):
    mu = []
    sigma = []
    for i in range(K):
        mu_i = np.sum(prob[:, i].reshape(-1, 1) * X, axis=0) / np.sum(prob[:, i])
        mu.append(mu_i)
        sigma_i = np.zeros((n_features, n_features))
        for j in range(n_samples):
            sigma_i += prob[j][i] * np.dot((X[j] - mu_i).reshape(-1, 1), (X[j] - mu_i).reshape(1,-1))
        sigma_i /= np.sum(prob[:, i])
        sigma.append(sigma_i)
    return np.array(mu), np.array(sigma)

def update_alpha(prob):
    alpha = np.sum(prob, axis=0) / prob.shape[0]
    return alpha

X = np.array([...])
n_samples, n_features = X.shape

mu = [...]  # K個高斯分布的均值
sigma = [...]  # K個高斯分布的協方差矩陣
alpha = [...]  # K個高斯分布的權重

tolerance = 1e-3  # 迭代收斂的閾值
max_iteration = 100 # 最大迭代次數
for i in range(max_iteration):
    prob = calc_prob(X, mu, sigma, alpha)
    mu_new, sigma_new = update_mu_sigma(X, prob)
    alpha_new = update_alpha(prob)

    # 計算收斂程度
    diff_mu = np.abs(np.linalg.norm(mu_new) - np.linalg.norm(mu))
    diff_sigma = np.abs(np.linalg.norm(sigma_new) - np.linalg.norm(sigma))
    diff_alpha = np.abs(np.linalg.norm(alpha_new) - np.linalg.norm(alpha))

    mu, sigma, alpha = mu_new, sigma_new, alpha_new

    if diff_mu < tolerance and diff_sigma < tolerance and diff_alpha < tolerance:
        break

三、GMM算法的應用

GMM算法在數據聚類、圖像分割、異常檢測等領域都有廣泛的應用。其中,最常用的就是數據聚類。通過對數據進行聚類,我們可以發現不同的數據所對應的高斯分布,從而識別不同的數據類別。下面是一個使用GMM算法進行數據聚類的例子。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_blobs

from sklearn.mixture import GaussianMixture

n_samples = 300
centers = [[1, 1], [-1, -1], [1, -1]]
X, y_true = make_blobs(n_samples=n_samples, centers=centers, cluster_std=0.5)

gm_model = GaussianMixture(n_components=3, covariance_type='full', random_state=0)
gm_model.fit(X)
labels = gm_model.predict(X)

plt.scatter(X[:,0], X[:,1], c=labels, s=40, cmap='viridis')
plt.show()

四、GMM算法的優缺點

GMM算法最大的優點是對數據的偏移和形狀沒有過多的要求,對於非線性、複雜的數據可以產生很好的聚類效果。而缺點則是算法的複雜度較高,計算量大,需要進行多次迭代,計算效率較低。同時,GMM算法還需要對初始值進行敏感的設置,對於不同的數據集,需要進行不同的參數調整。

原創文章,作者:MGXRW,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/349328.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
MGXRW的頭像MGXRW
上一篇 2025-02-15 17:09
下一篇 2025-02-15 17:09

相關推薦

  • 蝴蝶優化算法Python版

    蝴蝶優化算法是一種基於仿生學的優化算法,模仿自然界中的蝴蝶進行搜索。它可以應用於多個領域的優化問題,包括數學優化、工程問題、機器學習等。本文將從多個方面對蝴蝶優化算法Python版…

    編程 2025-04-29
  • Python實現爬樓梯算法

    本文介紹使用Python實現爬樓梯算法,該算法用於計算一個人爬n級樓梯有多少種不同的方法。 有一樓梯,小明可以一次走一步、兩步或三步。請問小明爬上第 n 級樓梯有多少種不同的爬樓梯…

    編程 2025-04-29
  • AES加密解密算法的C語言實現

    AES(Advanced Encryption Standard)是一種對稱加密算法,可用於對數據進行加密和解密。在本篇文章中,我們將介紹C語言中如何實現AES算法,並對實現過程進…

    編程 2025-04-29
  • Harris角點檢測算法原理與實現

    本文將從多個方面對Harris角點檢測算法進行詳細的闡述,包括算法原理、實現步驟、代碼實現等。 一、Harris角點檢測算法原理 Harris角點檢測算法是一種經典的計算機視覺算法…

    編程 2025-04-29
  • 數據結構與算法基礎青島大學PPT解析

    本文將從多個方面對數據結構與算法基礎青島大學PPT進行詳細的闡述,包括數據類型、集合類型、排序算法、字符串匹配和動態規劃等內容。通過對這些內容的解析,讀者可以更好地了解數據結構與算…

    編程 2025-04-29
  • 瘦臉算法 Python 原理與實現

    本文將從多個方面詳細闡述瘦臉算法 Python 實現的原理和方法,包括該算法的意義、流程、代碼實現、優化等內容。 一、算法意義 隨着科技的發展,瘦臉算法已經成為了人們修圖中不可缺少…

    編程 2025-04-29
  • 神經網絡BP算法原理

    本文將從多個方面對神經網絡BP算法原理進行詳細闡述,並給出完整的代碼示例。 一、BP算法簡介 BP算法是一種常用的神經網絡訓練算法,其全稱為反向傳播算法。BP算法的基本思想是通過正…

    編程 2025-04-29
  • 粒子群算法Python的介紹和實現

    本文將介紹粒子群算法的原理和Python實現方法,將從以下幾個方面進行詳細闡述。 一、粒子群算法的原理 粒子群算法(Particle Swarm Optimization, PSO…

    編程 2025-04-29
  • Python回歸算法算例

    本文將從以下幾個方面對Python回歸算法算例進行詳細闡述。 一、回歸算法簡介 回歸算法是數據分析中的一種重要方法,主要用於預測未來或進行趨勢分析,通過對歷史數據的學習和分析,建立…

    編程 2025-04-28
  • 象棋算法思路探析

    本文將從多方面探討象棋算法,包括搜索算法、啟發式算法、博弈樹算法、神經網絡算法等。 一、搜索算法 搜索算法是一種常見的求解問題的方法。在象棋中,搜索算法可以用來尋找最佳棋步。經典的…

    編程 2025-04-28

發表回復

登錄後才能評論