无监督学习

Posted hichens

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了无监督学习相关的知识,希望对你有一定的参考价值。

#从豆瓣安装
pip install kanren -i http://pypi.douban.com/simple --trusted-host pypi.douban.com


聚类算法

k-Means算法
第1步 - 需要指定所需的K个子组的数量。
第2步 - 修复群集数量并将每个数据点随机分配到群集
import matplotlib.pyplot as plt
from sklearn.cluster import KMeans
from sklearn.datasets.samples_generator import make_blobs

#数据处理
X, Y = make_blobs(n_samples=500, centers=4, cluster_std=0.4, random_state=0)

#模型构建、预测
kmeans = KMeans(n_clusters=4).fit(X)
prebs = kmeans.predict(X)
centers = kmeans.cluster_centers_#得到聚类中心

#绘图
plt.scatter(X[:, 0], X[:, 1], c=Y, s=50, cmap=viridis)
plt.scatter(centers[:, 0], centers[:, 1], c=black, s=200, alpha=0.5)
#c:color;s:radius;alpha:颜色深浅
plt.show()



均值偏移算法
从分配给它们自己的集群的数据点开始。
现在,它计算质心并更新新质心的位置。
通过重复这个过程,向簇的顶点靠近,即朝向更高密度的区域移动。
该算法停止在质心不再移动的阶段。
import numpy as np
from sklearn.cluster import MeanShift
from sklearn.datasets.samples_generator import make_blobs
import matplotlib.pyplot as plt
from matplotlib import style
style.use(ggplot)

#数据处理
centers = [[2, 2], [4, 5], [3, 10]]
X, _ = make_blobs(n_samples=500, centers=centers, cluster_std=1)

#模型训练
ms = MeanShift().fit(X)
labels = ms.labels_ #给X点做标记
cluster_centers = ms.cluster_centers_#得到聚点中心坐标
n_clusters_ = len(np.unique(labels))#聚点种类数

#绘图
colors = 10*[r., g., b., c., k., y., m.]#颜色表
for i in range(len(X)):
    plt.plot(X[i][0], X[i][1], colors[labels[i]], markersize=10)
plt.scatter(cluster_centers[:, 0], cluster_centers[:, 1], marker="x", color=k, s=150, linewidths=5, zorder=10)
plt.show()

 

以上是关于无监督学习的主要内容,如果未能解决你的问题,请参考以下文章

监督学习与无监督学习

有监督学习和无监督学习

监督学习,(ii)无监督学习,(iii)强化学习

3.无监督学习简介

无监督弱监督半监督强化多示例学习是什么

有监督学习和无监督学习的区别