c-means

Posted shish

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了c-means相关的知识,希望对你有一定的参考价值。

 

二 算法

2.1. 模糊集[1]

定义:在论域X上的模糊集合是X到[0,1]的一个映射,称作隶属函数,记作:

 技术图片

对于技术图片称为x对于的隶属度,隶属度技术图片越接近于1,表示x属于技术图片的程度越高,技术图片越接近于0表示x属于的程度越低。用取值于区间[0,1]的隶属函数技术图片表征x 属于的程度高低。由于许多事物受多种因素影响,所以无法给出绝对地肯定或否定的评价,这就需要用一个模糊集合来表示。

       例如:如何定义年轻人含义,提出符合“年轻人”这一概念的最合适的年龄区间。

我们假设27岁的隶属度为0.85,那就是27岁的人和年轻人有0.85的相似程度,0.15的不相似程度,且这里的0.85是权重而不是概率。

隶属函数经常是初步粗略设定,然后再通过学习和训练逐步修改和完善,可以使用模糊统计法,x对技术图片的隶属频率:

 技术图片

技术图片是元素x属于的次数,n是试验总次数。

 

 

 

2.2. k-means算法[2]

原理:将样本分为k个类,使得每个样本到所属类的中心的距离最小且每个样本只属于一个类。

模型:给定n个样本集合技术图片,每个样本都是一个特征向量。将n个样本分到k个不同的类中,使得k个类技术图片是对集合X的一个划分。一个划分C是一个多对一的函数,可以用函数技术图片,即k-means聚类模型是一个从样本到类的函数。

决策:可以给定一个大概的集合X的划分,通过损失函数最小化来改善得到最优的划分。

 技术图片

 

 

其中表示属于类的,表示类的中心。

算法:损失函数中存在两个变量,的具体数据不确定,以及类中心无法确定。所以首先选择k个类的中心,得到一个聚类的结果,然后把每个类的样本均值作为类的新的中心,进行迭代使得划分最后收敛,得出结果。该算法复杂度为O(mnk),其中m是样本维度,n为样本个数,k为类的数量。

 

 

 

2.3. Fuzzy C-means算法

原理:将样本分为c个类,使得每个样本到所属类的中心的距离乘以相应的隶属度最小且每个样本只属于一个类。

模型:在k-means聚类算法的基础上把多对一的函数改成了所有样本对各个类的隶属度矩阵U,即将模糊集和k-means算法结合起来,使得损失的函数变为隶属矩阵和类的中心。

决策:可以给定一个大概的集合X的划分,通过损失函数最小化来改善得到最优的划分。

 技术图片

注:具体的算法见2.4. 推导过程。

 

2.4. Fuzzy C-means推导过程

 技术图片 

其中(1)表示损失函数,(2)表示限制条件;m是模糊因子影响聚类性能,范围,通常取m=2;技术图片

技术图片表示在类上的程度,即第j组数据在第i类上的隶属度。

得到隶属度矩阵:

技术图片

对于上述模型我们可以采用拉格朗日乘数法引入新的变量去除限制条件,得:

 技术图片

其中λ为拉格朗日乘子。为了使其收敛即求解技术图片,我们需要得到式子(3)的最小值,求偏导。

技术图片

 

技术图片

 

 

技术图片

技术图片 

图1

技术图片

 

 技术图片

图2

小结:

算法步骤

1. 确定分类数c,以及迭代的次数。

2. 随机(根据经验)确定隶属矩阵。

3. 根据隶属度矩阵U用式子(7)计算类的中心c。

4. 再用类的中心c通过式子(6)计算更新隶属度矩阵U。

5. 重复过程3,4,直到损失函数收敛得到最优结果。

 

技术图片

 

 技术图片

 

 技术图片

 

 代码

clear clc;
close all; 

color = [0 0 1;
0 1 0;
1 0.5 0;
0 1 1;
1 0 1;
0.5 0 0.5;] ; % 自定义颜色

data = rand(100,2);  %随机产生100个2维样本
cluster_n = 4;   %分类数
[center,U,fcn_J] = fcm1(data,cluster_n);
figure;
subplot(1,2,1),plot(data(:,1), data(:,2),‘o‘);
title(‘分类结果‘);
hold on;
maxU = max(U);

for i = 1:size(center,1)
index = find(U(i,:) == maxU); 
line(data(index,1),data(index,2),‘color‘,color(i,:)); % 将相同类的点连起来
end

plot(center(:,1),center(:,2),‘*‘,‘color‘,‘r‘);  % 标记出类的中心
legend(‘样本点‘,‘c1‘,‘c2‘,‘c3‘,‘c4‘,‘中心点‘,‘Location‘,‘Best‘);  % 手动改变
subplot(1,2,2), plot(fcn_J);
title(‘损失函数J‘);
hold off;


function [center, U, fcn_J] = fcm1(data, cluster_n, options)

if nargin ~= 2 && nargin ~= 3   % 判断函数输入变量
    error(‘输入变量的数量不对‘);
end

default_options = [2; 200; 1e-5; 1];% 设定默认值
% 分别是平滑因子,迭代次数,收敛标准,是否显示迭代过程(0为否,1为是)

if nargin == 2     % 使用默认值
    options = default_options;
else
    if length(options) < 4   % options中变量输入正确
        tmp = default_options;
        tmp(1:length(options)) = options;
        options = tmp;
    end
    % 将options中为nan的变量用默认值替代
    nan_index = find(isnan(options)==1);
    options(nan_index) = default_options(nan_index);
    if options(1) <= 1 % 判断分类数是否大于等于1
        error(‘分类数需要大于等于1!‘);
    end
end

data_n = size(data, 1);     % 样本数量
data_d = size(data, 2);     % 样本维度

expo = options(1);            % 平滑因子
max_iter = options(2);        % 最大迭代次数
min_criteria = options(3);   % 收敛标准
display = options(4);        % 是否显示迭代过程

fcn_J = zeros(max_iter, 1);            % 初始化损失函数

% 随机初始化隶属度矩阵U
U = rand(cluster_n, data_n);
col_sum = sum(U);
U = U./col_sum(ones(cluster_n, 1), :);     %限制条件(2)

%迭代
for i = 1:max_iter
    mf = U.^expo;           % 平滑处理m,隶属度矩阵中每个数据乘以次方
    center = mf*data./(sum(mf,2)*ones(1,size(data,2)));   % 更新新的中心,式子(7)
    % 其中data = [x1‘;x2‘;...;xj‘]
    % sum(mf,2)表示按照行相加,得到[sum_mf1;sum_mf2;...;sum_mfi]
    % sum(mf,2)*ones(1,size(data,2),即为i*1与1*i矩阵相乘得到i*i

    dist = distfcm1(center, data);       % 计算欧式距离
    % dist = [||c1-x1||,...,||c1-xj||;...;||ci-x1||,...,||ci-xj||]
    fcn_J(i) = sum(sum((dist.^2).*mf));  % 计算损失函数J
    % 两个sum第一个是先加i,得到[sum1,sum2,...,sumj]
    % 第二个sum再把j加起来

    % 更新新的隶属度矩阵,式子(6)
    tmp = dist.^(-2/(expo-1));     % ||ci-xj||^(-2/(m-1))
    U = tmp./(ones(cluster_n, 1)*sum(tmp)); % 根据式子(6),进行更新
    
    if display 
        fprintf(‘迭代次数 = %d, 损失函数 = %f
‘, i, fcn_J(i));
    end
    
    % 判断是否收敛
    if i > 1
        if abs(fcn_J(i) - fcn_J(i-1)) < min_criteria
            break; 
        end
    end
end

fcn_J(i+1:max_iter) = []; % 将未迭代的矩阵空间变为空
end


function out = distfcm1(center, data)%计算欧式距离
out = zeros(size(center, 1), size(data, 1));
for k = 1:size(center, 1)
    out(k, :) = sqrt(sum(((data-ones(size(data, 1), 1)*center(k, :)).^2), 2)); 
    %分别计算所有点到第k类的距离
end
end

代码2

clear clc;
close all;
img = double(imread(‘texas.png‘));
subplot(1,3,1),imshow(uint8(img));
title(‘原始图像‘);
[m,n,p] = size(img);
data = reshape(img, m*n*p,1);%将图像变为1维
[center,U,fcn_J] = fcm1(data,4); %分4类
[~,label] = max(U); % 找到所属的类
img_new = reshape(label,size(img)); % 类别还原成原来的图像

subplot(1,3,2),imshow(uint8(img_new.*-50.+256)); % 此处最后图像的着色存在问题imshow(img,[])好像跑不出来想要的效果
title(‘分割图像‘);
subplot(1,3,3),plot(fcn_J,‘r-*‘);
title(‘损失函数J‘);
set(gca,‘position‘,[0.7 0.234 0.22 0.56]); %设置位置
xlabel(‘迭代次数‘);

function [center, U, fcn_J] = fcm1(data, cluster_n, options)

if nargin ~= 2 && nargin ~= 3   %判断函数输入变量
    error(‘输入变量的数量不对‘);
end

default_options = [2; 200; 1e-5; 1];%设定默认值
%分别是平滑因子,迭代次数,收敛标准,是否显示迭代过程(0为否,1为是)

if nargin == 2     %使用默认值
    options = default_options;
else
    if length(options) < 4   %options中变量输入正确
        tmp = default_options;
        tmp(1:length(options)) = options;
        options = tmp;
    end
    % 将options中为nan的变量用默认值替代
    nan_index = find(isnan(options)==1);
    options(nan_index) = default_options(nan_index);
    if options(1) <= 1 %判断分类数是否大于等于1
        error(‘分类数需要大于等于1!‘);
    end
end

data_n = size(data, 1);     %样本数量
data_d = size(data, 2);     %样本维度

expo = options(1);            % 平滑因子
max_iter = options(2);        % 最大迭代次数
min_criteria = options(3);  % 收敛标准
display = options(4);        % 是否显示迭代过程

fcn_J = zeros(max_iter, 1);            % 初始化损失函数

% 随机初始化隶属度矩阵U
U = rand(cluster_n, data_n);
col_sum = sum(U);
U = U./col_sum(ones(cluster_n, 1), :);    

%迭代
for i = 1:max_iter
    mf = U.^expo;           % 平滑处理m,隶属度矩阵中每个数据乘以次方
    center = mf*data./(sum(mf,2)*ones(1,size(data,2)));   % 更新新的中心,式子(7)
    % 其中data = [x1‘;x2‘;...;xj‘]
    % sum(mf,2)表示按照行相加,得到[sum_mf1;sum_mf2;...;sum_mfi]
    % sum(mf,2)*ones(1,size(data,2),即为i*1与1*i矩阵相乘得到i*i

    dist = distfcm1(center, data);       % 计算欧式距离
    % dist = [||c1-x1||,...,||c1-xj||;...;||ci-x1||,...,||ci-xj||]
    fcn_J(i) = sum(sum((dist.^2).*mf));  % 计算损失函数J
    % 两个sum第一个是先加i,得到[sum1,sum2,...,sumj]
    % 第二个sum再把j加起来

     % 更新新的隶属度矩阵,式子(6)
    tmp = dist.^(-2/(expo-1));     % ||ci-xj||^(-2/(m-1))
    U = tmp./(ones(cluster_n, 1)*sum(tmp)); % 式子(6),进行更新
    
    if display 
        fprintf(‘迭代次数 = %d, 损失函数 = %f
‘, i, fcn_J(i));
    end
    
    % 判断是否收敛
    if i > 1
        if abs(fcn_J(i) - fcn_J(i-1)) < min_criteria
            break; 
        end
    end
end
fprintf(‘总迭代次数 = %d, 最终的损失函数 = %f
‘, i, fcn_J(i));
fcn_J(i+1:max_iter) = []; % 将未迭代的矩阵空间变为空
end


function out = distfcm1(center, data)%计算欧式距离
out = zeros(size(center, 1), size(data, 1));
for k = 1:size(center, 1)
    out(k, :) = sqrt(sum(((data-ones(size(data, 1), 1)*center(k, :)).^2), 2)); 
    %分别计算所有点到第k类的距离
end
end

 

 

 

 

 

 

 

 

参考资料

[1] 模糊集理论 于洪 http://cs2.cqupt.edu.cn/yuhong/

[2] 统计学习方法(第2版) 李航 2012.9

[3] 公式推导视频代码借鉴链接:http://www.powercam.cc/slide/20878

[4] 公式推导代码借鉴文字版:https://blog.csdn.net/on2way/article/details/47087201

[5] C-means算法原理:https://blog.csdn.net/wzl1997/article/details/79264560?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

[6] 一种改进的FCM聚类算法的混合矩阵估计 郭凌飞,张林波 应用科技 2019.3

[7] MATLAB函数fcm源代码

技术图片

 

以上是关于c-means的主要内容,如果未能解决你的问题,请参考以下文章

基于模糊C-means算法的图像分割

Fuzzy c-means聚类算法简介

基于 Iris 数据集的 Python 模糊聚类

微信小程序代码片段

VSCode自定义代码片段——CSS选择器

谷歌浏览器调试jsp 引入代码片段,如何调试代码片段中的js