收藏!常用算法及MATLAB代码

Posted 数学建模andMATLAB

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了收藏!常用算法及MATLAB代码相关的知识,希望对你有一定的参考价值。

 

主成分分析

主成分分析通常是选出比原始变量个数少,能解释大部分资料中的变异的几个新变量,即所谓主成分,并用以解释资料的综合性指标。主成分分析实际上是一种降维方法。


clc

clear

%累积贡献率阈值

p_threshold = 0.9;

%s输入原始数据

data = [149.3,4.2,108.1;161.2,4.1,114.8

           171.5,6.1,123.2;175.5,3.1,126.9

           180.8,8.1,132.1;110.7,2.2,137.7

           202.1,2.1,146.0;212.4,5.6,154.1

           226.1,5.0,162.3;231.9,5.1,164.3

           239.0,0.7,167.6];

[m,n] = size(data);

%数据的标准化处理

normal_data =(data -  repmat(mean(data),m,1)) ./repmat(std(data),m,1);

%计算协方差矩阵

sigama = cov(normal_data);

%计算协方差矩阵的特征值和特征向量

[V,lamadas] = eig(sigama);

%将特征值保存在一个行向量中

lamada = sum(lamadas);

%特征值进行降序排列,并记录特征值与特征向量的对应顺序

[order_lamada,index] = sort(-lamada);

order_lamada = -order_lamada;

%确定主成分个数

for i=1:length(lamada)

    P =sum(order_lamada(1:i)) / sum(order_lamada);%累计贡献率

    if P> p_threshold

       break

    end

end

num_pca = i;

%提取主成分的特征向量

V_main = V(:,index(1:i));

%计算主成分得分

new_score=normal_data * V_main;

%输出结果

disp('特征值、累计贡献率:')

order_lamada,P

disp('主成分个数与特征向量:')

num_pca

V_main

plot3(normal_data(:,1),normal_data(:,2),normal_data(:,3),'b*')

hold on

new_data = (V_main*V_main'*normal_data')';

plot3(new_data(:,1),new_data(:,2),new_data(:,3),'r--o')

xlabel('X');ylabel('Y');zlabel('Z');

title('原始数据和主成分得分对比')

legend('原始数据','主成分得分')

hold on

h =quiver3(0,0,0,V_main(1,1),V_main(2,1),V_main(3,1),2,'k','linewidth',1.5);

set(h,'maxheadsize',7);

hold on

h =quiver3(0,0,0,V_main(1,2),V_main(2,2),V_main(3,2),2,'k','linewidth',1.5);

set(h,'maxheadsize',4);

hold off

view(-27,10)

 

聚类分析

聚类分析又称群分析,是对多个样本(或指标)进行定量分类的一种多元统计分析方法。对样本进行分类称为Q型聚类分析,对指标进行分类称为R型聚类分析。



K-means聚类

clc

clear

close all

%输入原始数据

data =[0.697,0.460;0.774,0.376;0.634,0.264;0.608,0.318;0.556,0.215;0.403,0.237;

       0.481,0.149;0.437,0.211;0.666,0.091;0.243,0.267;0.245,0.057;0.343,0.099;

       0.639 0.161;0.657,0.198;0.360,0.370;0.593,0.042;0.719,0.103;0.359,0.188;

       0.339,0.241;0.282,0.257;0.748,0.232;0.714,0.346;0.483,0.312;0.478,0.437;

       0.525,0.369;0.751,0.489;0.532,0.472;0.473,0.376;0.725,0.445;0.446,0.459;];

%计算样本数量和特征数量

[num,num_feature] = size(data);

%聚类数量

k = 3;

%对每个特征数据按照极差法进行归一化

max_feature = max(data);

min_feature = min(data);

range_feature = max_feature - min_feature;

normal_data=(data - repmat(min_feature,num,1))./ repmat(range_feature,num,1);

%随机选择初始聚类中心

center = rand(k,num_feature);

%最大迭代次数

max_items = 10; count = 1;

while ( count <= max_items )

       %计算每个样本点到每个聚类中心的欧氏距离

       for  i = 1:k

           distance(i,:) = sum((normal_data - repmat(center(i,:),num,1))'.^2);

       end

       SSE = sum(min(distance))

       %判断每个样本点属于哪一类

       [~,belong_class] = min(distance);

       %更新聚类中心位置

       for i = 1:k

           center(i,:) = mean(normal_data(belong_class == i , :));

       end

       %记录每次迭代的聚类中心位置

       record_center(count,:) = reshape(center,1,k*num_feature);

       count = count + 1;

end

%聚类中心反归一化

center = repmat(min_feature,k,1) + center .* repmat(range_feature,k,1);

%判断聚类中心是否收敛

plot(record_center,'linewidth',2)

xlabel('迭代次数');

ylabel('聚类中心位置');

title('聚类中心位置变化趋势');

%描述不同样本的分类情况

figure

colormap = char(['r','b','k','g']);

fontmap = char(['*','^','o','p']);

for  i =1:k

   plot(data(belong_class == i,1),data(belong_class ==i,2),[colormap(i),fontmap(1)])

    holdon

   plot(center(i,1),center(i,2),[colormap(i),fontmap(2)])

end

xlabel('迭代次数'); ylabel('样本点'); title('样本点分类');

 

层次分析法

由专家比较两两指标的重要程度,主观确定权重的方法。





A =[1,1/5,1/2,1/3,1/2;5,1,3,4,3;2,1/3,1,2,1;3,1/4,1/2,1,2;2,1/3,1,1/2,1];

[n,~] = size(A);

%求出特征向量和特征值并求出最大特征值和它所对应的特征向量

[V,D] = eig(A);

[max_lamada , index ] = max(sum(D));

w = abs(V(:,index));

w = w ./ sum(w);

%以下是一致性检验

CI = (max_lamada - n ) / ( n - 1 );

RI = [0 0 0.52 0.89 1.12 1.26 1.36 1.41 1.461.49 1.52 1.54 1.56 1.58 1.59 1.60 1.61 1.615 1.62 1.63];

CR = CI / RI(n);

if CR<0.10

   disp('此矩阵的一致性可以接受!');

   disp('CI=');disp(CI);

   disp('CR=');disp(CR);

   disp('权重向量:');

   disp(w);

   disp('准则层最大特征根:');

   disp(max_lamada);

else

   disp('此矩阵的一致性验证失败,请重新进行评分!');

end

 

熵值法

根据指标的离散程度,客观确定权重的方法。



%实现用熵值法求各权重

clc

clear

%x为原始数据矩阵

data = [149.3,4.2,108.1;161.2,4.1,114.8

           171.5,6.1,123.2;175.5,3.1,126.9

           180.8,8.1,132.1;110.7,2.2,137.7

           202.1,2.1,146.0;212.4,5.6,154.1

           226.1,5.0,162.3;231.9,5.1,164.3

           239.0,0.7,167.6];

[m,n] = size(data); % n个样本, m个指标

%flag指示向量,1表示极大型指标,0表示极小型指标

flag = [1,1,0];

%%数据的归一化处理

max_feature = max(data);

min_feature = min(data);

range_feature = max_feature - min_feature;

normal_data=0.0001 + (data -repmat(min_feature,m,1)) ./ repmat(range_feature,m,1);

for i =1:n

    ifflag(i) == 0

        %极小型指标极大化处理

       normal_data(:,i) = 1- normal_data(:,i);

    end

end

%计算第j个指标下,第i个样本占该指标的比重p(i,j)

p = normal_data ./repmat(sum(normal_data),m,1);

%计算第j个指标的熵值e(j)

k = 1/log(n);

for j = 1:n

    e(j)= -k*sum(p(:,j).*log(p(:,j)));

end

d = ones(1,n) - e; %计算信息熵冗余度

w = real(d ./ sum(d)); %求权值w


遗传算法

遗传算法是一类借鉴生物界的进化规律(适者生存,优胜劣汰遗传机制)演化而来的随机化搜索方法。借鉴生物进化论,遗传算法将要解决的问题模拟成一个生物进化的过程,通过复制、交叉、突变等操作产生下一代的解,并逐步淘汰掉适应度函数值低的解,增加适应度函数值高的解。这样进化N代后就很有可能会进化出适应度函数值很高的个体。



 

clc

clear

close

population_size=100;%种群大小

chrom_length=10;%二进制编码长度

pc = 0.8;%交叉概率

pm = 0.01;%变异概率

%初始种群

population =round(rand(population_size,chrom_length));

max_iteration = 20;

for k = 1:max_iteration

    %计算适应度值(函数值)

   fitvalue = fitness(population);

    %选择操作

   new_population = selection(population,fitvalue);

    %交叉操作

   new_population = crossover(new_population,pc);

    %变异操作

new_population= mutation(new_population,pm);

     %更新种群

    population = new_population;

    %寻找最优解

    [max_fit,index] = max(fitvalue);

    current_best_pop = population(index,:);

    for i = 1:length(current_best_pop)

        current_best_pop_decimal(i) =2.^(length(current_best_pop)-i).*current_best_pop(i);

    end

    current_best_x(k) =sum(current_best_pop_decimal)*10/1023;

    if k > 1

        [current_best_y(k),idx] =max([current_best_y,max_fit]);

        current_best_x(k) =current_best_x(idx);

    else

        current_best_y(k) = max_fit;

    end

end

plot(current_best_y)

function F =fitness( population )

    [~,num2]=size(population);

    for i = 1:num2

        population_decimal(:,i) = 2.^(num2-i).*population(:,i);

    end

    %对行求和,得到列向量

    population_decimal =sum(population_decimal,2);

    x = population_decimal*10/1023;

    F = 10*sin(5*x)+7*abs(x-5)+10;

end

functionnew_population = selection(population,fitvalue)

    %构造轮盘

    [num1,~] = size(population);

    fitness_sum = sum(fitvalue);

    %计算累积概率

    p_fitvalue = cumsum(fitvalue /fitness_sum);

    ms = rand(num1,1);%从小到大排列

    for i= 1:num1

        selected = sum(p_fitvalue <=ms(i))+1;

       new_population(i,:)=population(selected,:);

    end

end

functionnew_population = crossover(population,pc)

    [num1,num2] = size(population);

    for i= 1:2:num1-1

        if(rand<pc)

            rand_int = round(rand*num2);

            new_population(i,:) =[population(i,1:rand_int),population(i+1,rand_int+1:num2)];

            new_population(i+1,:) =[population(i+1,1:rand_int),population(i,rand_int+1:num2)];

        else

            new_population(i,:) =population(i,:);

            new_population(i+1,:) =population(i+1,:);

        end

    end

end

functionnew_population = mutation(population,pm)

    [num1,num2] = size(population);

    new_population = population;

    for i = 1:num1

        for j = 1:num2

            if(rand < pm)

                if new_population(i,j) == 0

                    new_population(i,j) = 1;

                else

                    new_population(i,j) = 0;

                end

            end

        end

    end

end

 

粒子群算法

粒子群优化算法就是基于鸟群在觅食过程中的这种个体和整体的行为规则的启发,提出的一种模拟鸟群行为规则的智能优化算法。



clc

clear

close all

E=0.000001;

maxnum=800;%最大迭代次数

narvs=2;%目标函数的自变量个数

particlesize=50;%粒子群规模

c1=2;%每个粒子的个体学习因子,加速度常数

c2=2;%每个粒子的社会学习因子,加速度常数

w=0.6;%惯性因子

vmax=5;%粒子的最大飞翔速度

v=2*rand(particlesize,narvs);%粒子飞翔速度

x=-300+600*rand(particlesize,narvs);%粒子所在位置

%定义适应度函数

fitness=inline('(x(1)^2+x(2)^2)/10000','x');

for i=1:particlesize

       f(i)=fitness(x(i,:));      

end

personalbest_x=x;

personalbest_faval=f;

[globalbest_faval,i]=min(personalbest_faval);

globalbest_x=personalbest_x(i,:);

k=1;

while (k<=maxnum)

       fori=1:particlesize

              f(i)=fitness(x(i,:));

              iff(i)<personalbest_faval(i)

                     personalbest_faval(i)=f(i);

                     personalbest_x(i,:)=x(i,:);

              end

       end

       [globalbest_faval,i]=min(personalbest_faval);

       globalbest_x=personalbest_x(i,:);

       fori=1:particlesize

              v(i,:)=w*v(i,:)+c1*rand*(personalbest_x(i,:)-x(i,:))...

                     +c2*rand*(globalbest_x-x(i,:));

              forj=1:narvs

                     ifv(i,j)>vmax

                            v(i,j)=vmax;

                     elseifv(i,j)<-vmax

                            v(i,j)=-vmax;

                     end       

              end

              x(i,:)=x(i,:)+v(i,:);

    end

   ff(k)=globalbest_faval;

    ifglobalbest_faval<E

       break

    end

       k=k+1;

end

xbest=globalbest_x;

plot(1:length(ff),ff)

 

回归分析

回归分析(regression analysis)是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。


       自变量X:0.10,0.11,0.12,0.13,0.14,0.15,0.16,0.17,0.18

       自变量Y:42.0,41.5,45.0,45.5,45.0,47.5,49.0,55.0,50.0

x=0.1:0.01:0.18;

y=[42,41.5,45.0,45.5,45.0,47.5,49.0,55.0,50.0];

%根据散点图观察变量之间关系

figure

plot(x,y,'r*')

xlabel('X'),ylabel('Y')

x=[ones(9,1),x'];

[b,bint,r,rint,stats]=regress(y',x);

figure

b,bint,stats,rcoplot(r,rint)

 

时间序列预测

移动平均法是根据时间序列的推移,依次计算包含一定项数的时序平均数,以反映长期趋势的方法。当时间序列的数值由于受周期变动和不规则变动的影响,起伏较大,不易显示出发展趋势时,可用移动平均法,消除这些因素的影响,分析、预测序列的长期趋势。


简单移动平均法

clc

clear

y=[533.8,574.6,606.9,649.8,705.1,772.0,816.4,892.7,963.9,1015.1,1102.7];

m=length(y);

n=[4,5]; %n 为移动平均的项数

for i=1:length(n)

    %由于 n 的取值不同, yhat 的长度不一致,所以使用元胞数组

    forj=1:m-n(i)+1

       yhat{i}(j)=sum(y(j:j+n(i)-1))/n(i);

    end

   y12(i)=yhat{i}(end);

   s(i)=sqrt(mean((y(n(i)+1:m)-yhat{i}(1:end-1)).^2));

end

y12,s

 

趋势移动平均法

简单移动平均法和加权移动平均法,在时间序列没有明显的趋势变动时,能够准确反映实际情况。但当时间序列出现直线增加或减少的变动趋势时,用简单移动平均法和加权移动平均法来预测就会出现滞后偏差。因此,需要通过二次移动平均法进行修正。


clc

clear

y =[676,825,774,716,940,1159,1384,1524,1668,1688,1958,

2031,2234,2566,2820,3006,3093,3277,3514,3770,4107];

m1=length(y);

n=6; %n 为移动平均的项数

for i=1:m1-n+1

   yhat1(i)=sum(y(i:i+n-1))/n;

end

m2=length(yhat1);

for i=1:m2-n+1

   yhat2(i)=sum(yhat1(i:i+n-1))/n;

end

plot(y,'*')

a21=2*yhat1(end)-yhat2(end);

b21=2*(yhat1(end)-yhat2(end))/(n-1);

y1986=a21+b21;

y1987=a21+2*b21;


一次指数平滑法

clc

clear

yt = [50,52,47,51,49,48,51,40,48,52,51,59]';

n=length(yt);

alpha=[0.2 0.5 0.8];

m=length(alpha);

yhat(1,1:m)=(yt(1)+yt(2))/2;

for i=2:n

    yhat(i,:)=alpha*yt(i-1)+(1-alpha).*yhat(i-1,:);

end

err=sqrt(mean((repmat(yt,1,m)-yhat).^2));

yhat1988=alpha*yt(n)+(1-alpha).*yhat(n,:);


二次指数平滑法

clc

clear

yt =[676,825,774,716,940,1159,1384,1524,1668,1688,

1958,2031,2234,2566,2820,3006,3093,3277,3514,3770,4107]';

n=length(yt);

alpha=0.3;

st1(1)=yt(1);

st2(1)=yt(1);

for i=2:n

   st1(i)=alpha*yt(i)+(1-alpha)*st1(i-1);

   st2(i)=alpha*st1(i)+(1-alpha)*st2(i-1);

end

a=2*st1-st2;

b=alpha/(1-alpha)*(st1-st2);

yhat=a+b;

 

灰色预测

通过鉴别系统因素之间发展趋势的相异程度,即进行关联分析,并对原始数据进行生成处理来寻找系统变动的规律,生成有较强规律性的数据系列,然后建立相应的灰色预测模型,对具有灰色系统特征的社会、经济等现象进行预测。


clc

clear

x0=[174 179 183 189 207 234 220.5 255 270285];

%输入原序列

n=length(x0);

%级比检验模型可行性

rank_ratio=zeros(1,n-1);

for i=2:n

   rank_ratio(i-1)=x0(i)/x0(i-1);

end

if (all(rank_ratio>=

exp(-2/(n+1)))&&all((rank_ratio<=exp(2/(n+1)))))

   fprintf('\n')

   disp('此序列适合GN(1,1)模型')

   fprintf('\n')

else

   disp('此序列不适合GN(1,1)模型')

end

x=cumsum(x0); %原序列做累加处理

B=zeros(1,n-1);

%产生均值序列

for i=1:n-1

   B(1,i)=(x(1,i)+x(1,i+1))/2;

end

B=[-B;ones(1,n-1)];

B=B';

Y=x0;

Y(1)=[];

Y=Y';

%最小二乘法求参数

a=inv(B'*B)*B'*Y;

F=zeros(1,20);F(1)=x0(1);

for i=2:n+10

   F(i)=(F(1)-a(2,1)/a(1,1))*exp(-a(1,1)*(i-1))+a(2,1)/a(1,1);

end                  %计算预测后累加序列

G=zeros(1,20);G(1,1)=x0(1,1);

for i=2:n+10

  G(i)=F(i)-F(i-1);

end                 %计算预测值

disp('输出预测值');

G

%相对误差检验

D=G(1,1:10);

res=abs(D-x0);%相对误差序列

rel_rate=res./x0;

rel_rate=mean(rel_rate);%计算相对误差

if rel_rate<=0.01

         disp('相对误差检验结果很好');

   elseif rel_rate<=0.05

        disp('相对误差检验结果合格');

   elseif rel_rate<=0.1

       disp('相对误差检验结果勉强合格');

end

fprintf('\n相对误差rel_rate=%4f\n\n',rel_rate);

%后验差检验

x0_mean=mean(x0);%原始序列均值

x0_std=std2(x0);%原始序列均方差

res_mean=mean(res);%残差序列均值

res_std=std2(res);%残差序列均方差

c=res_std/x0_std;%计算后验差比

s0=0.6745*x0_std;

e=abs(res-res_mean);

P=length(find(e<s0))/length(e);%计算小误差概率

if (c<=0.35&&P>=0.95)

   disp('后验差检验结果好');

end

if(c>0.35&&c<=0.5&&P>=0.8&&P<=0.95)

   disp('后验差检验合格');

end

if(c>0.5&&c<=0.65&&P>=0.7&&P<0.8)

   disp('后验差检验勉强合格');

end

fprintf('\n后验差比c=%4f\n',c);

fprintf('\n小误差概率P=%4f\n\n',P);

%关联度检验

abs_ss=D-x0;%绝对误差序列

k=(min(abs_ss)+0.5*max(abs_ss))./(abs_ss+0.5*max(abs_ss));

%计算关联系数

kk=mean(k);%计算平均 关联系数

if (abs(kk)>0.6)

   disp('关联度检验结果良好');

else

   disp('关联度检验不合格');

end

fprintf('\n关联度为%f\n\n',kk);

%残差检验

f=abs(D-x0)./x0;%残差序列

if (all(f<0.1))

        disp('残差检验结果好');

   elseif(all(f<0.2))

        disp('残差检验结果合格');

end

P0=1-sum(f)/(n-1);

fprintf('\n本次建模精度P0=%f\n',P0);

 

 

以上是关于收藏!常用算法及MATLAB代码的主要内容,如果未能解决你的问题,请参考以下文章

传感器3种常用算法处理,请收藏!(含代码)

Matlab图像处理常用算法源码

尽快收藏蓝桥杯常用算法模板

MATLAB常用算法与应用实例分享来袭!

「大数据」(一百四十四)常用算法及数据结构之Cuckoo Hash

收藏 | 图解最常用的10个机器学习算法!