python3 偏最小二乘法实现

Posted GXTon

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python3 偏最小二乘法实现相关的知识,希望对你有一定的参考价值。

python3的sklearn库中有偏最小二乘法。

可以参见下面的库说明:http://scikit-learn.org/stable/modules/generated/sklearn.cross_decomposition.PLSRegression.html

 

 对下面的程序进行改写,可以在python3中运行了

程序来源:来源:https://blog.csdn.net/li_huifei/article/details/78467689 经过修改可以在python3上运行

我的数据A.csv

我的数据RON.csv

 

 

# -*- coding: utf-8 -*-

#看来这个程序适合的是python2版本的。来源:https://blog.csdn.net/li_huifei/article/details/78467689
#这个目前也可以用了,主要还是在第60行的数据转换,,,不太清楚怎样去做装换。主要是因为数据类型不清楚,所以用了最笨的方法,不知道结果正不正确。????【这个是错误的】
#PLSR3经过摸索,第68行,还是因为数据结构类型不对,之后把array类型的数组转换成了list,,,这样方便在外面套一个[],,之后运行没有问题,但是结果的正确与否,还有待验证。



#导入库的部分
import csv
from sklearn import preprocessing
from sklearn.cross_validation import train_test_split
from sklearn.decomposition import RandomizedPCA
from sklearn.cross_decomposition import PLSRegression   #偏最小二乘法的实现,  在这里是可以跳进 PLSRegression 里面的
import numpy as np
import math
import matplotlib.pyplot as plt
 


#导入数据的部分
A = np.loadtxt(\'A.csv\',delimiter=\',\')                   #读入数据   这里的A就是y的矩阵   #读了这么多的数据???哪个是x,,哪个又是y呢???
print (A.shape)

RON = np.loadtxt(\'RON.csv\',delimiter=\',\')               #这里的RON就是x的矩阵
print (RON.shape)

 

#暂且在这里设置全局变量吧。
x_train_st_i=[]




#定义全局函数的部分。
def error(y_predict,y_test):                            #定义计算误差平方和函数,,,传入的是估算出的值,和测试值,,这里仅仅是用来定义的,方便后面的调用。
    errs = []
    for i in range(len(y_predict)):
        e = (y_predict[i]-y_test[i])**2
        errs.append(e)
    return sum(errs)
 
    


#偏最小二乘法的实现部分。
x_train, x_test, y_train, y_test = train_test_split(RON,A,test_size=0.5)       #划分训练集测试集,,,这个是一个库函数?? ,,,,这里能够看出是A和RON进行建模的。
x_train_st = preprocessing.scale(x_train)                                      #数据标准化,这个是内置函数
y_train_st = preprocessing.scale(y_train)                                      #数据标准化,,这一句是我仿照上面的一句改写的。
n_components = 0                                                               #这个应该是保存主成分的个数。
 
while n_components<x_train_st.shape[1]:
    n_components=n_components+1                                                #在第一遍的时候n_components是1,第二遍循环的时候是2,,,第n遍循环是n,,最大是x的列数,也就是特征的个数,
    pls2 = PLSRegression(n_components=n_components)                            #计算SS (SS这个是全建模 , PRESS是减去一个进行建模,,,,在python里建模很简单,设置好参数,调用一下函数就能建模了)
                                                                               #这个不是偏最小二乘法吗???,,这里是循环计算主成分的个数,直到达到满意的精度。
    pls2.fit(x_train_st, y_train)                                              #fit也是一个函数,,,两个参数,第一个参数是训练集,第二个参数是目标。
    y_predict0 = pls2.predict(x_train_st)                                      #predict也是一个内置的函数,,,,这个是不是用建好的模型去做预测,,,,把参数训练集输入进去,得到的是预测的值。
    SS = error(y_predict0,y_train)                                             #这里是预测的值和真正的值之间的误差大小。
    y_predict1 = []                                                            #这是创建了一个新的变量。根据名字的意思,根据模型得到的y的预测值,实际上这个模型是留一法建立的模型。
    for i in range(x_train_st.shape[0]):                                       #计算PRESS,,,,这个是x_train_st的行数
        n_components1 = n_components                                           #但是我不明白,为什么这里还要加1,主成分不可能是0个吧,所以就从1开始了。
        x_train_st1 = np.delete(x_train_st,i,0)                                #这里的0是行,1是列,,这个应该是删除第i行,,,这里是标准化的数组。留一法的实现
        y_train_st1 = np.delete(y_train,i,0)                                   #这个也是删除第i行,这里都是经过标准化的(但这个x是经过标准化的,y却没有用标准化的数据)。,,这个没有用到过,是不是这里写错了??
        pls2 = PLSRegression(n_components=n_components1)                       #偏最小二乘法参数的设置,,,这里面一般有5个参数,,但这里只传入了主成分的个数。
        #参数1:n_components:int ,(default 2) ,,要保留的主成分数量,默认为2
        #参数2:scale:boolean,(default True),,是否归一化数据,默认为是
        #参数3:max_iter: an integer,(default 500),,使用NIPALS时的最大迭代次数
        #参数4:tol: non-negative real(default 1e-06),,迭代截止条件
        #参数5:copy: Boolean,(default True),,
        pls2.fit(x_train_st1, y_train_st1)                                     #这里是根据前面设置好的参数建模过程,这里的建模过程是不是不太对(这里x是归一化的,y并没有用归一化的),应该都是用归一化的才行呀。???
        
        
        
        #这里主要是进行了数据格式的转换,因为做预测要传进的是矩阵【格式很重要】
        x_train_st_i=[]                                                        #用之前要进行清空,这个很重要。用一个参数之前要进行清空。
        x_train_st_list=x_train_st[i].tolist()
        x_train_st_i.append(x_train_st_list)


        print (\'the x_train_st is \',x_train_st_i)                              #输出一下变量,查看格式是否正确,因为下面的predict函数需要用[[1,1,1,1,1,1]] 这种格式的数据
        
        
        
        
        
        y_predict11 = pls2.predict(x_train_st_i)                               #预测函数,给定之前留一法没有用到的样本,进行建模,预测对应的y值。????可是已经删除了不是吗???           ZHE这句出了一点问题????就是数据格式有问题,需要在最外面在加一个[]
                                 
        
        
        
        y_predict1.append(y_predict11)                                         #把所有的y值组成一个数组,便于计算误差。,这个也是y的预测值,用它来算出另一个误差。
    PRESS = error(y_predict1,y_train)                                          #可能错误:https://blog.csdn.net/little_bobo/article/details/78861578
    Qh = 1-float(PRESS/SS)
    if Qh<0.0985:                                                              #判断精度                           模型达到精度要求,可以停止主成分的提取了。
        plt.figure(1)
        plt.scatter(y_predict0,y_train)                                        #画了一个图,这个图是预测值,与测量值的图???
        plt.figure(2)
        plt.scatter(y_predict1,y_train)
        print (\'the Qh is \',Qh)
        print (\'the PRESS is\',PRESS)
        print (\'the SS is\',SS)
        break                                                                  #达到了上面的精度,就可以停止while的迭代了
        
        
                                                                               #这下面就没有看懂了。
 
print (\'n_components is \',n_components+1)                                      #这里为什么要加1???,,,难道因为计数是从0开始的??
SECs = []
errors = []
e = 100
for i in range(10):                                                            #循环测试
    #print i 
    x_train, x_test, y_train, y_test = train_test_split( RON,A, test_size=0.5)  #划分训练集与测试集,这个是一个内置的函数。
    x_test_st = preprocessing.scale(x_test)                                     #数据标准化
    y_predict = pls2.predict(x_test_st)                                         #进行预测
    SECs.append(np.sqrt(error(y_predict,y_test)/(y_test.shape[0]-1)))            
    errors.append(float(error(y_predict,y_test)))
    if SECs[-1]<e:
        y_predict_min = y_predict
        y_test_min = y_test
        
print (\'the prediced value is \' ,y_predict.T)                                    #画图,打印结果
print (\'the true value is\',y_test)
print (\'the mean error is\',float(np.mean(errors)))
print ("the mean SEC is ",float(np.mean(SECs)))
 
plt.figure(3)
plt.scatter(y_predict_min,y_test_min)

 

摘自:

以上是关于python3 偏最小二乘法实现的主要内容,如果未能解决你的问题,请参考以下文章

浅谈最小二乘法

什么是最小二乘法回归分析?

什么是最小二乘法回归分析?

python3-多项式最小二乘法拟合

加权最小二乘法的权重形式

梯度下降