最小二乘法

Posted tianzeng

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了最小二乘法相关的知识,希望对你有一定的参考价值。

    先看下百度百科的介绍:最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。

   通过这段描述可以看出来,最小二乘法也是一种优化方法,求得目标函数的最优值。并且也可以用于曲线拟合,来解决回归问题。难怪《统计学习方法》中提到,回归学习最常用的损失函数是平方损失函数,在此情况下,回归问题可以著名的最小二乘法来解决。看来最小二乘法果然是机器学习领域做有名和有效的算法之一。

 

二. 最小二乘法

   我们以最简单的一元线性模型来解释最小二乘法。什么是一元线性模型呢? 监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。对于二维空间线性是一条直线;对于三维空间线性是一个平面,对于多维空间线性是一个超平面...

   对于一元线性回归模型, 假设从总体中获取了n组观察值(X1,Y1),(X2,Y2), …,(Xn,Yn)。对于平面中的这n个点,可以使用无数条曲线来拟合。要求样本回归函数尽可能好地拟合这组值。综合起来看,这条直线处于样本数据的中心位置最合理。 选择最佳拟合曲线的标准可以确定为:使总的拟合误差(即总残差)达到最小。有以下三个标准可以选择:

        (1)用“残差和最小”确定直线位置是一个途径。但很快发现计算“残差和”存在相互抵消的问题。
        (2)用“残差绝对值和最小”确定直线位置也是一个途径。但绝对值的计算比较麻烦。
        (3)最小二乘法的原则是以“残差平方和最小”确定直线位置。用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。这种方法对异常值非常敏感。

  最常用的是普通最小二乘法( Ordinary  Least Square,OLS):所选择的回归模型应该使所有观察值的残差平方和达到最小。(Q为残差平方和)- 即采用平方损失函数。

 

样本回归模型:

                  技术分享图片                   其中ei为样本(Xi, Yi)的误差

   平方损失函数:

                      技术分享图片

   则通过Q最小确定这条直线,即确定技术分享图片,以技术分享图片为变量,把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求导数得到。求Q对两个待估参数的偏导数:

                   技术分享图片    

    根据数学知识我们知道,函数的极值点为偏导为0的点。

 解得:

                   技术分享图片

 

这就是最小二乘法的解法,就是求得平方损失函数的极值点。

/*
 *最小二乘法:c++实现 
 *输入      :x 
 *输出      :y
 */
  
#include <iostream>
#include <vector>
using namespace std;

class LeastSquare
{
    double a,b;
public:
    LeastSquare(const vector<double>& x,const vector<double>& y);        
    double getY(const double x) const;
    void print() const;
};
//LeasetSquare的成员函数 
LeastSquare::LeastSquare(const vector<double>& x,const vector<double>& y)
{
        double t1=0,t2=0,t3=0,t4=0;
        for(int i=0;i<x.size();++i)
        {
            t1+=x[i]*x[i];
            t2+=x[i];
            t3+=x[i]*y[i];
            t4+=y[i];
        }
        a=(t3*x.size()-t2*t4)/(t1*x.size()-t2*t2);
        b=(t1*t4-t2*t3)/(t1*x.size()-t2*t2);
}

double LeastSquare::getY(const double x) const
{
    return a*x+b;
}

void LeastSquare::print() const
{
    cout<<"y="<<a<<"x+"<<b<<endl;
}
//main函数 
int main()
{
    vector<double> x;
    double t;
    while(cin>>t)//输入x的值,以ctrl+z结尾 
        x.push_back(t);
    
    int length=x.size();
    vector<double> y(x.begin()+length/2,x.end());
    LeastSquare ls(x,y);
    ls.print();
    
    cin.clear();
    cout<<"Input x:"<<endl;
    double t1;
    while(cin>>t1)//输入y的值,以ctrl+z结尾
    {
        cout<<"y="<<ls.getY(t1)<<endl;
        cout<<"Input x:"<<endl;
    }
    return 0;
}

四. 最小二乘法与梯度下降法

   最小二乘法跟梯度下降法都是通过求导来求损失函数的最小值,那它们有什么区别呢。

   相同


  1.本质相同:两种方法都是在给定已知数据(independent & dependent variables)的前提下对dependent variables算出出一个一般性的估值函数。然后对给定新数据的dependent variables进行估算。
  2.目标相同:都是在已知数据的框架内,使得估算值与实际值的总平方差尽量更小(事实上未必一定要使用平方),估算值与实际值的总平方差的公式为:

                             技术分享图片

   其中技术分享图片为第i组数据的independent variable,技术分享图片为第i组数据的dependent variable,技术分享图片为系数向量。


   不同

  1.实现方法和结果不同:最小二乘法是直接对技术分享图片求导找出全局最小,是非迭代法。而梯度下降法是一种迭代法,先给定一个技术分享图片,然后向技术分享图片下降最快的方向调整技术分享图片,在若干次迭代之后找到局部最小。梯度下降法的缺点是到最小点的时候收敛速度变慢,并且对初始点的选择极为敏感,其改进大多是在这两方面下功夫

 

 

最小二乘法的局限性和适用场景  

    从上面可以看出,最小二乘法适用简洁高效,比梯度下降这样的迭代法似乎方便很多。但是这里我们就聊聊最小二乘法的局限性。

    首先,最小二乘法需要计算的逆矩阵,有可能它的逆矩阵不存在,这样就没有办法直接用最小二乘法了,此时梯度下降法仍然可以使用。当然,我们可以通过对样本数据进行整理,去掉冗余特征。让的行列式不为0,然后继续使用最小二乘法。

    第二,当样本特征n非常的大的时候,计算的逆矩阵是一个非常耗时的工作(nxn的矩阵求逆),甚至不可行。此时以梯度下降为代表的迭代法仍然可以使用。那这个n到底多大就不适合最小二乘法呢?如果你没有很多的分布式大数据计算资源,建议超过10000个特征就用迭代法吧。或者通过主成分分析降低特征的维度后再用最小二乘法。

    第三,如果拟合函数不是线性的,这时无法使用最小二乘法,需要通过一些技巧转化为线性才能使用,此时梯度下降仍然可以用。

    第四,讲一些特殊情况。当样本量m很少,小于特征数n的时候,这时拟合方程是欠定的,常用的优化方法都无法去拟合数据。当样本量m等于特征数n的时候,用方程组求解就可以了。当m大于n时,拟合方程是超定的,也就是我们常用与最小二乘法的场景了。






以上是关于最小二乘法的主要内容,如果未能解决你的问题,请参考以下文章

关于VC的最小二乘法曲线拟合算法问题

一文速学-最小二乘法曲线拟合算法详解+项目代码

谁懂迭代加权最小二乘法,能否给讲下原理

01_有监督学习--简单线性回归模型(最小二乘法代码实现)

理解最小二乘法

最小二乘法