线性代数和概率论——机器学习基础

Posted chenqionghe

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了线性代数和概率论——机器学习基础相关的知识,希望对你有一定的参考价值。

一、线性代数

技术图片

万事万物都可以被抽象成某些特征的组合,线性代数的本质是将具体事物抽象为数学对象,描述其静态和动态的特征。

常见概念

  • 标量(scalar)
    一个标量 a 可以是整数、实数或复数
  • 向量(vector)
    多个标量 a1,a2,?,an 按一定顺序组成一个序列。通常用一维数组表示,例如语音信号
  • 矩阵(matrix)
    矩阵包含向量,一个m*n的矩阵,可以看成是由n个m维的列向量构成,也可以看成是由m个n维的行向量构成。通过用二维数组表示,例如灰度图像
  • 张量(tensor)
    张量就是高阶的矩阵,如果把三阶魔方的每一个小方块看作一个数,它就是个 3×3×3 的张量,3×3 的矩阵则恰是这个魔方的一个面,也就是张量的一个切片。通过用三维乃至更高维度的数组表示,例如RGB图像
  • 范数(norm)
    对单个向量大小的度量,描述的是向量自身的性质,将向量映射为一个非负的数值。
  • 内积(inner product)
    两个向量之间的相对位置,即向量之间的夹角。计算的则是两个向量之间的关系
  • 线性空间(linear space)
    一个集合,元素是具有相同维数的向量(可以是有限个或无限个), 并且定义了加法和数乘等结构化的运算
  • 内积空间(inner product space)
    定义了内积运算的线性空间
  • 正交基(orthogonal basis)
    在内积空间中,一组两两正交的向量。正交基的作用就是给内积空间定义出经纬度。?旦描述内积空间的正交基确定了,向量和点之间的对应关系也就随之确定。
  • 标准正交基(orthonormal basis)
    正交基中基向量的 范数单位长度都是1

线性变换

线性变换描述了向量或者作为参考系的坐标系的变化,可以用矩阵表示;
线性空间中,变化的实现有两种方式:

  1. 点的变化
    Ax=y
    表示向量 x 经过矩阵 A 所描述的变换,变成了向量 y
  2. 参考系的变化
    描述矩阵的?对重要参数是特征值λ和特征向量x。
    对于给定的矩阵 A,假设其特征值为λ,特征向量为 x,则它们之间的关系如下:
    Ax=λx
    矩阵的特征和特征向量描述了变化速度与方向。
    把矩阵所代表的变化看作奔跑的人,那么特征值λ代表奔跑的速度,特征向量x代表奔跑的方向。

二、概率论

技术图片

同线性代数一样,概率论也代表一种看待世界的方式,关注的焦点是生活中的不确定性和可能性。
概率论是线性代数之外,人工智能的另一个理论基础,多数机器学习模型采用的都是基于概率论的方法。
由于实际任务中可供使用的训练数据有限,因而需要对概率分布的参数进行估计,这也是机器学习的核心任务。

两大学派

  1. 频率学派(Frequentists)
    频率派认为参数是客观存在,不会改变,虽然未知,但却是固定值。只是观察者的我们无从知晓,因此在计算具体事件的概率时,要先确定分布的类型和参数,以此为基础进行概率推演
  2. 贝叶斯学派(Bayesians)
    贝叶斯派则认为参数是随机值,固定的先验分布是不存在的。假设本身取决于观察结果,数据的作用就是对假设做出不断修正,使观察者对概率的主观认识更加接近客观实际。

频率派最常关心的是似然函数,而贝叶斯派最常关心的是后验分布。

两种概率估计方法

  1. 极大似然估计法(maximum likelihood estimation)
    思想是使训练数据出现的概率最大化,依此确定概率分布中的未知参数,估计出的概率分布也就符合训练训练数据的分布。
    最大似然估计法估计参数时,只需要使用训练数据
  2. 最大后验概率法(maximum a posteriori estimation)
    思想是根据训练数据和已知的其他条件,使未知参数出现的可能性最大化,并选取最可能的未知参数取值作为估计值。
    最大后验概率法估计参数时,除了训练数据外,还需要额外的信息,也就是贝叶斯中的先验概率

举例说明

好学生和差学生打架

  1. 极大似然估计:老师认为肯定是差学生的错,因为差学生爱惹事
  2. 最大后验概率:老师如果知道优等生和差学生之间的过节(先验信息),把这些因素考虑进来,就不会简单地认为是养生挑衅。
    极大似然是寻找一组参数使得观测数据出现的概率最大,最大后验是寻找当前观测数据下出现概率最大的一组参数。

两种随机变量

  1. 离散型随机变量(discrete random variable)
    在一定区间内取值有有限个或者可数个,例如某些地区人口的出生数
  2. 连续型随机变量(continuous random variable)
    在一定区间内变量取值有无限个,数值无法一一列举出来,例如某些地区的房价

以上是关于线性代数和概率论——机器学习基础的主要内容,如果未能解决你的问题,请参考以下文章

《动手学习深度学习》笔记:基础知识(概率论,线性代数)

机器学习的数学基础

机器学习需要哪些数学基础

机器学习需要啥数学基础

机器学习数学基础

机器学习数学基础