模式识别与机器学习(更新中)

Posted 中二病没有蛀牙

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了模式识别与机器学习(更新中)相关的知识,希望对你有一定的参考价值。

模式识别与机器学习

使用的教材,PPT为1

公式推导部分直接去看白板推导2,不管是书上还是ppt都写的极其模糊

先说重点:

  • 贝叶斯算概率
  • 参数估计

第二讲 贝叶斯学习基础

贝叶斯公式

先验概率是非条件概率

似然概率是给定变量的条件下观测变量的概率

后验概率是给定数据的条件下观测变量的概率

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CxnCiJvk-1668446316791)(PRML.assets/image-20221113232749527.png)]

贝叶斯决策

最小错误率贝叶斯决策

决策的平均错误率尽可能地小。

二分类

也就是说后验概率大的就是所求的。

多分类

对于更一般化的多类分类问题,最小错误率决策表示为最大化平均正确率

可能错分的情况存在种,涉及到的计算很多,所以通常采样计算平均正确率来计算

  • 所有的类别分母都是相同的,所以决策时实际上只需比较分子即可。

最小风险贝叶斯决策

最小化决策带来的平均损失,也叫做最小化风险(risk)

平均损失的两重含义

  • 获得观测值后,决策造成的损失对实际所属类别的各类可能的平均,称为条件风险(conditional risk)
  • 条件风险对x的数学期望,称为总体风险

最小错误率是最小风险的一种特殊情况

关于两种方式的区别去看书上p38 题二

分类器

分类器是一个计算系统,它通过计算出一系列判别函数的值做出分类决策,实现对输入数据进行分类的目的。分类器的构建离不开判别函数决策面

判别函数是一个从输入特征映射到决策的函数,其结果可以直接用于做出分类决策。

分类问题中,分类器会把输入空间划分成多个决策区域,这些决策区域之间的边界称作决策面决策边界

分类器的构建方法

基于高斯分布的贝叶斯分类器

协方差(Covariance)在概率论统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。

协方差矩阵可以参考这篇[3]:https://eipi10.cn/mathematics/2021/05/12/covariance_matrix/

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sERa3vM4-1668446316855)(PRML.assets/image-20221113023211023.png)]

不同维度下的判别面:

朴素贝叶斯分类器

朴素贝叶斯(naïve Bayes)分类器对条件概率分布提出了特征条件独立的假设,所谓的朴素就是特征条件独立

朴素贝叶斯假设向量的D个元素之间相互独立,其联合分布可以写成 D个独立的概率分布相乘

参数估计

最大似然估计

最大似然估计是一种给定观测时估计模型参数的方法,它试图在给定观测的条件下,找到最大化似然函数的参数值。

最大后验估计

最大后验估计是在最大似然估计的基础上考虑参数的先验分布,通过贝叶斯公式获得参数的后验分布 ,并以后验分布作为估计的优化目标。

期望最大化算法(expectation maximization,EM)

:对不完整数据建模时,使用隐变量定义缺失数据

对复杂的观测数据建模时,使用隐变量定义潜在因素。

考虑一个概率模型,X表示观测变量集,Z表示隐变量集,θ表示模型参数,目标是最大化观测变量X对参数θ的对数似然函数

EM算法是一种迭代算法,常用于求解带有隐变量的概率模型的最大似然或者最大后验估计。

E步:根据给定观测变量X和当前参数θ推理隐变量Z的后验概率分布,并计算观测数据X和隐变量Z的对数联合概率关于Z的后验概率分布的期望;

M步:最大化E步求得的期望,获得新的参数θ。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YMlh4rx1-1668446316871)(PRML.assets/image-20221114021406358.png)]

第三讲 逻辑回归

线性回归

基函数(basis function):对输入特征的变换函数

  • 多项式基函数的一个局限性是它们是输入变量的全局函数,所以一个区域内个改变会影响所有区域。

  • μ j μ_j μj控制着基函数在输入空间中的位置,参数 s s s控制着基函数的空间大小

  • 可以对自变量进行非线性变换,在得到新的自变量后进行线性回归建模。

使用高斯随机噪声实现概率建模

概率线性回归的一种方式是高斯随机误差概率建模,观测的输出被假设为确定性的线性回归加上一个高斯随机噪声

最小二乘与最大似然

最小二乘问题的目标为调整模型函数的参数来最好地拟合数据集。模型对数据的拟合程度是通过其误差来测量的。

最大似然是因为减去的是似然,要越大越好

二乘的意思就是误差乘两次

最小值可通过将对优化目标关于参数的导数设为0求解得到。

模型有D个参数,就有D个梯度方程

P9

P10

正则化最小二乘与最大后验

使用L_2范数作为惩罚项的正则化最小二乘也叫做岭回归。

P11

逻辑回归

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-L9KZXAAP-1668446316931)(PRML.assets/image-20221113203119577.png)]

第四讲 概率图模型基础

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7Ml63rkq-1668446316935)(PRML.assets/image-20221113203908290.png)]

有向图

概率图的构建可以由拓扑排序

一个贝叶斯网络由两部分组成:

①有向无环图G=(V,E) ,其中V表示有向图中节点的集合,E表示图中有向边的集合。

②父节点到子节点的条件概率分布。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-tDQNhkNi-1668446316936)(PRML.assets/image-20221113233956430.png)]

局部马尔可夫性:贝叶斯网络中每一个节点在给定其父节点的条件下与其他非后代节点条件独立。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-D80Zatc0-1668446316937)(PRML.assets/image-20221113210901950.png)]

顺序结构(head to tail)

节点𝑐连接了一个箭头的头部和另一个箭头的尾部。

顺序结构具有条件独立性:在给定𝑐的条件下,𝑎和𝑏条件独立。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GVZeFDRb-1668446316941)(PRML.assets/image-20221113210623985.png)]

发散结构(tail to tail)

节点c连接两个箭头的尾部。

发散结构具有条件独立性:在给定c的条件下,a和b条件独立。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-00Czfcsc-1668446316946)(PRML.assets/image-20221113210659293.png)]

汇总结构(head to head)

节点c连接了两个箭头的头部。

汇总结构不具有条件独立性:在给定c的条 件下,a和b条件不独立。 只有这个是特殊的

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bL9KrE0c-1668446316948)(PRML.assets/image-20221113210725335.png)]

d-分隔规则

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-iplApFUj-1668446316952)(PRML.assets/image-20221113214115288.png)]马尔可夫毯(Markov blanket)

参考[4] https://blog.csdn.net/jbb0523/article/details/78424522

说人话就是最后留下的是该点的父亲,儿子,儿子的其他父亲

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ut7pI8Xj-1668446316953)(PRML.assets/image-20221113223447926.png)]

常见的有向图模型

朴素贝叶斯和隐马尔可夫模型

朴素贝叶斯网络

**隐马尔可夫模型(**hidden Markov model)

无向图模型

任一变量x_k在给定它的邻居的情况下条件独立于所有其他变量,表示为x_k在给定邻居变量和给定其他所有变量条件下的概率分布相同

条件独立性体现在:全局,局部,成对

无向图中的一个全连通子图,称为团(clique),即团内的所有节点之间都有边相连。

在所有团中,如果一个团不能被其它的团包含,这个团就称作一个最大团(maximal clique)。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-X7As3uw6-1668446316961)(PRML.assets/image-20221114124203857.png)]

图模型中的推理

因子图3

将一个具有多变量的全局函数因子分解,得到几个局部函数的乘积,以此为基础得到的一个双向图叫做因子图(Factor Graph)。

因子图在变量节点(下图中圆形表示)外,额外引入了因子节点(下图中方形表示)

因子图与图模型的对应关系:

  • 因子图中的变量节点与对应图模型中的变量节点相同;

  • 因子图中对应图模型中同一因子的变量节点之间存在一个因子节点;

  • 因子图中的边都是无向边,连接因子节点与相对应的变量节点。

因子图主要有两个用途,1)表达因子分解的结构,2)计算边缘函数。

因子分解4

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YUBlLsuD-1668446316964)(PRML.assets/image-20221114152422112.png)]

p ( X ) p(X) p(X)分解为几个局部函数的乘积,每个函数的参数均为 X 的子集

边缘函数

$X−xi $为 X X X 中除$ xi 之 外 的 其 他 元 素 组 成 的 集 合 , 则 称 之外的其他元素组成的集合,则称 pi(xi) 为 为 p(x1,x2,…,xn)$ 的一个边缘函数 。

边缘函数的解就是边缘概率(先验概率):某个事件发生的概率

边缘概率是通过边缘化(marginalization)得到的:在联合概率中,把最终结果中不需要的那些事件合并成其事件的全概率而消失(对离散随机变量用求和得全概率,对连续随机变量用积分得全概率)

和积算法

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-keFzSZP2-1668446316967)(PRML.assets/image-20221114160817793.png)]

和:求解的因子结节和它相连的变量节点的和

积:求解的因子节点和其他因子节点的积

和积算法的步骤如下:

① 选择任何一个变量节点或因子节点作为根节点

② 由叶子节点向根节点执行一次消息传递;

③ 由根节点向叶子节点执行一次消息传递;

④ 根据边缘分布的计算公式得出任意变量节点的边缘分布。

参考3给出了直观的例子

支持向量机

支持向量机由简至繁有5:

  • 线性可分SVM
    • 通过硬间隔最大化可以学习得到一个线性分类器,
  • 线性SVM
    • 当训练数据不能线性可分但是可以近似线性可分时,通过软间隔(soft margin)最大化也可以学习到一个线性分类器
    • 软间隔:有一定的容错率,引入了松弛变量
  • 非线性SVM
    • 当训练数据线性不可分时,通过使用核技巧(kernel trick)和软间隔最大化,可以学习到一个非线性SVM。

对于p维向量,用 p − 1 p-1 p1维的超平面隔开所有点,SVM选择能够使每一类离超平面最近的数据点的距离最大的超平面。

样本中距离超平面最近的一些点,这些点叫做支持向量

基本分类模型

间隔最大化问题的数学表达就是

具体的推导过程可以参考6

拉格朗日对偶优化

线性不可分数据的分类

引入了软间隔

往年题

往年汇总

2021 : https://blog.csdn.net/qq_40394960/article/details/112580581?spm=1001.2014.3001.5502

考点频率

EM算法

马尔科夫毯

2014

和积算法的过程是什么?

  • 因子图,和积算法

马尔科夫毯的主要变量有哪些。

在可信贝叶斯网络中,一个节点的马尔可夫毯为该节点的父节点、子节点以及子节点的父节点。

参考资料


  1. 《模式识别与机器学习》 ↩︎

  2. https://www.bilibili.com/video/BV1aE411o7qd?p=3&vd_source=b3aaf2cdc79875f83fdd149e1178ce26 ↩︎

  3. 因子图介绍 ↩︎ ↩︎

  4. https://zhuanlan.zhihu.com/p/84210564 ↩︎

  5. 支持向量机(Support Vector Machine, SVM) ↩︎

  6. https://zhuanlan.zhihu.com/p/77750026 ↩︎

以上是关于模式识别与机器学习(更新中)的主要内容,如果未能解决你的问题,请参考以下文章

模式识别与机器学习——4.2特征选择

模式识别与机器学习——3.3分段线性判别函数

深度学习 vs 机器学习 vs 模式识别

模式识别与机器学习——4.3离散K-L变换

模式识别与机器学习——PCA与Kernel PCA介绍与对比

常用牛人主页链接(计算机视觉模式识别机器学习相关方向,陆续更新