简单的PRML阅读笔记
Posted luchi007
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了简单的PRML阅读笔记相关的知识,希望对你有一定的参考价值。
chapter1 绪论
chapter1.1 多项式拟合
- 离散标签叫做分类,连续标签叫做回归
- 在多项式拟合的问题中,随着阶数的变大,参数 M∗ 通常会变得非常大,造成过拟合现象,因此,通过正则化(regulation)可以降低 M 的参数大小,这样的技术在统计学中叫收缩(shrinkage),在神经网络中称之为权重衰减(weight decay)
chapter1.2.5 重新考虑曲线拟合问题
- 对于点集
x=(x1,x2,x3,...xN)T 和它的对应目标 t=(t1,...tN)T ,在给定 xi 的情况下,将预测值 ti 看成均值为真实值 yi 的高斯分布, 可以得到似然函数: p(t|x,w,β)=∏n=1NN(tn|y(xn.w),β−1)) ,然后取对数的似然函数可以得到之前进行曲线拟合的时候使用的最小二乘法的公式,这也为最小二乘法提供了从最大似然函数的角度上的依据 - 如果将上面的结论朝着贝叶斯的方法前进一步,其实就是根据贝叶斯公式在似然函数上加入了参数的先验分布
p(w|α)
,如果该先验分布服从均值为0的高斯分布,那么可以得出
p(w|α)=(α2π)M+12exp−α2wTw
,其中
M
为参数个数, 这种技术称之为最大后验,最大后验概率就是最小化下式
β2∑n=1Ny(xn,w)−tn2+α2wTw , 我常见的最后一项并不带进加和公式里面,但是如果从最开始就加入 p(w|α) 我觉得最后一项应该加进加和公式里,这也是我的疑惑,值得注意的是,这仍然不是纯正的贝叶斯观点,因为目前仍然使用的是对 w 的点估计,在纯粹的贝叶斯方法中,需要对所有的w 进行积分,始终应用概率的加法和乘法原则。
chapter1.5 决策论
- 三种常见决策方法: 最小化错误分类率;最小化期望损失;拒绝选项
- 生成模型:确定条件密度 P(x|Ck) 判别模型:确定后验概率密度 P(Ck|x)
- 判别函数分类和概率无关,可对应到支持向量机分类
- 回归问题的估计函数: y(x)=Et[t|x] , 这一点可以对应到逻辑斯蒂回归的目标函数为 P(y=1|φ)
chapter4 分类的线性模型
chapter4.2 概率生成模型
概率生成模型是对类条件概率密度
p(x|Ck)
和类先验概率密度
p(Ck)
建模,然后使用这两个概率密度通过贝叶斯定力计算后验概率密度
p(Ck|x)
考虑二分类的情形,类别
C1
的后验概率可以写成: