MCMC&Gibbs sampling

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了MCMC&Gibbs sampling相关的知识,希望对你有一定的参考价值。

Note of Markov Chain Monte Carlo and Gibbs Sampling :  http://pan.baidu.com/s/1jHpWY1o

序:A major limitation towards more widespread implementation of Bayesian approaches is that obtaining thee posterior distribution often requires the integration of high-dimensional functions. Here the MCMC is used to solve this problem. There are two major method in the using of MCMC ---- Metropolis algorithm and Gibbs sampling.

  1. Monte Carlo Integration

问题:计算一个复杂积分技术分享

解决方案:把技术分享 分解成技术分享技术分享 ,要求技术分享是概率密度函数,得到技术分享 ,将函数积分转换为随机变量函数的期望进行计算。技术分享,这里的xi是服从概率分布密度为技术分享的随机变量x的取值。

应用在贝叶斯理论中,后验概率技术分享

  1. Introduction to Markov Chain

介绍了马尔科夫过程,马尔可夫链,状态空间,转移概率,转移矩阵,以及切普曼-柯尔莫哥洛夫方程,平稳分布等概念。这里提及了从离散的平稳分布向连续状态进行过渡:技术分享 à技术分享

  1. The Metropolis-Hasting Algorithm

问题:从复杂的概率分布p(x)中采样。

解决方案:假如我们要从p(x)=f(x)/K中采样,但是K 并不已知且无法求取,则采取如下方法进行采样

a.设定初始值x0,要满足f(x0)>0;

b.利用现在的x值,从转移分布q(x1,x2)中采样一个候选参数x*,对这个转移分布的限制是q(x1,x2)=q(x2,x1);

c.计算技术分享 (这里用的是比值所以可以避开K 进行计算);

d.如果alpha大于1则接受候选 x*;如果alpha小于1,则以概率alpha接受候选x*;然后返回到步骤b.

4. The Gibbs Sampler

这种采样方法应用在多变量的分布当中,在采样时,我们每次只对一个变量进行采样将其他变量固定。也就是说每次都是对一个单变量的条件分布进行采样,而不去理会联合分布,这样对n个变量进行轮流采样,进行k轮之后得到一个长度为k 的Gibbs Sequence 用来表示联合分布的采样。文章中的Example 4里列出了一个二维的联合分布的采样过程,他的两个条件分布分别为二项分布和Beta分布,很好的诠释 了Gibbs采样的流程和优势。

另外,这里还比较了吉布斯采样和EM算法的联系与区别。

EM每次都包含两个步骤:a.在固定参数下对隐变量求期望;b.固定隐变量的取值,利用极大似然的方法对参数数进行估计。

吉布斯采样则将隐变量和参数看成同等地位进行随机采样,可以看成是对EM算法的随机模拟。(原文:The Gibbs sampler can be thought of as a stochastic analog to the EM approaches used to obtain likelihood functions when missing data are present .)

参考:《统计学习方法》;

    《Pattern recognition and machine learning 》第十一章 .

    

    

以上是关于MCMC&Gibbs sampling的主要内容,如果未能解决你的问题,请参考以下文章

Gibbs Sampling深入理解

随机模拟(MCMC)

使用R语言进行Metroplis-in-Gibbs采样和MCMC运行分析

文本主题模型之LDA LDA求解之Gibbs采样算法

MCMC笔记:吉布斯采样(Gibbs)

MCMC蒙特卡罗方法