标准metropolis算法 hasting算法比普通的接受拒绝算法好在哪里

g(y|x) 条件概率之后,更加准确的产生样本分布么?
接受拒绝法可以看作是 对所有的x,有 g(y|x) = g(y)
已有的答案已经指出了rejection sampling的缺点,所以我不再赘述。引用一段我男神的讲义:To achieve the goal of drawing samples from a certain distribution, it first explores the neighborhood of $\theta_1^*$ and
then tries to give advantage to the directions in which $\pi(\theta)$ increases. 也就是说,M-H算法会以现有的样本为下一个样本的分布的参数来进行抽样,如果下一个样本在原分布中出现的概率大于在现有样本为参数的分布中出现的概率则接受,反之则以一定的概率拒绝。这样虽然会造成无效的样本,但却可以使样本的分布朝原分布更快地移动(比high dimensional rejection sampling快很多)。在应用中一般有500个样本左右的burn-in period,之后的样本基本可以认为是从原分布里抽出来的。鸣谢:男神Arian Maleki
谢谢邀请。在高维空间采样的时候,接受拒绝算法基本上是不可用的,见&a href=&///?target=https%3A//zh.wikipedia.org/wiki/%25E7%25BB%25B4%25E6%%25E7%2581%25BE%25E9%259A%25BE& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&高维灾难&i class=&icon-external&&&/i&&/a&。简而言之就是,用简单的接受/拒绝算法,采样所需的样本量(或者说接受的概率)随空间维数增加而指数增长。&br&&br&Metropolis-Hasting 主要解决的就是这个问题,使用一个会收敛到目标分布的马尔科夫链来进行采样。你在题目里说的没有错,接受-拒绝算法可以视作一个每一步都独立取样的 Metropolis,但是这也就是高维灾难的根源:在高维空间里,分布密度往往是稀疏的,意味着每一步独立取样的话,绝大多数样本将被拒绝;假如使用马尔科夫链的话,则因为“跳跃分布”(也就是你所说的g(y|x))通常是以当前态为中心,得到相同数量的接受样本需要的采样量要低得多。&br&&br&当然,如果是多变量的联合分布(也可以视为分布复杂的超高维度取样),即使用 Metropolis 也会显得不够(因为超高维情况下&u&跳跃分布&/u&很难选取,而且很多时候联合分布用解析表示非常困难,只能用一大堆条件分布来表达),这时候就应该选用 Gibbs Sampling,简而言之就是把 Metropolis-Hasting 中的&u&一大步&/u&分解为 N 小步(其中N可以是维度数,也可以是多变量中的变量数),每一小步只根据上一大步的状态和&u&这一大步&/u&已经选取了的维度/变量,使用维度/变量间的条件概率采样一个新变量/维度。
谢谢邀请。在高维空间采样的时候,接受拒绝算法基本上是不可用的,见。简而言之就是,用简单的接受/拒绝算法,采样所需的样本量(或者说接受的概率)随空间维数增加而指数增长。Metropolis-Hasting 主要解决的就是这个问题,使用一个会收敛到目标分…
Metropolis Hastings 处理 partially observed diffusion model (几乎所有金融衍生品的价格模型都属于这一类)的时候如果用 data augmentation 随着精度提高也会经历维数灾难 不过可以用 data reparameterization 解决 我曾经也参与了一点其中的工作 但是简单的拒绝算法是完全没办法处理这样的问题的
Metropolis Hastings 处理 partially observed diffusion model (几乎所有金融衍生品的价格模型都属于这一类)的时候如果用 data augmentation 随着精度提高也会经历维数灾难 不过可以用 data reparameterization 解决 我曾经也参与了一点其中的工作 但是…
已有帐号?
无法登录?
社交帐号登录马尔科夫链蒙特卡_图文_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
马尔科夫链蒙特卡
上传于||暂无简介
大小:262.00KB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢工具类服务
编辑部专用服务
作者专用服务
马尔可夫链蒙特卡罗算法
本文在对 MCMC 算法的起源,应用以及其相关的基本问题(随机样本生成法,静态 Monte Carlo 算法)做了介绍后,一方面讨论了 MCMC 算法的构造方法,另一方面讨论了 Markov 链的定性收敛和定量收敛,并用耦合构造的方法证明了其中的一些结论,得到了若干有意义的的结果。
本文第一部分介绍了 MCMC 算法的起源及应用范围,讨论了若干种随机样本生成法和静态 Monte Carlo 算法,第二部分介绍了 MCMC 算法的构造方法,专门讨论了 Metropolis-Hasting 采样法,第三部分讨论了 Markov 链收敛性几种方法,包括定量收敛和定性收敛.第四部分着重讨论了 Markov 链定量收敛的—个推广的结论及证明,得出了若干结果,具有较好的理论及现实指导意义。
学科专业:
授予学位:
学位授予单位:
导师姓名:
学位年度:
在线出版日期:
本文读者也读过
相关检索词
万方数据知识服务平台--国家科技支撑计划资助项目(编号:2006BAH03B01)(C)北京万方数据股份有限公司
万方数据电子出版社}

我要回帖

更多关于 metropolis算法 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信