高斯过程回归 matlab中有哪些常用的核函数

高斯过程回归;1.回归的方法目标;在做回归时,为确定映射函数,有一类方法是贝叶斯回;高斯过程是任意有限个随机变量均具有联合高斯分布的;(x)?E[f(x)];{mk(x,x')?E[(f(x)?m(;x,x'?Rd为任意随机变量;f(x)~GP(m(x),k(x,x');通常会做预处理,使得其均值函数为0;回归模型如下:;y?f(x)
高斯过程回归
1.回归的方法目标
在做回归时,为确定映射函数,有一类方法是贝叶斯回归。该方法定义了一个函数分布,赋予每一种可能的函数一个先验概率,可能性越大的函数先验概率越高。但是可能的函数集数量很多,如何选择函数就是高斯过程回归解决的问题。 2.高斯过程
高斯过程是任意有限个随机变量均具有联合高斯分布的集合,若一个随机过程的变量的随机分布满足高斯分布,则这个随机过程就是高斯过程,其性质完全由均值函数和协方差函数确定。均值函数和协方差函数为:
(x)?E[f(x)]
{mk(x,x')?E[(f(x)?m(x))(f(x')?m(x'))]
x,x'?Rd为任意随机变量。因此高斯过程可以定义为
f(x)~GP(m(x),k(x,x'))
通常会做预处理,使得其均值函数为0。 3.高斯过程回归
回归模型如下:
其中x为输入向量,f为函数值,y为受加性噪声污染的观测值。假设噪声服从
2?~N(0,?n).可以得到观测值y的先验分布为:
y~N(0,K(X,X)??nIn)
观测值y与预测值f*的联合先验分布为:
其中K(X,X)?K)n*n阶对称正定的协方差矩阵,矩阵元素n?(ikj为
kij?k(xi,xj)表示xi,xj之间的相关性。K(X,x*)?K(x*,X)T为测试向量x*与训练
集输入X之间的n*1阶协方差矩阵。k(x*,x*)为测试点自身的协方差。In为n
由此可以计算预测值f*的后验分布:
f*|X,y,x*~N(f*,cov(f*))
f*?K(x*,X)[K(X,X)??nIn]?1y
2cov(f*)?k(x*,x*)?K(x*,X)?[K(X,X)??nIn]?1K(X,x*)
f*,cov(f*)即为测试点x*的预测值的均值和方差。
4.高斯过程回归的训练
高斯回归过程可以选择不同的协方差函数,常用的协方差函数是平方指数协方差:
1k(x,x')??2exp(?(x?x')TM?1(x?x')) f
其中M?diag(l2),l为方差尺度,?2f为信号方差。参数集合??{M,?f,?n}为超
参数,一般通过极大似然法求得。首先建立训练样本条件概率的负对数似然函数:
L(?)??logp(y|X,?)
对L(?)求偏导数,然后采样共轭梯度法、牛顿法等优化方法对偏导数进行最小化得到超参数的最优解。这里负对数似然函数L(?)的形式为:
yCy?log|C|?log2? 222
其偏导数为:
?L(?)1?C?tr((??T?C?1)) ??i2??i
其中C?Kn??nIn,??(K??nIn)y?Cy.
由上式求得最优超参数后,便可由第3小节得到x*的f*,cov(f*) 5.高斯回归的优缺点
优点:处理高维、小样本、非线性等复杂问题有很好的适应性,泛化能力强 与ANN,SVM相比容易实现,超参数自适应获取、非参数推断灵活
摒弃了线性模型参数的思想,直接通过核函数建立y之间的关系,从一个有
参模型过度到无参模型
缺点:计算量大、局限于高斯噪声分布假设(观测数据满足多变量联合高斯分布) 6.高斯回归的应用 用于时间序列预测分析 用于动态系统模型辨识 用于系统控制或控制系统设计 与贝叶斯滤波方法想结婚
Vapnik-Chervonenkis维度:
一个数据集有N个点,这N个点可以用2种标记方法分成正负例。因此N个数据点就有2种学习方法。对于N个点的分类,我们都能找到一个假设h??将正负例分开,那么我们就说?散列N个点。可以被散列的点的最大数量称为?的VC维。例如二维线性分类器的VC维是3,因为当有如下的4个点时,无法分类了。VC维越大,学习能力越强,学习越复杂。
2. SVM回归
假定训练样本集{(x1,y1),(x2,y2)...(xn,yn)},其中xi?R为输入值yi?R为对应的目标值,N为样本数。定义?不敏感损失函数为:
|y?f(x)|??
?|y?f(x)|??
|y?f(x)|??|y?f(x)|??
其中f(x)为通过样本学习构造的回归估计函数,?为不敏感损失函数。学习的目的是构造f(x),使之与目标值之间的距离小于?,同时函数的VC维最小,这样可以最优地估计出对应的目标值。
)将训练数据x映射到一个高维特征空支持向量机的思想是:通过某一非线性函数?(?
间中构造回归估计函数,这种非线性变换采用的是核函数K(xi,xj)来实现。估计函数f(x)可以表示为:
f(x)????(x)?b
其中?为权向量,维数是特征空间维数。SVM回归用?不敏感损失函数实现高维空间的线性回归,并且采用结构风险(=经验风险+置信风险)最小原则来减小模型的复杂度,其优化公式为:
min???C?(?i??i*)
s.t. yi???xi?b????i
??xi?b?yi????i*, ?i,?i*?0,i?1,2...N
其中常数C(C&0)表示控制训练误差的代价(惩罚系数);?i,?i为松弛变量,表示引入训练集的误差;?为不敏感损失函数,表示允许的训练损失。min的优化问题通过引入拉格朗日乘子将其转化为对偶问题:
L?||?||?C?(?i??i)???i(?i??i?yi??xi?b)???i(?i??i?yi??xi?b)??(?i?i??i*?i*)
2i?1i?1i?1i?1
对L分别求?,b,?i,?i*得偏导,令其等于0,求解上式得:
max???(?i??i)(?j??j)xixj???(?i??i)??(?i??i*)
2i?1j?1i?1i?1
)?0,?i?(0,C),?i*?(0,C)
其中只有部分参数(?i??i*)不为0,它们对应的xi就是问题中的支持向量。得到权重向量和回归函数为:
?*??(?i??i*)?xi
f(x)??(?i??i*)?xix?b*
也可以用核函数替代:
f(x)??(?i??i*)?K(xi,x)?b*
b*的计算方法为:
b???[yi??(?i??i)K(xj,xi)??]??[yi??(?i??i)K(xj,xi)??]?
NNSV?xj?SVxj?SV0??i*?C??0??i?C?
3. SVM回归的优缺点
优点:能很好地解决小样本、非线性、高维和局部极小点等问题。基于结构风险最小。泛化
包含各类专业文献、行业资料、生活休闲娱乐、各类资格考试、幼儿教育、小学教育、专业论文、高等教育、应用写作文书、高斯回归SVM回归27等内容。 
 目前, SVM 算法在模式识别、回归估 计、概率密度函数估计等方面都有应 用,且...核函数一般有多项式核、高斯径向基核、指数径向基核、多隐层感知核、 傅立叶...  在小数据情形下的算法过拟合问题,典型的就是 SVM。...本质上是把传统的混合高斯模型(GMM)替换成 了深度...做简单的分类、回归问题推荐!不支持 RNN。 7. Cxx...  基于SVM回归方法的风速预测研究_教育学/心理学_人文社科_专业资料。基于 SVM ...本文在风速预测中采用的核函数为径向基 RBF 核函数(高斯核函数) 。 3.SVM ...  (4) SVM也等价于MAP估计,则该MAP估计对应的先验和似然是什么? 同岭回归类似,先验为0均值得高斯分布,但方差为2C,同时各维独立,即 p ? w ? ? ? N ? 0...  支持向量回归机_自然科学_专业资料。3.3 支持向量回归机 SVM 本身是针对经典的...ξi ε ) 2(1 + ε ) 1 exp(? ξi ) 2 高斯 ξ2 1 exp(? i )...  R中SVM的实现_数学_自然科学_专业资料。一、R 中...后面两者为做回归时用到。 默认为 C 分类器。 ...核: tanh(gamma*u'*v + coef0) 默认为高斯核...  3.3 支持向量回归机 SVM 本身是针对经典的二分类问题提出的, 支持向量回归机 ...N , d ? 0 ; 高斯核: k ( x, x ) ? exp(? ' 支持向量机的核心...  3.3 支持向量回归机 SVM 本身是针对经典的二分类问题提出的, 支持向量回归机 ...N , d ? 0 ; 高斯核: k ( x , x ) ? ex p ( ? ' x?x 2? ...  仿真结果证明了这种方法是有 一种基于高斯分布的 SVM 核选择方法 A Kernel Selection Approach based on the Gauss Distribution 郭金玲 王文剑 核选择是支撑向量机(...工具类服务
编辑部专用服务
作者专用服务
基于核方法的高斯过程及其在分类问题上的应用
自90年代起,有关“核机器”的研究开始在机器学习领域中蓬勃发展。比较典型的核机器包括SVM(SupportVectorMachine,支持向量机)、RVM(Relevance Vector Machine,相关向量机)、GP(GaussianProcess,高斯过程)模型等。这篇论文着重介绍高斯过程分类的原理,并针对不同类型的数据集来研究它的性能。高斯过程为核机器的学习提供了一种概率的、实用的方法。它把对于模型的预测值解释为概率分布,这是它独具特色的地方。
高斯过程是一个随机过程,它保证在每个时间点上的分布都服从高斯分布。高斯过程的理论是以贝叶斯定理为基础的。贝叶斯定理由参数的先验分布和观察值得到参数的后验分布,这一理论贯穿于高斯过程的全部。
在高斯过程回归中,只要我们假定参数的先验分布和似然都满足高斯分布,则参数的后验分布也满足高斯分布,这使得问题很容易地得到解决。而分类中,由于目标函数的值是离散而不是连续的,似然不能满足高斯分布。这就要求我们采用近似方法,如Laplacian近似法来得到后验分布。
高斯过程分类的另一个重点是参数的调节。一个高斯过程对应着一个协方差函数,也是核函数。怎样选择协方差函数是训练过程的关键。一个常见的做法是将协方差函数用参数的形式来表示,并在训练过程中调节参数。经典的做法包括最优化方法,如标量共轭梯度法;以及采样法,如混合蒙特卡罗方法。它们都能有效地得到比较理想的协方差函数。
贝叶斯原理在测试过程中得到体现。当关于训练集和测试集的函数都满足高斯分布时,根据贝叶斯原理,测试集的函数的后验分布也满足高斯分布。根据这个后验分布,我们就可以对测试集进行预测。
我们把高斯过程的原理应用到时间序列数据上,设计了一个股票预测系统。它针对股票市场的特点,给出了三种不同的学习方法:EagerLear-ner、LazyLgarner、SelectiveLearner。其中Selective Learner性能远好于其他两种,因为它能够针对训练集不同的性能来给出不同的学习方法。另外,我们还在生物和工业数据上观察了高斯过程分类器的性能。在上面三个数据集上,我们还将高斯过程分类器的性能与另外两个传统的分类器SVM、ANN进行了比较,得到了理想的结果,同时也得到了新的发现:这三个分类器在不同数据集上表现各有不同。
随着对高斯过程研究的深入,我们发现这个领域尚有很多问题没有解决。我们日后研究的方向之一是缺失数据的处理,它希望通过加入EM算法等处理缺失数据的算法,来研究高斯过程在缺失数据下面的性能。我们也希望通过假定这个缺失数据与观察到的数据有所关联,来提高分类的准确率。
学科专业:
授予学位:
学位授予单位:
导师姓名:
学位年度:
本文读者也读过
相关检索词
万方数据知识服务平台--国家科技支撑计划资助项目(编号:2006BAH03B01)(C)北京万方数据股份有限公司
万方数据电子出版社君,已阅读到文档的结尾了呢~~
高斯过程回归 高斯过程回归模型 高斯过程 高斯过程建模 回归分析中的p值 回归分析 回归分析法 多元回归分析
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
基于高斯过程的回归分析
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer--144.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口基于高斯过程回归方法的研究及应用_图文_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
基于高斯过程回归方法的研究及应用
上传于||暂无简介
阅读已结束,如果下载本文需要使用1下载券
想免费下载本文?
定制HR最喜欢的简历
下载文档到电脑,查找使用更方便
还剩1页未读,继续阅读
定制HR最喜欢的简历
你可能喜欢11高斯过程回归
我的图书馆
11高斯过程回归
  前言:
  高斯过程回归(GPR)和贝叶斯线性回归类似,区别在于高斯过程回归中用核函数代替了贝叶斯线性回归中的基函数(其实也是核函数,线性核)。采用核函数可以定义高斯过程回归是一个比贝叶斯线性回归更通用的模型,应用非常广泛。本文参考的资料为视频中相关的部分以及论文Gaussian Processes for Regression A Quick Introduction.
  基础知识:
  首先来看看Bayesian linear regression(贝叶斯线性回归)模型:
  其中的D为已知的有监督的训练样本。Yi为样本标签,由可知,yi可以表示为一个高斯过程和一个随机变量的和。公式中的w是一个多维高斯分布。
  而& 是一个高斯分布,并且它属于线性高斯分布。有上一篇博文可知,如果高斯过程为线性的,即它的sample是在高维空间中的平面,要求它的核函数需满足k(xi,xj)=xi’*xj的形式,且均值函数为0,下面是它的证明过程:
  既然已经得知yi的中心是在一个高维空间的平面上,所以当新来的数据后,就可以预测它的均值也在该平面对应的位置上,这就达到了回归的目的。
  在将BLR(贝叶斯线性回归)扩展到GPR(高斯过程回归)前,来看看多维高斯分布的一些重要性质,第一个性质为两个相互独立的多维高斯分布A和B的和也是一个多维高斯分布C,且C的均值和方差都为A和B均值方差的和。第二个性质为:两个多维高斯分布之和构成的分布C而言,在已知一部分观察值C1的条件下,另一部分观察值C2的概率分布是一个多维高斯分布,且可以用A和B中对应的信息来表示。这2个性质的介绍如下:
  接下来就是要怎样利用高斯过程进行回归运算了。高斯过程回归的模型如下:
  其中的ya为需要预测的值,yb为观察到的值,当然了,xa和xb也是观察值。由前面博文中介绍的高斯过程存在性定理可知,一旦我们确定了x上的u和k,就可以得到一个高斯过程Zx,此时的样本值Yi可以写成:& 即两个独立的多维高斯变量之和。而利用上面多维高斯变量的性质,可推导出需要预测的ya在yb条件下的概率:
  上面的m和D有解析表达式,因此可以直接求,里面的的变量都是已知的。其中的m就是我们回归预测的值,而D就是此时预测的误差,两者表达式和前面类似,如下:
  由贝叶斯线性回归和高斯过程回归的对比可知,贝叶斯线性回归是高斯过程回归中的一个子集,只是它用的是线性核而已,通过两者的公式就可以看出它们之间的关系:
  上面是贝叶斯线性回归,下面是高斯过程回归。
  简单例子:
  假设现在已经观察到了6个样本点,x为样本点特征(一维的),y为样本输出值。现在新来了一个样本点,要求是用高斯回归过程来预测新来样本点的输出值。这些样本点显示如下;
  其中前面6个点是已知输出值的训练样本,其值为:
  第7个点是需要预测的样本,红色的垂直条形线表示观察输出值的误差,绿色的垂直条形线为用高斯过程回归的误差。
  用GPR解该问题的流程大概如下(对应前面讲的一些基础知识):
  1. 选择适当的u(均值函数)和k(核函数),以及噪声变量σ,其中核函数的选择尤其重要,因为它体现了需处理问题的先验知识,应根据不同的应用而选择不同的核。
  2. 计算出训练样本的核矩阵(6*6),如下:
  3. 计算需预测的点 &与训练样本6个点的核值向量,如下:
  4. 自己和自己的核值为&&且此时整个样本的多维高斯分布表达式为:&
  5. 通过前面m和D的公式,求得m=0.95,D=0.21.
  6. 画出最终结果如下:
  这个例子来源于论文Gaussian Processes for Regression A Quick Introduction中,它的核函数等参数选择和基础知识部分的不同,但这里主要是对GPR的应用有个简单的宏观上的理解,让大脑对GPR应用有个初步的印象,否则有了那么多的公式推导但不会应用又有什么用呢?
  参考资料:
& & &Gaussian Processes for Regression A Quick Introduction, M.Ebden, August 2008.
& &&作者:tornadomeet 出处:/tornadomeet 欢迎转载或分享,但请务必声明文章出处。&
发表评论:
TA的最新馆藏[转]&[转]&[转]&}

我要回帖

更多关于 高斯过程回归c 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信