三个特征值计算怎么计算pyramid match kernel

人脸识别经典算法二:LBP方法
时间: 18:30:17
&&&& 阅读:191
&&&& 评论:
&&&& 收藏:0
标签:&&&&&&&&&与不同,LBP(Local Binary Patterns,局部二值模式)是提取局部特征作为判别依据的。LBP方法显著的优点是对光照不敏感,但是依然没有解决姿态和表情的问题。不过相比于特征脸方法,LBP的识别率已经有了很大的提升。在[1]的文章里,有些人脸库的识别率已经达到了98%+。
1、LBP特征提取
最初的LBP是定义在像素3x3邻域内的,以邻域中心像素为阈值,将相邻的8个像素的灰度值与其进行比较,若周围像素值大于中心像素值,则该像素点的位置被标记为1,否则为0。这样,3x3邻域内的8个点经比较可产生8位二进制数(通常转换为十进制数即LBP码,共256种),即得到该邻域中心像素点的LBP值,并用这个值来反映该区域的纹理信息。如下图所示:
用比较正式的公式来定义的话:
其中代表3x3邻域的中心元素,它的像素值为ic,ip代表邻域内其他像素的值。s(x)是符号函数,定义如下:
LBP的改进版本
(1)圆形LBP算子
基本的&LBP算子的最大缺陷在于它只覆盖了一个固定半径范围内的小区域,这显然不能满足不同尺寸和频率纹理的需要。为了适应不同尺度的纹理特征,并达到灰度和旋转不变性的要求,Ojala等对&LBP&算子进行了改进,将&3×3邻域扩展到任意邻域,并用圆形邻域代替了正方形邻域,改进后的&LBP&算子允许在半径为&R&的圆形邻域内有任意多个像素点。从而得到了诸如半径为R的圆形区域内含有P个采样点的LBP算子。比如下图定了一个5x5的邻域:
上图内有八个黑色的采样点,每个采样点的值可以通过下式计算:
其中为邻域中心点,为某个采样点。通过上式可以计算任意个采样点的坐标,但是计算得到的坐标未必完全是整数,所以可以通过双线性插值来得到该采样点的像素值:
(2)LBP等价模式
一个LBP算子可以产生不同的二进制模式,对于半径为R的圆形区域内含有P个采样点的LBP算子将会产生2^P种模式。很显然,随着邻域集内采样点数的增加,二进制模式的种类是急剧增加的。例如:5×5邻域内20个采样点,有220=1,048,576种二进制模式。如此多的二值模式无论对于纹理的提取还是对于纹理的识别、分类及信息的存取都是不利的。同时,过多的模式种类对于纹理的表达是不利的。例如,将LBP算子用于纹理分类或人脸识别时,常采用LBP模式的统计直方图来表达图像的信息,而较多的模式种类将使得数据量过大,且直方图过于稀疏。因此,需要对原始的LBP模式进行降维,使得数据量减少的情况下能最好的代表图像的信息。
&&&&&&&&为了解决二进制模式过多的问题,提高统计性,Ojala提出了采用一种“等价模式”(Uniform Pattern)来对LBP算子的模式种类进行降维。Ojala等认为,在实际图像中,绝大多数LBP模式最多只包含两次从1到0或从0到1的跳变。因此,Ojala将“等价模式”定义为:当某个LBP所对应的循环二进制数从0到1或从1到0最多有两次跳变时,该LBP所对应的二进制就称为一个等价模式类。如次跳变),(只含一次从0到1的跳变),(先由1跳到0,再由0跳到1,共两次跳变)都是等价模式类。除等价模式类以外的模式都归为另一类,称为混合模式类,例如(共四次跳变)。比如下图给出了几种等价模式的示意图。
&&&&&& 通过这样的改进,二进制模式的种类大大减少,而不会丢失任何信息。模式数量由原来的2P种减少为&P ( P-1)+2种,其中P表示邻域集内的采样点数。对于3×3邻域内8个采样点来说,二进制模式由原始的256种减少为58种,这使得特征向量的维数更少,并且可以减少高频噪声带来的影响。这几段摘自[2]。
通过上述方法,每个像素都会根据邻域信息得到一个LBP值,如果以图像的形式显示出来可以得到下图,明显LBP对光照有较强的鲁棒性。
2、LBP特征匹配
如果将以上得到的LBP值直接用于人脸识别,其实和不提取LBP特征没什么区别,会造成计算量准确率等一系列问题。文献[1]中,将一副人脸图像分为7x7的子区域(如下图),并在子区域内根据LBP值统计其直方图,以直方图作为其判别特征。这样做的好处是在一定范围内避免图像没完全对准的情况,同时也对LBP特征做了降维处理。
对于得到的直方图特征,有多种方法可以判别其相似性,假设已知人脸直方图为Mi?,待匹配人脸直方图为Si,那么可以通过:
(1)直方图交叉核方法
该方法的介绍在博文:
(2)卡方统计方法
该方法的介绍在博文:
参考文献:
[1]Timo Ahonen, Abdenour Hadid:Face Recognition with Local Binary Patterns
[2]目标检测的图像特征提取之(二)LBP特征标签:&&&&&&&&&原文:http://blog.csdn.net/smartempire/article/details/
教程昨日排行
&&国之画&&&& &&&&&&
&& &&&&&&&&&&&&&&
鲁ICP备号-4
打开技术之扣,分享程序人生!The pyramid match kernel Discriminative classification with sets of image features_文档库
文档库最新最全的文档下载
当前位置: & The pyramid match kernel Discriminative classification with sets of image features
The pyramid match kernel Discriminative classification with sets of image features
dencesbetweenfeaturesetsofunequalcardinality(i.e.,thepartialmatchingthatoptimallymapspointsinthelowercardinalitysettosomesubsetofthepointsinthelargerset,suchthatthesummedsimilaritiesbetweenmatchedpointsismaximal).Ourkernelisextremelyefficientandcanbecomputedintimethatislinearinthesets’cardinality.Weshowthatourkernelfunctionispositive-definite,meaningthatitisappropriatetousewithlearningmethodsthatguar-anteeconvergencetoauniqueoptimumonlyforpositive-definitekernels(e.g.,SVMs).
Becauseitdoesnotpenalizethepresenceofsuperflu-ousdatapoints,theproposedkernelisrobusttoclutter.Aswewillshow,thistranslatesintotheabilitytohandleun-segmentedimageswithvaryingbackgroundsorocclusions.Thekernelalsorespectstheco-occurrencerelationsinher-entintheinputsets:ratherthanmatchingfeaturesinasetindividually,ignoringpotentialdependenciesconveyedbyfeatureswithinoneset,oursimilaritymeasurecapturesthefeatures’jointstatistics.
Otherapproachestothisproblemhaverecentlybeenpro-posed[25,14,3,12,27,16,20],butunfortunatelyeachofthesetechniquessuffersfromsomenumberofthefollow-ingdrawbacks:computationalcomplexitiesthatmakelargefeatulimitationstoparametricdistri-butionswhichmaynotadequker-nelsthatarenotpositive-definite(donotguaranteeuniquesolutionsforanSVM);limitatiandfailuretoaccountfordependencieswithinfeaturesets.Ourmethodaddressesalloftheseissues,resultinginakernelappropriateforcomparingunordered,variable-lengthfeaturesetswithinanyexistingkernel-basedlearn-ingparadigm.Wedemonstrateouralgorithmwithobjectrecognitiontasksandshowthatitsaccuracyiscompara-bletocurrentapproaches,whilerequiringsignificantlylesscomputationtime.
2.RelatedWork
Inthissection,wereviewrelatedworkondiscriminativeclassificationwithsetsoffeatures,usingkernelsandSVMsforrecognition,andmulti-resolutionimagerepresentations.Objectrecognitionisachallengingproblemthatre-quiresstronggeneralizationabilityfromaclassifierinor-dertocopewiththebroadvarietyinillumination,view-point,occlusions,clutter,intra-classappearances,andde-formationsthatimagesofthesameobjectorobjectclasswillexhibit.Whileresearchershaveshownpromisingre-sultsapplyingSVMstoobjectrecognition,theyhavegen-erallyusedglobalimagefeatures–orderedfeaturesofequallengthmeasuredfromtheimageasawhole,suchascolororgrayscalehistogramsorvectorsofrawpixeldata[5,18,17].Suchglobalrepresentationsareknowntobesensitivetoreal-worldimagingconditions,suchasocclusions,pose
MethodComplexityCPMUMatch[25]O(dm2)xxExponent[14]O(dm2)xxxGreedy[3]O(dm2)xxxPrinc.ang.[27]O(dm3)xxBhattach.’s[12]O(dm3)xxxKL-div.[16]O(dm2)xxPyramidO(dmlogD)
Table1:Comparingkernelapproachestomatchingunordered
sets.Columnsshoweachmethod’scomputationalcostandwhetheritskernelcapturesco-occurrences(C),ispositive-definite(P),doesnotassumeaparametricmodel(M),andcanhandlesetsofunequalcardinality(U).disvectordimension,mismaximumsetcardinality,andDisdiameterofvectorspace.“Pyramid”referstotheproposedkernel.
changes,orimagenoise.
Recentworkhasshownthatlocalfeaturesinvarianttocommonimagetransformations(e.g.,SIFT[13])areapow-erfulrepresentationforrecognition,becausethefeaturescanbereliablydetectedandmatchedacrossinstancesofthesameobjectorsceneunderdifferentviewpoints,poses,orlightingconditions.Mostapproaches,however,performrecognitionwithlocalfeaturerepresentationsusingnearest-neighbor(e.g.,[1,8,22,2])orvoting-basedclassifiersfol-lowedbyanalignmentstep(e.g.,[13,15]);bothmaybeimpracticalforlargetrainingsets,sincetheirclassificationtimesincreasewiththenumberoftrainingexamples.AnSVM,ontheotherhand,identifiesasparsesubsetofthetrainingexamples(thesupportvectors)todelineateadeci-sionboundary.
Kernel-basedlearningalgorithms,whichincludeSVMs,kernelPCA,orGaussianProcesses,havebecomewell-establishedtoolsthatareusefulinavarietyofcontexts,includingdiscriminativeclassification,regression,densityestimation,andclustering[21].Morerecently,attentionhasbeenfocusedondevelopingspecializedkernelsthatcanmorefullyleveragethesetoolsforsituationswherethedatacannotbenaturallyrepresentedbyaEuclideanvectorspace,suchasgraphs,strings,ortrees.
Severalresearchershavedesignedsimilaritymeasuresthatoperateonsetsofunorderedfeatures.SeeTable1foraconcisecomparisonoftheapproaches.Theauthorsof[25]proposeakernelthataveragesoverthesimilaritiesofthebestmatchingfeaturefoundforeachfeaturememberwithintheotherset.Theuseofthe“max”operatorinthiskernelmakesitnon-Mercer(i.e.,notpositive-definite–seeSection3),andthusitlacksconvergenceguaranteeswhenusedinanSVM.Asimilarkernelisgivenin[14],whichalsoconsidersallpossiblefeaturematchingsbutraisesthesimilaritybetweeneachpairoffeaturestoagivenpower.Both[25]and[14]haveacomputationalcomplexitythatisquadraticinthenumberoffeatures.Furthermore,both
Word文档免费下载:
Spatial Pyramid Matching Spatial Pyramid Matching ? K. Grauman and T. Darrell. Pyramid match kernels: Discriminative classification with sets of image ...The Pyramid Match Kernel: Discriminative Classification with Sets of Image Features Kristen Grauman Trevor Darrell MIT Sets of features Sets of features ...她和 Darrell 在 2005 年 CVPR 合作发表了” The Pyramid Match Kernel: Discriminative Classification with Sets of Image Features”。金字塔匹配核函数 可快速...她和 Darrell 在 2005 年 CVPR 合作发表了”The Pyramid Match Kernel: Discriminative Classification with Sets of Image Features”。金字塔匹配核函数可快速搜索两...直方图匹配 (Pyramid Matching) 方法最初来自 The Pyramid Match Kernel:Discriminative Classification with Sets of Image Features 这篇论文,用来对特征构 成的...15.The Pyramid Match Kernel: Discriminative Classification with Sets of Image Features. Kristen. Grauman and T. Darrell. In Proceedings of the IEEE ...The Pyramid Match Kernel:Discriminative Classification with Sets of Image Features. K. Grauman and T. Darrell. International Conference on Computer Vision (...Darrell. The Pyramid Match Kernel: Discriminative Classification with Sets of Image Features, ICCV 2005 S. Lazebnik, C. Schmid, and J. Ponce. Beyond ... The Pyramid Match Kernel 金字塔匹配核函数:图像特征集的分类_计算机软件及应用_IT/计算机_专业资料。金字塔匹配核函数:图像特征集的分类...The pyramid match kernel : discriminative classification with sets of image features [C]. IEEE International Conference on Computer Vision. Beijing : IEEE ...OALib Journal期刊
费用:600人民币/ 99美元
查看量下载量
Scene categorization of local Gist feature match kernel局部Gist特征匹配核的场景分类
,,,,杨昭,,,
Keywords: ,,,scene classification局部Gist特征,,,
针对场景分类任务中全局Gist特征粒度较为粗糙的问题,提出一种基于稠密网格的局部Gist特征描述,利用空间金字塔结构加入空间信息,通过引入RGB颜色空间加入颜色信息,并基于词汇包(BOW)模型设计一种高效匹配核来度量局部特征间的相似性,核化特征匹配过程,使用线性SVM完成场景分类。实验考察了不同尺度、方向、粒度和不同匹配核的局部Gist特征以及训练样本集的大小对分类结果的影响,并通过在OT场景图像集上与全局Gist特征和稠密SIFT特征的场景分类结果进行比较,充分说明了本文特征构造方法和分类模型的有效性。
Please enable JavaScript to view the
&&&OALib Suggest
Live SupportAsk us anything1535人阅读
个人编程开发测试学习技术生活日志(26)
&翻译原文:
& & & & 基于内核的学习方法建立在将数据“嵌入”欧几里得空间,然后在嵌入的数据之间继续寻找线性关系的基础上。就SVM来说,它在嵌入的空间(也叫做特征空间)中找到了两个类之间的最佳的分割超面。形如&X × X&→ R&的内核函数K将成对的点映射到它们在嵌入的空间F中的内积(~内积是点乘吧~),从而能够评价所有点之间的相似性并确它们的相对位置(~??~内积越小越接近?~)。这样在嵌入的空间中就能寻找线性关系,但是在输入空间中判定边界可能仍然是非线性的,这取决于所选择的特征映射函数Φ:X&→
F(~???~)。
& & & &本文提出了一种基于隐式对应关系的内核函数,解决了无序、可变长度的矢量集合的判别分类的问题。这个内核可以证明是正定的,并且还有诸多优势。
& & & &这个内核的基本思想是将特征集映射到多分辨率的超面中去,然后对这些超面进行比较。比较时采用一种加权的超面交集的比较方法,从而粗略的估计出特征集之间最好的局部匹配的相似度(~???~)。之所以叫这个内核“金字塔匹配内核”,是因为所有的输入集合都要被转换为多分辨率的超面。
& & & & 输入空间是X,它由d维的特征向量组成集合组成,这些向量是以一个直径为D的球面为边界的,而且球面内的向量之间保持至少的距离(单位呢?)。
& & & & 用公式表示是:&
& & & & 其中,的大小因不同的面元素而变化。
& & & & 集合X的特征抽取函数(~???~)是这样定义的:
& & & &&(~???~)
& & & & 其中,,,是由x用“d维的边长为的bin(~???~不懂)”计算出的一个超面矢量,的维度是。也就是说,是一个串接的(~???~)的超面组成的矢量,而每一个串接的超面元素都对应着一些bin,这些bin的长度都是上一个bin的两倍(位数都是d维不变)。在finest级别的超面对应的bin的长度最短的,使得(~???~)空间X中每一个集合中的d维的点都落入这个点自身的
bin中(~???~)。而对于其他更高层的超面,bin的长度迅速增长,直到L层的超面,空间X中所有的点都落入同一单个的bin中(~??bin是对应点??面??~)。
& & & &Pyramid Match Kernel&正是基于在这种多分辨率的超面空间中的隐式的对应关系,来计算空间中点集之间的相似度的。两个点集之间的相似是这样定义的:通过在金字塔的各层找出特征匹配的数量,并对它们进行加权求和,从而计算出,对应的公式如下:
& & & &其中,表示在i层新的配对的数量(~???~配对),所谓的配对是指一对特征在任何更fine的分辨率层次上都不是对应的(特征是指点?更fine是指H的层更低?对应是指落入同一个bin?)。
& & & 本文的内核函数通过以下途径隐式地寻找点集之间的对应关系,即如果两个点落入了同一个超面的bin中(从最fine的分辨率层次,也就是每一个点都落入它自己的bin中的层次开始计算),则两个点就是匹配的。注意这里的匹配是第一次的匹配,即在这个有等级的层次处理过程中,在某一个较高的分辨率上匹配的点不会在更低的分辨率上匹配。例如,图2中,有两个点在最fine的层上匹配了,在中层上又有两个新的匹配产生,最坏层有一个匹配。的输出值反映了匹配的整体相似度,每一层上产生的新的匹配pair都对最终整体的匹配有贡献,在i层上的匹配对整体的相似度贡献了,并且与bin的长度成比例。注意,公式3的下标是从0开始的,因为对于的定义使得在i=-1层上不存在点的相互匹配(~???~)。
& & & &为了计算,内核函数使用了超面的交集函数,以计算两个超面的bin之间的重叠程度:
& & & &其中,A和B是超面,对应着个bin,而是指A的第j个bin的计数值(~???~)。
& & & &图2:Pyramid Match确定了一种部分对应关系即两个点落入同一个超面的bin中的时候。在上图的例子中,两个一维的特征集用以组成两个超面金字塔层次关系(~???~)。每一行对应了金字塔的一层,在这里没有画出,是因为在最fine的层上没有点形成配对。在(a)中,y集表示在左边,z集表示在右边,(各个点沿着纵轴分布,而且同一个点在不同的超面层次上重复绘制表示)。浅颜色的点划线表示是bin的边界,加粗的短划线表明了两个点在该层上形成配对,加粗的实线表示两个点在较低的层次上已经形成了匹配;在(b)中,展示了多分辨率的超面层次,其中,超面的bin沿着纵轴方向增长。在(c)中,展示了(b)中的超面的交集金字塔层次。用这个交集来计算在每一层都有多少新的配对产生。表示。这里,对应三个层次,的值分别是2、4、5,从而,在每一层上新产生的匹配数是2、2、1。对按照权重进行加权求和得出Pyramid
Match相似度。(~???~点在超面上的bin如何计算得出,落入同一bin中的点多于两个怎么计算~???~)
& & & &超面的交集高效的计算了两个集合中在给定的量化层次上形成匹配的点的数量,即落入同一个bin点的对数。为了计算i层上新匹配的对数,只需要计算出连续的超面层次上的&交集数量&之间的差值,即:
& & & &&&&(5)
& & & &其中,是指公式(2)的函数中的第i个超面元素。内核函数从来没有显式地搜寻某两个相似的点,它从来没有计算两个集合的矢量之间的距离。而是简单地在每一个超面层次计算交集值的变化量,来统计每一层上发生的匹配数量。
& & & &在金字塔的每一层上产生的新的匹配数是要经过对应超面的bin的长度进行加权的,在对应更长的bin上产生的匹配的权重会比更短的bin对应的匹配的权重更小。由于d维的边长是立方体的最长对角线长度是,从而在一个bin中任意两点之间的最大距离,随着金字塔中的超面变coarser,即所在层数的增大,会翻倍的增长。因此在第i层,新产生的匹配数量会乘以来反映该层上匹配的点之间的相似度(最差情况)。直觉上地,这意味着更fine层上(特征区别更大)的矢量之间(例子中用y和z表示)的相似度比更coarse的层上的相似度更受到重视。
& & & &根据公式3、4、5.我们定义以下pyramid match kernel函数(非正规化):
& & & &其中,,而是的第i个超面。我们使用每一个输入自身的相似度产生的结果值进行函数的正规化,从而避免支持更大的输入集合(~???~),从而得到了最终的内核函数值:
& & & &&,其中,&。
& & & & 为了减少离散的超面bin带来的量化效应,我们可以针对不同的多分辨率超面进行比较计算,这些超面的bin值是随意转移的,将从不同超面得到的多个(T个)Pyramid Match Kernel值进行组合得到最终比较结果。这T个pyramids的每一个维数都一致地转移了一个在0到D之间任意选择的值。这就产生了T个特征配对:。应用公式2,这T个特征配对将输入集y中的元素映射到了T个多分辨率的超面中:。对于输入y和z,结合之后产生的内核值是。
&&相关文章推荐
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:45482次
排名:千里之外
原创:44篇
转载:47篇
(2)(8)(8)(8)(4)(1)(1)(2)(2)(29)(1)(1)(2)(12)(3)(12)}

我要回帖

更多关于 云计算的特征 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信