如何将几个特征向量进行融合 最大地保留其自信息量量

4195人阅读
图像处理(2)
sift特征可以用于人脸识别,图像检索 图像匹配 图像拼接,sift特征具有旋转不变形,尺度不变形,光照不变形等,此算法已广泛应用于人脸识别 图像检索 图像匹配 图像拼接的研究。
1 SIFT&发展历程
&&SIFT算法由D.G.Lowe&1999年提出,2004年完善总结。后来Y.Ke将其描述子部分用PCA代替直方图的方式,对其进行改进。
2 SIFT&主要思想
&&SIFT算法是一种提取局部特征的算法,在尺度空间寻找极值点,提取位置,尺度,旋转不变量。
3&&SIFT算法的主要特点:
&a)&SIFT特征是图像的局部特征,其对旋转、尺度缩放、亮度变化保持不变性,对视角变化、仿射变换、噪声也保持一定程度的稳定性。
b)&独特性(Distinctiveness)好,信息量丰富,适用于在海量特征数据库中进行快速、准确的匹配.
c)&多量性,即使少数的几个物体也可以产生大量SIFT特征向量。
d)&高速性,经优化的SIFT匹配算法甚至可以达到实时的要求。
e)&可扩展性,可以很方便的与其他形式的特征向量进行联合。
一幅图像SIFT特征向量的生成算法总共包括4步:
&&& (1)尺度空间极值检测,以初步确定关键点位置和所在尺度。
&&&&&&&& 在检测尺度空间极值时,图中标记为叉号的像素需要跟包括同一尺度的周围邻域8个像素和相邻尺度对应位置的周围邻域9×2个像素总共26个像素进行比较,以确保在尺度空间和二维图像空间都检测到局部极值。
&& (2)通过拟和三维二次函数以精确确定关键点的位置和尺度,同时去除低对比度的关键点和不稳定的边缘响应点(因为DoG算子会产生较强的边缘响应),以增强匹配稳定性、提高抗噪声能力.
&&& (3)利用关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,使算子具备旋转不变性。&
&&& (4)生成SIFT特征向量。
图像特征特点及其常用的特征提取与匹配方法
常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。
一&颜色特征
(一)特点:颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。另外,仅使用颜色特征查询时,如果数据库很大,常会将许多不需要的图像也检索出来。颜色直方图是最常用的表达颜色特征的方法,其优点是不受图像旋转和平移变化的影响,进一步借助归一化还可不受图像尺度变化的影响,基缺点是没有表达出颜色空间分布的信息。
(二)常用的特征提取与匹配方法
(1)&&&&&&&&颜色直方图
其优点在于:它能简单描述一幅图像中颜色的全局分布,即不同色彩在整幅图像中所占的比例,特别适用于描述那些难以自动分割的图像和不需要考虑物体空间位置的图像。其缺点在于:它无法描述图像中颜色的局部分布及每种色彩所处的空间位置,即无法描述图像中的某一具体的对象或物体。
最常用的颜色空间:RGB颜色空间、HSV颜色空间。
颜色直方图特征匹配方法:直方图相交法、距离法、中心距法、参考颜色表法、累加颜色直方图法。
(2)&&&&&&&颜色集
颜色直方图法是一种全局颜色特征提取与匹配方法,无法区分局部颜色信息。颜色集是对颜色直方图的一种近似首先将图像从&RGB颜色空间转化成视觉均衡的颜色空间(如&HSV&空间),并将颜色空间量化成若干个柄。然后,用色彩自动分割技术将图像分为若干区域,每个区域用量化颜色空间的某个颜色分量来索引,从而将图像表达为一个二进制的颜色索引集。在图像匹配中,比较不同图像颜色集之间的距离和色彩区域的空间关系
(3)&&&&&&&颜色矩
这种方法的数学基础在于:图像中任何的颜色分布均可以用它的矩来表示。此外,由于颜色分布信息主要集中在低阶矩中,因此,仅采用颜色的一阶矩(mean)、二阶矩(variance)和三阶矩(skewness)就足以表达图像的颜色分布。
(4)&&&&&&&颜色聚合向量
其核心思想是:将属于直方图每一个柄的像素分成两部分,如果该柄内的某些像素所占据的连续区域的面积大于给定的阈值,则该区域内的像素作为聚合像素,否则作为非聚合像素。
(5)&&&&&&&颜色相关图
二&纹理特征
(一)特点:纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。但由于纹理只是一种物体表面的特性,并不能完全反映出物体的本质属性,所以仅仅利用纹理特征是无法获得高层次图像内容的。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行统计计算。在模式匹配中,这种区域性的特征具有较大的优越性,不会由于局部的偏差而无法匹配成功。作为一种统计特征,纹理特征常具有旋转不变性,并且对于噪声有较强的抵抗能力。但是,纹理特征也有其缺点,一个很明显的缺点是当图像的分辨率变化的时候,所计算出来的纹理可能会有较大偏差。另外,由于有可能受到光照、反射情况的影响,从2-D图像中反映出来的纹理不一定是3-D物体表面真实的纹理。
例如,水中的倒影,光滑的金属面互相反射造成的影响等都会导致纹理的变化。由于这些不是物体本身的特性,因而将纹理信息应用于检索时,有时这些虚假的纹理会对检索造成“误导”。
在检索具有粗细、疏密等方面较大差别的纹理图像时,利用纹理特征是一种有效的方法。但当纹理之间的粗细、疏密等易于分辨的信息之间相差不大的时候,通常的纹理特征很难准确地反映出人的视觉感觉不同的纹理之间的差别。
(二)常用的特征提取与匹配方法
纹理特征描述方法分类
(1)统计方法统计方法的典型代表是一种称为灰度共生矩阵的纹理特征分析方法Gotlieb&和&Kreyszig&等人在研究共生矩阵中各种统计特征基础上,通过实验,得出灰度共生矩阵的四个关键特征:能量、惯量、熵和相关性。统计方法中另一种典型方法,则是从图像的自相关函数(即图像的能量谱函数)提取纹理特征,即通过对图像的能量谱函数的计算,提取纹理的粗细度及方向性等特征参数
(2)几何法
所谓几何法,是建立在纹理基元(基本的纹理元素)理论基础上的一种纹理特征分析方法。纹理基元理论认为,复杂的纹理可以由若干简单的纹理基元以一定的有规律的形式重复排列构成。在几何法中,比较有影响的算法有两种:Voronio&棋盘格特征法和结构法。
(3)模型法
模型法以图像的构造模型为基础,采用模型的参数作为纹理特征。典型的方法是随机场模型法,如马尔可夫(Markov)随机场(MRF)模型法和&Gibbs&随机场模型法
(4)信号处理法
纹理特征的提取与匹配主要有:灰度共生矩阵、Tamura&纹理特征、自回归纹理模型、小波变换等。
灰度共生矩阵特征提取与匹配主要依赖于能量、惯量、熵和相关性四个参数。Tamura&纹理特征基于人类对纹理的视觉感知心理学研究,提出6种属性,即:粗糙度、对比度、方向度、线像度、规整度和粗略度。自回归纹理模型(simultaneous auto-regressive, SAR)是马尔可夫随机场(MRF)模型的一种应用实例。
三&形状特征
&&(一)特点:各种基于形状特征的检索方法都可以比较有效地利用图像中感兴趣的目标来进行检索,但它们也有一些共同的问题,包括:①目前基于形状的检索方法还缺乏比较完善的数学模型;②如果目标有变形时检索结果往往不太可靠;③许多形状特征仅描述了目标局部的性质,要全面描述目标常对计算时间和存储量有较高的要求;④许多形状特征所反映的目标形状信息与人的直观感觉不完全一致,或者说,特征空间的相似性与人视觉系统感受到的相似性有差别。另外,从&2-D&图像中表现的&3-D&物体实际上只是物体在空间某一平面的投影,从&2-D&图像中反映出来的形状常不是&3-D&物体真实的形状,由于视点的变化,可能会产生各种失真。
(二)常用的特征提取与匹配方法
Ⅰ几种典型的形状特征描述方法
通常情况下,形状特征有两类表示方法,一类是轮廓特征,另一类是区域特征。图像的轮廓特征主要针对物体的外边界,而图像的区域特征则关系到整个形状区域。
几种典型的形状特征描述方法:
(1)边界特征法该方法通过对边界特征的描述来获取图像的形状参数。其中Hough&变换检测平行直线方法和边界方向直方图方法是经典方法。Hough&变换是利用图像全局特性而将边缘像素连接起来组成区域封闭边界的一种方法,其基本思想是点—线的对偶性;边界方向直方图法首先微分图像求得图像边缘,然后,做出关于边缘大小和方向的直方图,通常的方法是构造图像灰度梯度方向矩阵。
(2)傅里叶形状描述符法
傅里叶形状描述符(Fourier shape descriptors)基本思想是用物体边界的傅里叶变换作为形状描述,利用区域边界的封闭性和周期性,将二维问题转化为一维问题。
由边界点导出三种形状表达,分别是曲率函数、质心距离、复坐标函数。
(3)几何参数法
形状的表达和匹配采用更为简单的区域特征描述方法,例如采用有关形状定量测度(如矩、面积、周长等)的形状参数法(shape factor)。在&QBIC&系统中,便是利用圆度、偏心率、主轴方向和代数不变矩等几何参数,进行基于形状特征的图像检索。
需要说明的是,形状参数的提取,必须以图像处理及图像分割为前提,参数的准确性必然受到分割效果的影响,对分割效果很差的图像,形状参数甚至无法提取。
(4)形状不变矩法
利用目标所占区域的矩作为形状描述参数。
(5)其它方法
近年来,在形状的表示和匹配方面的工作还包括有限元法(Finite Element Method&或&FEM)、旋转函数(Turning Function)和小波描述符(Wavelet Descriptor)等方法。
Ⅱ&基于小波和相对矩的形状特征提取与匹配
&&&该方法先用小波变换模极大值得到多尺度边缘图像,然后计算每一尺度的&7个不变矩,再转化为&10&个相对矩,将所有尺度上的相对矩作为图像特征向量,从而统一了区域和封闭、不封闭结构。
四&空间关系特征
&&(一)特点:所谓空间关系,是指图像中分割出来的多个目标之间的相互的空间位置或相对方向关系,这些关系也可分为连接/邻接关系、交叠/重叠关系和包含/包容关系等。通常空间位置信息可以分为两类:相对空间位置信息和绝对空间位置信息。前一种关系强调的是目标之间的相对情况,如上下左右关系等,后一种关系强调的是目标之间的距离大小以及方位。显而易见,由绝对空间位置可推出相对空间位置,但表达相对空间位置信息常比较简单。
空间关系特征的使用可加强对图像内容的描述区分能力,但空间关系特征常对图像或目标的旋转、反转、尺度变化等比较敏感。另外,实际应用中,仅仅利用空间信息往往是不够的,不能有效准确地表达场景信息。为了检索,除使用空间关系特征外,还需要其它特征来配合。
(二)常用的特征提取与匹配方法
提取图像空间关系特征可以有两种方法:一种方法是首先对图像进行自动分割,划分出图像中所包含的对象或颜色区域,然后根据这些区域提取图像特征,并建立索引;另一种方法则简单地将图像均匀地划分为若干规则子块,然后对每个图像子块提取特征,并建立索引。
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:100903次
排名:千里之外
评论:29条
(2)(1)(7)(3)(1)PCA, Principle Component Analysis, 主成份分析, 是使用最广泛的降维算法.
(关于PCA的算法步骤和应用场景随便一搜就能找到了, 所以这里就不说了. )
假如你要处理一个数据集, 数据集中的每条记录都是一个\(d\)维列向量. 但是这个\(d\)太大了, 所以你希望把数据维度给降下来, 既可以去除一些冗余信息, 又可以降低处理数据时消耗的计算资源(用computation budget 来描述可能更形象).
用稍微正式点的语言描述:
已知:一个数据集\(D\), 记录(或者样本, 或input pattern)\(x_i \in D\) 是\(d\)维列向量.
目标:将每个\(x \in D\) 映射到另一个\(p\)维空间, \(p & d\)(虽然等于也是可以的, 但没什么意义). 得到一个新的数据集\(Z\), 对\(Z\)的要求是尽量保存\(D\)中的有效信息.
那么, 问题就来了. 如何将一个\(d\)维向量映射成一个\(p\)维向量? 答案是基变换. 然而基变换方式不是唯一的, 如何确保变换是最优的? 这就由优化目标&尽量保存原数据集中的信息& 决定了: 最好的基变换能保存最多的信息. 注意了, 这里的比较都是在同一个\(p\)下进行的, 也就是说, 参与竞争的基集(basis set)们, 都把\(d\)维\(D\)映射到了一个新的\(p\)维\(Z\).
那么, (不好意思, 又一个那么. 这不是第一个, 当然也不是最后一个. 是的, 我喜欢用这个词.), 现在面临的问题是, 如何衡量信息的多少? 我并不懂信息科学, 只知道一点, 信息在差异中存在. 如果全是相同的东西, 量再多,它的信息量也没有多少. PCA算法采用方差(variance)来度量信息量.
那么, 如何用variance来度量数据集\(D\)包含的信息量呢? 一个基(basis)一个基地衡量. 数据集在某个基上的投影值(也是在这个基上的坐标值)越分散, 方差越大, 这个基保留的信息也就越多. 不严格的来一句, 一个基集保留下的信息量是每个基保留下的信息量的和.
基于上面的理念, 或者说假设, 我们已经有一种可以有效地找出最优基集的方法了: 贪心算法---先找出保留信息量最大的基向量, 然后是第二大的, 然后然后, 直到找满\(p\)个基向量.
接下来, 将上面的分析用数学语言描述出来.
\(v\)为一个用于变换的基. \(D\)中的某一条记录\(x\)在\(v\)上的投影长度(即坐标值)为: \[proj(x, v) = \frac {v^Tx}{||v||}\]
假如\(v\)为单位向量, 则:\[proj(x, v) = v^Tx\]
所以, 为了方便计算, 我们对\(v\)有了一个约束条件: \(v\)为单位向量. 这个太好说了, normalize 一下就行了.
于是, 整个\(D\)在\(v\)上的投影长度可以打包表示为:\(Xv\), 其中, \(X\)是一个\(m \times d\)的矩阵, 每一行是一条记录, \(m\)是\(D\)中的记录总数目.
现在, 我们来计算\(D\)在\(v\)上的信息量, 即所有数据在\(v\)上的投影长度的方差:
info(D, v) = \sigma^2(D, v) = \frac 1m \sum_{i=1}^m (v^Tx_i)^2 = \frac 1m (Xv)^T Xv = \frac 1m v^T X^T X v
好了, 又一个trick要出场了. 仔细看\(X^T X\)这个东西. 如果在数据预处理时, 我们先将\(X\)每一列的均值变为0: 先算出每一列的均值, 得到均值向量\(\mu\), 然后从每一条记录\(x_i\)中减去\(\mu\): \(x_i \gets x_i - \mu\). 最后用这些预处理后的\(x_i\)组成\(X\). 这个时候, \(\frac 1m X^T X\)摇身一变, 成为了原数据集\(D\)的协方差矩阵, 用\(C\)表示. 所以
info(D, v) = \sigma^2(D, v)
这就是我们需要最大化的目标函数. 不过, 再回想一下, 我们之前为了方便计算还加了一个条件进来: \(v\)是一个单位向量, 即\(v^Tv = 1\). 把这个条件也加到目标函数里去:
f(v) = v^T C v - \lambda (v^T v - 1)
所以, 这才是我们最终需要优化的目标函数.
now, 求使\(f(v)\)最大的\(v\). \(f(v)\)取得条件极值的必要条件为:
(这个矢量函数求偏导的过程类似于神经网络BP算法求偏导过程, 以后在另一篇文章单独推导.)
\frac {\partial f}{\partial v} = 2Cv - 2\lambda v = 0
Cv = \lambda v
所以, \(v\)为\(C\)的特征向量. 它保存的信息量为:
info(D, v) = v^TCv = v^T \lambda v = \lambda v^Tv = \lambda
于是, 奇迹就这么出现了: 信息量保存能力最大的基向量一定是\(D\)的协方差矩阵的特征向量, 并且这个特征向量保存的信息量就是它对应的特征值.
接下来的戏码你们应该都知道了: 用单位正交阵将\(C\)对角化(\(C\)是对称矩阵, 天生如此);特征值降序排列, 以排名前\(p\)个特征值对应的特征向量作为新的基集. (这个做法看起来很自然, 但若细细思量, 会发现这一步是PCA算法里水最深的一步, 至少我现在还没真正理解为何要这么做, 听qw学长说要用什么Rayleigh商).
剩下的问题, 比如降维后损失了多少信息, 也很明白了, 就不多讲了.
阅读(...) 评论()图像融合_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
上传于||暂无简介
大小:352.00KB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢如何理解矩阵特征值?
【李浩的回答(334票)】:
补充:答主现在用到的多数是对称或酉矩阵的情况,有思维定势了,写了半天才发现主要讲的是对称矩阵,这答案就当科普用了。特征值在很多领域应该都有自己的用途,它的物理意义到了本科高年级或者研究生阶段涉及到具体问题的时候就容易理解了,刚学的话,确实抽象。
——————————————————以下为正文——————————————————
从线性空间的角度看,在一个定义了内积的线性空间里,对一个N阶对称方阵进行特征分解,就是产生了该空间的N个标准正交基,然后把矩阵投影到这N个基上。N个特征向量就是N个标准正交基,而特征值的模则代表矩阵在每个基上的投影长度。
特征值越大,说明矩阵在对应的特征向量上的方差越大,功率越大,信息量越多。
应用到最优化中,意思就是对于R的二次型,自变量在这个方向上变化的时候,对函数值的影响最大,也就是该方向上的方向导数最大。
应用到数据挖掘中,意思就是最大特征值对应的特征向量方向上包含最多的信息量,如果某几个特征值很小,说明这几个方向信息量很小,可以用来降维,也就是删除小特征值对应方向的数据,只保留大特征值方向对应的数据,这样做以后数据量减小,但有用信息量变化不大。
——————————————————举两个栗子——————————————————
应用1 二次型最优化问题
,其中R是已知的二阶矩阵,R=[1,0.5;0.5,1],x是二维列向量,x=[x1;x2],求y的最小值。
求解很简单,讲一下这个问题与特征值的关系。
对R特征分解,特征向量是[-0.1]和[0.1],对应的特征值分别是0.5和1.5。
然后把y的等高线图画一下
从图中看,函数值变化最快的方向,也就是曲面最陡峭的方向,归一化以后是[0.1],嗯哼,这恰好是矩阵R的一个特征值,而且它对应的特征向量是最大的。因为这个问题是二阶的,只有两个特征向量,所以另一个特征向量方向就是曲面最平滑的方向。这一点在分析最优化算法收敛性能的时候需要用到。从图中看,函数值变化最快的方向,也就是曲面最陡峭的方向,归一化以后是[0.1],嗯哼,这恰好是矩阵R的一个特征值,而且它对应的特征向量是最大的。因为这个问题是二阶的,只有两个特征向量,所以另一个特征向量方向就是曲面最平滑的方向。这一点在分析最优化算法收敛性能的时候需要用到。
二阶问题比较直观,当R阶数升高时,也是一样的道理。
应用2 数据降维
兴趣不大的可以跳过问题,直接看后面降维方法。
机器学习中的分类问题,给出178个葡萄酒样本,每个样本含有13个参数,比如酒精度、酸度、镁含量等,这些样本属于3个不同种类的葡萄酒。任务是提取3种葡萄酒的特征,以便下一次给出一个新的葡萄酒样本的时候,能根据已有数据判断出新样本是哪一种葡萄酒。
问题详细描述:
训练样本数据:
原数据有13维,但这之中含有冗余,减少数据量最直接的方法就是降维。
做法:把数据集赋给一个178行13列的矩阵R,它的协方差矩阵
,C是13行13列的矩阵,对C进行特征分解,对角化
,其中U是特征向量组成的矩阵,D是特征之组成的对角矩阵,并按由大到小排列。然后,另
,就实现了数据集在特征向量这组正交基上的投影。嗯,重点来了,R’中的数据列是按照对应特征值的大小排列的,后面的列对应小特征值,去掉以后对整个数据集的影响比较小。比如,现在我们直接去掉后面的7列,只保留前6列,就完成了降维。这个降维方法叫PCA(Principal Component Analysis)。
下面看结果:
这是不降维时候的分类错误率。这是不降维时候的分类错误率。
这是降维以后的分类错误率。
结论:降维以后分类错误率与不降维的方法相差无几,但需要处理的数据量减小了一半(不降维需要处理13维,降维后只需要处理6维)。
【郑梓豪的回答(51票)】:
我举一个直观一点的例子吧...我也喜欢的直观之美。
我们知道,一张图像的像素(如:320 x 320)到了计算机里面事实上就是320x320的矩阵,每一个元素都代表这个像素点的颜色..
如果我们把基于特征值的应用,如PCA、向量奇异值分解SVD这种东西放到图像处理上,大概就可以提供一个看得到的、直观的感受。关于SVD的文章可以参考LeftNotEasy的文章:
简单的说,SVD的效果就是..用一个规模更小的矩阵去近似原矩阵...
这里A就是代表图像的原矩阵..其中的
尤其值得关注,它是由A的特征值从大到小放到对角线上的..也就是说,我们可以选择其中的某些具有“代表性”的特征值去近似原矩阵!
左边的是原始图片
当我把特征值的数量减少几个的时候...后面的图像变“模糊”了..当我把特征值的数量减少几个的时候...后面的图像变“模糊”了..
同样地...同样地...
关键的地方来了!如果我们只看到这里的模糊..而没有看到计算机(或者说数学)对于人脸的描述,那就太可惜了...我们看到,不论如何模糊,脸部的关键部位(我们人类认为的关键部位)——五官并没有变化太多...这能否说:数学揭示了世界的奥秘?
【未知的回答(7票)】:
特征值不仅仅是数学上的一个定义或是工具,特征值是有具体含义的,是完全看得见摸得着的。
1. 比如说一个三维矩阵,理解成线性变换,作用在一个球体上:
三个特征值决定了 对球体在三个维度上的拉伸/压缩,把球体塑造成一个橄榄球;
剩下的部分决定了这个橄榄球在三维空间里面怎么旋转。
2. 对于一个微分方程:
将系数提取出来
因此y的变化率与特征值息息相关:
再将y由Q变换回x,我们就能得出x在不同时间的值。x的增长速度就是特征值λ,Q用来把x旋转成y。
【江磊的回答(13票)】:
站在线性变换的角度来看矩阵的话。
矩阵(线性变换)作用在一个向量上无非是将该向量伸缩(包括反向伸缩)与旋转。
忽略复杂的旋转变换,只考虑各个方向(特征方向)伸缩的比例,所提取出的最有用,最关键的信息就是特征值了。
【陈十三的回答(3票)】:
特征向量可以看作坐标向量,特征值就是矩阵在该坐标方向上的分量大小值,特征分析相当于提取矩阵的信息出来吧。较大的特征值对应的特征向量就较为重要,矩阵降维就用的提取主特征向量思想。
【黄培浩的回答(2票)】:
作为一个线性代数考60+的学渣,我是这么直观地理解的:
把式子中的
看作一个线性变换,那么这个定义式就表示对于 向量
而言,经过
变换之后该向量的方向没有变化(可能会反向),而只是长度变化了(乘以
也就是对于变换
来说,存在一些“不变”的量(比如特征向量
的方向),我想,“特征”的含义就是“不变”。
,如你所见,就是变换
在特征方向上的伸展系数吧(乱诹了个名词 :P)。
嗯,觉得维基其实讲的就挺好的:
【单英晋的回答(0票)】:
什么是方阵?方阵就是n维线性空间上的线性变换。那么我们总要考虑最简单的情况:什么是一维的线性变换呢?就是简单的常数倍拉伸
A: x -& ax
在高维的时候,线性变换A的结构可能很复杂,但它总会保持某些一维子空间不变。在这些子空间上它的限制就是一个一维线性变换,这个变换的拉伸常数就是A在这个子空间上的特征值。
【yz的回答(0票)】:
如果某个物理系统的若干变量的关系可用含参数的矩阵表示。参数满足特征方程时,齐次形式表明此时的系统变量在输入为零时可达无穷大,表明系统在该参数下不稳定。故特征值由系统参数决定,并可反求之。
【陆燕南的回答(0票)】:
特徵向量反映了線性變換的方向;特徵值反映線性變換在各方向上導致的形變大小。
【Gilbert的回答(0票)】:
定义很抽象我也一直搞不懂,但是最近开始在图像处理方面具体应用的时候就清晰很多了,用学渣的语言沟通一下吧我们。
抛开学术研究不谈,其实根本不会,特征值eigenvalue和特征向量eigenvector的一大应用是用于大量数据的降维
比如拿淘宝举个例子,每个淘宝店铺有N个统计数据:商品类型,日销量周销量月销量、好评率中评差评率……全淘宝有M家店铺,那么服务器需要记录的数据就是M*N的矩阵;
这是一个很大的数据,实际上我们可以通过求这个矩阵的特征向量和对应的特征值来重新表示这个M*N的矩阵:
我们可以用周销量来误差不大的表示日销量和月销量(除以七和乘以四),这个时候月销量就可以当作一个特征向量,它能够表示每个店铺销量这个空间方向的主要能量(也就是数据),这样我们就简略的把一个35维的向量简化成四维的(30个日销量加4个周销量加1个月销量);
同理我们也可以把好评率中评率差评率用一个好评率来表示(剩余的百分比默认为差评率),这样的降维大致上也能反映一个店铺的诚信度;
这样通过不断的降维我们可以提取到某系列数据最主要的几个特征向量(对应特征值最大的),这些向量反映了这个矩阵空间最主要的能量分布,所以我们可以用这几个特征向量来表示整个空间,实现空间的降维。
这个方法叫做Principle Components Analysis,有兴趣的同学可以wiki一下。
学渣飘过了
&&&&&本文固定链接:
【上一篇】
【下一篇】
您可能还会对这些文章感兴趣!
最新日志热评日志随机日志第12课:多源数据融合与土地利用动态监测_图文_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
第12课:多源数据融合与土地利用动态监测
上传于||文档简介
&&多​源​数​据​融​合​与​土​地​利​用​动​态​监​测
大小:3.57MB
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢}

我要回帖

更多关于 平均信息量 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信