cosamp算法的原子要用贝叶斯正则化算法处理吗

romp 基于CS理论的 算法实现 稀疏表示的图像超分辨率 字典对的训练。 Graph program 图形
238万源代码下载-
&文件名称: romp
& & & & &&]
&&所属分类:
&&开发工具: Visual C++
&&文件大小: 1 KB
&&上传时间:
&&下载次数: 11
&&提 供 者:
&详细说明:基于CS理论的romp算法实现基于稀疏表示的图像超分辨率算法字典对的训练。-Romp algorithm base on CS theory to realize image super-resolution algorithm based on sparse representation of a dictionary of training, the code for the matlab files
文件列表(点击判断是否您需要的文件,如果是垃圾请在下面评价投诉):
&[]:纯粹是垃圾
&近期下载过的用户:
&相关搜索:
&输入关键字,在本站238万海量源码库中尽情搜索:
&[] - 用matlab仿真图像超分辨率重建技术中的正则化处理方法
&[] - vo分解模型用于分解图像的纹理和卡通部分的matlab源代码
&[] - 一种压缩感知重构算法ROMP
需要已知稀疏度
&[] - CS的一些重构算法包括OMP,somp,ROMP,SAMP,CoSaMp,GPSR等等其中还包括了小波变换,dct变换等等
&[] - 该算法首先根据相关原子挑选多个原子作为候选集,然后从候选集中按照正则化原则挑选出部分原子,最后将其并入最终的支撑集,从而实现了原子的快速、有效选择
&[] - 正则化正交匹配追踪算法的函数,用matlab编写,可以求解压缩感知的信号重构问题
&[] - 压缩感知重构算法的几个代码,包括MP,OMP,ROMP,STOMP,交流学习
&[] - 一种图像处理超分辨率重构方法,主要是利用图像稀疏表示的方法进行图像重构11495人阅读
压缩感知(Compressive Sensing)(45)
压缩采样匹配追踪(CompressiveSampling MP)是D. Needell继ROMP之后提出的又一个具有较大影响力的重构算法。CoSaMP也是对OMP的一种改进,每次迭代选择多个原子,除了原子的选择标准之外,它有一点不同于ROMP:ROMP每次迭代已经选择的原子会一直保留,而CoSaMP每次迭代选择的原子在下次迭代中可能会被抛弃。
1、CoSaMP重构算法流程:
2、压缩采样匹配追踪(CoSaOMP)Matlab代码(CS_CoSaMP.m)
& & & &&代码参考了文献[5]中的Demo_CS_CoSaMP.m,也可参考文献[6],或者文献[7]中的cosamp.m。值得一提的是文献[5]的所有代码都挺不错的,从代码注释中可以得知作者是ustc的ChengfuHuo,百度一下可知是中国科技大学的霍承富博士,已于2012年6月毕业,博士论文题目是《超光谱遥感图像压缩技术研究》,向这位学长致敬!(虽然不是一个学校的)
& & & & 更新:
function [ theta ] = CS_CoSaMP( y,A,K )
%CS_CoSaOMP Summary of this function goes here
%Created by jbb-04-29
%Version: 1.1 modified by jbb-05-09
Detailed explanation goes here
y = Phi * x
x = Psi * theta
% y = Phi*Psi * theta
令 A = Phi*Psi, 则y=A*theta
K is the sparsity level
现在已知y和A,求theta
Reference:Needell D,Tropp J A.CoSaMP:Iterative signal recovery from
incomplete and inaccurate samples[J].Applied and Computation Harmonic
Analysis,1-321.
[y_rows,y_columns] = size(y);
if y_rows&y_columns
y = y';%y should be a column vector
[M,N] = size(A);%传感矩阵A为M*N矩阵
theta = zeros(N,1);%用来存储恢复的theta(列向量)
Pos_theta = [];%用来迭代过程中存储A被选择的列序号
r_n =%初始化残差(residual)为y
for kk=1:K%最多迭代K次
%(1) Identification
product = A'*r_n;%传感矩阵A各列与残差的内积
[val,pos]=sort(abs(product),'descend');
Js = pos(1:2*K);%选出内积值最大的2K列
%(2) Support Merger
Is = union(Pos_theta,Js);%Pos_theta与Js并集
%(3) Estimation
%At的行数要大于列数,此为最小二乘的基础(列线性无关)
if length(Is)&=M
At = A(:,Is);%将A的这几列组成矩阵At
else%At的列数大于行数,列必为线性相关的,At'*At将不可逆
if kk == 1
theta_ls = 0;
%跳出for循环
%y=At*theta,以下求theta的最小二乘解(Least Square)
theta_ls = (At'*At)^(-1)*At'*y;%最小二乘解
%(4) Pruning
[val,pos]=sort(abs(theta_ls),'descend');
%(5) Sample Update
Pos_theta = Is(pos(1:K));
theta_ls = theta_ls(pos(1:K));
%At(:,pos(1:K))*theta_ls是y在At(:,pos(1:K))列空间上的正交投影
r_n = y - At(:,pos(1:K))*theta_%更新残差
if norm(r_n)&1e-6%Repeat the steps until r=0
%跳出for循环
theta(Pos_theta)=theta_%恢复出的theta
end& & & & 原先的版本:
function [ theta ] = CS_CoSaMP( y,A,K )
%CS_CoSaMP Summary of this function goes here
%Version: 1.0 written by jbb-04-29
Detailed explanation goes here
y = Phi * x
x = Psi * theta
% y = Phi*Psi * theta
令 A = Phi*Psi, 则y=A*theta
K is the sparsity level
现在已知y和A,求theta
Reference:Needell D,Tropp J A.CoSaMP:Iterative signal recovery from
incomplete and inaccurate samples[J].Applied and Computation Harmonic
Analysis,1-321.
[y_rows,y_columns] = size(y);
if y_rows&y_columns
y = y';%y should be a column vector
[M,N] = size(A);%传感矩阵A为M*N矩阵
theta = zeros(N,1);%用来存储恢复的theta(列向量)
Pos_theta = [];%用来迭代过程中存储A被选择的列序号
r_n =%初始化残差(residual)为y
for kk=1:K%最多迭代K次
%(1) Identification
product = A'*r_n;%传感矩阵A各列与残差的内积
[val,pos]=sort(abs(product),'descend');
Js = pos(1:2*K);%选出内积值最大的2K列
%(2) Support Merger
Is = union(Pos_theta,Js);%Pos_theta与Js并集
%(3) Estimation
%At的行数要大于列数,此为最小二乘的基础(列线性无关)
if length(Is)&=M
At = A(:,Is);%将A的这几列组成矩阵At
else%At的列数大于行数,列必为线性相关的,At'*At将不可逆
%跳出for循环
%y=At*theta,以下求theta的最小二乘解(Least Square)
theta_ls = (At'*At)^(-1)*At'*y;%最小二乘解
%(4) Pruning
[val,pos]=sort(abs(theta_ls),'descend');
%(5) Sample Update
Pos_theta = Is(pos(1:K));
theta_ls = theta_ls(pos(1:K));
%At(:,pos(1:K))*theta_ls是y在At(:,pos(1:K))列空间上的正交投影
r_n = y - At(:,pos(1:K))*theta_%更新残差
if norm(r_n)&1e-6%Repeat the steps until r=0
%跳出for循环
theta(Pos_theta)=theta_%恢复出的theta
& & & & 在程序主循环的(3)Estimation部分增加了以下几行代码,以使函数运行更加稳定:
if kk == 1
theta_ls = 0;
3、CoSaMP单次重构测试代码
& & & &&以下测试代码基本与OMP单次重构测试代码一样。
%压缩感知重构算法测试
M = 64;%观测值个数
N = 256;%信号x的长度
K = 12;%信号x的稀疏度
Index_K = randperm(N);
x = zeros(N,1);
x(Index_K(1:K)) = 5*randn(K,1);%x为K稀疏的,且位置是随机的
Psi = eye(N);%x本身是稀疏的,定义稀疏矩阵为单位阵x=Psi*theta
Phi = randn(M,N);%测量矩阵为高斯矩阵
A = Phi * P%传感矩阵
y = Phi *%得到观测向量y
%% 恢复重构信号x
theta = CS_CoSaMP( y,A,K );
x_r = Psi *% x=Psi * theta
plot(x_r,'k.-');%绘出x的恢复信号
plot(x,'r');%绘出原信号x
legend('Recovery','Original')
fprintf('\n恢复残差:');
norm(x_r-x)%恢复残差
& & & &&运行结果如下:(信号为随机生成,所以每次结果均不一样)
& & & &&1)图:
& & & &&2)Command& windows
& & & &&Elapsedtime is 0.073375 seconds.
& & & &&恢复残差:
& & & &&ans=
& & & &&& 7.
4、测量数M与重构成功概率关系曲线绘制例程代码
& & & &&以下测试代码基本与OMP测量数M与重构成功概率关系曲线绘制代码一样。增加了“fprintf('K=%d,M=%d\n',K,M);”,可以观察程序运行进度。
%% 参数配置初始化
CNT = 1000;%对于每组(K,M,N),重复迭代次数
N = 256;%信号x的长度
Psi = eye(N);%x本身是稀疏的,定义稀疏矩阵为单位阵x=Psi*theta
K_set = [4,12,20,28,36];%信号x的稀疏度集合
Percentage = zeros(length(K_set),N);%存储恢复成功概率
%% 主循环,遍历每组(K,M,N)
for kk = 1:length(K_set)
K = K_set(kk);%本次稀疏度
M_set = 2*K:5:N;%M没必要全部遍历,每隔5测试一个就可以了
PercentageK = zeros(1,length(M_set));%存储此稀疏度K下不同M的恢复成功概率
for mm = 1:length(M_set)
M = M_set(mm);%本次观测值个数
fprintf('K=%d,M=%d\n',K,M);
for cnt = 1:CNT %每个观测值个数均运行CNT次
Index_K = randperm(N);
x = zeros(N,1);
x(Index_K(1:K)) = 5*randn(K,1);%x为K稀疏的,且位置是随机的
Phi = randn(M,N)/sqrt(M);%测量矩阵为高斯矩阵
A = Phi * P%传感矩阵
y = Phi *%得到观测向量y
theta = CS_CoSaMP(y,A,K);%恢复重构信号theta
x_r = Psi *% x=Psi * theta
if norm(x_r-x)&1e-6%如果残差小于1e-6则认为恢复成功
P = P + 1;
PercentageK(mm) = P/CNT*100;%计算恢复概率
Percentage(kk,1:length(M_set)) = PercentageK;
save CoSaMPMtoPercentage1000 %运行一次不容易,把变量全部存储下来
S = ['-ks';'-ko';'-kd';'-kv';'-k*'];
for kk = 1:length(K_set)
K = K_set(kk);
M_set = 2*K:5:N;
L_Mset = length(M_set);
plot(M_set,Percentage(kk,1:L_Mset),S(kk,:));%绘出x的恢复信号
& & & &&本程序在联想ThinkPadE430C笔记本(4GBDDR3内存,i5-3210)上运行共耗时秒,程序中将所有数据均通过“save CoSaMPMtoPercentage1000”存储了下来,以后可以再对数据进行分析,只需“load CoSaMPMtoPercentage1000”即可。
& & & &&本程序运行结果:
& & & &&有关CoSaMP的原始引用文献共有四个版本,分别如参考文献[1][2][3][4],可依据链接下载,其中[1]和[2]基本一致,本人主要看的是文献[2]。
& & & &&有关CoSaMP的算法流程,可参见参考文献[2]:
这个流程中的其它部分都可以看懂,就是那句“b|Tc←0”很不明白,“Tc”到底是指的什么呢?现在看来应该是T的补集(complementary set),向量b的元素序号为全集,子集T对应的元素等于最小二乘解,补集对应的元素为零。
& & & &&有关算法流程中的“注3”提到的迭代次数,在文献[2]中多处有提及,不过面向的问题不同,可以文献[2]中搜索“Iteration Count”,以下给出三处:
& & & & 文献[8]的3.4节提到“设算法的迭代步长为K,候选集中最多有3K个原子,每次最多剔除K个原子,以保证支撑集中有2K个原子”,对这个观点我保留意见,我认为应该是“每次最多剔除2K个原子,以保证支撑集中有K个原子”。
参考文献:
[1]D. Needell, J.A. Tropp, CoSaMP: Iterative signal recovery from incomplete andinaccurate samples, ACM Technical Report 2008-01, California Institute ofTechnology, Pasadena, 2008.
(http://authors.library.caltech.edu/27169/)
[2]D. Needell, J.A. Tropp.CoSaMP: Iterative signal recoveryfrom incomplete and inaccurate samples.http://arxiv.org/pdf/.pdf
[3] D. Needell, J.A. Tropp.CoSaMP:Iterativesignal recovery from incomplete and inaccurate samples[J].Appliedand Computation Harmonic Analysis,1-321.
(/science/article/pii/S0638)
[4]D.Needell, J.A. Tropp.CoSaMP: Iterative signal recoveryfrom incomplete and inaccurate samples[J]. Communications of theACM,):93-100.
(http://dl.acm.org/citation.cfm?id=1859229)
[5]Li Zeng. CS_Reconstruction./downloads518/sourcecode/math/detail2151378.html
[6]wanghui.csmp. /downloads252/sourcecode/others/detail1168584.html
[7]付自杰.cs_matlab. /downloads641/sourcecode/math/detail2595379.html
[8]杨真真,杨震,孙林慧.信号压缩重构的正交匹配追踪类算法综述[J]. 信号处理,):486-496.
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:1551946次
积分:12843
积分:12843
排名:第895名
原创:147篇
转载:50篇
评论:638条
(4)(8)(5)(1)(5)(2)(8)(8)(4)(1)(6)(4)(7)(8)(1)(2)(1)(5)(1)(1)(4)(7)(7)(9)(6)(1)(5)(9)(8)(11)(5)(10)(10)(8)(5)(2)(2)(1)(1)(3)(3)浅谈压缩感知(二十三):压缩感知重构算法之压缩采样匹配追踪(CoSaMP) - AndyJee - 博客园
随笔 - 325, 文章 - 0, 评论 - 23, 引用 - 0
主要内容:
CoSaMP的算法流程
CoSaMP的MATLAB实现
一维信号的实验与结果
测量数M与重构成功概率关系的实验与结果
一、CoSaMP的算法流程
压缩采样匹配追踪(CompressiveSampling MP)是D. Needell继ROMP之后提出的又一个具有较大影响力的重构算法。CoSaMP也是对OMP的一种改进,每次迭代选择多个原子,除了原子的选择标准之外,它有一点不同于ROMP:ROMP每次迭代已经选择的原子会一直保留,而CoSaMP每次迭代选择的原子在下次迭代中可能会被抛弃。
二、CS_CoSaMP的MATLAB实现(CS_CoSaMP.m)
function [ theta ] = CS_CoSaMP( y,A,K )
CS_CoSaOMP
Detailed explanation goes here
y = Phi * x
x = Psi * theta
y = Phi*Psi * theta
令 A = Phi*Psi, 则y=A*theta
K is the sparsity level
现在已知y和A,求theta
Reference:Needell D,Tropp J A.CoSaMP:Iterative signal recovery from
incomplete and inaccurate samples[J].Applied and Computation Harmonic
Analysis,2009,26:301-321.
[m,n] = size(y);
y = y'; %y should be a column vector
[M,N] = size(A); %传感矩阵A为M*N矩阵
theta = zeros(N,1); %用来存储恢复的theta(列向量)
pos_num = []; %用来迭代过程中存储A被选择的列序号
res = %初始化残差(residual)为y
for kk=1:K %最多迭代K次
%(1) Identification
product = A'* %传感矩阵A各列与残差的内积
[val,pos]=sort(abs(product),'descend');
Js = pos(1:2*K); %选出内积值最大的2K列
%(2) Support Merger
Is = union(pos_num,Js); %Pos_theta与Js并集
%(3) Estimation
%At的行数要大于列数,此为最小二乘的基础(列线性无关)
if length(Is)&=M
At = A(:,Is); %将A的这几列组成矩阵At
else %At的列数大于行数,列必为线性相关的,At'*At将不可逆
if kk == 1
theta_ls = 0;
break; %跳出for循环
%y=At*theta,以下求theta的最小二乘解(Least Square)
theta_ls = (At'*At)^(-1)*At'*y; %最小二乘解
%(4) Pruning
[val,pos]=sort(abs(theta_ls),'descend');
%(5) Sample Update
pos_num = Is(pos(1:K));
theta_ls = theta_ls(pos(1:K));
%At(:,pos(1:K))*theta_ls是y在At(:,pos(1:K))列空间上的正交投影
res = y - At(:,pos(1:K))*theta_ %更新残差
if norm(res)&1e-6 %Repeat the steps until r=0
break; %跳出for循环
theta(pos_num)=theta_ %恢复出的theta
三、一维信号的实验与结果
%压缩感知重构算法测试
M = 64; %观测值个数
N = 256; %信号x的长度
K = 12; %信号x的稀疏度
Index_K = randperm(N);
x = zeros(N,1);
x(Index_K(1:K)) = 5*randn(K,1); %x为K稀疏的,且位置是随机的
Psi = eye(N); %x本身是稀疏的,定义稀疏矩阵为单位阵x=Psi*theta
Phi = randn(M,N); %测量矩阵为高斯矩阵
A = Phi * P %传感矩阵
y = Phi * %得到观测向量y
%% 恢复重构信号x
theta = CS_CoSaMP( y,A,K );
x_r = Psi * % x=Psi * theta
plot(x_r,'k.-'); %绘出x的恢复信号
plot(x,'r'); %绘出原信号x
legend('Recovery','Original')
fprintf('\n恢复残差:');
norm(x_r-x) %恢复残差
四、测量数M与重构成功概率关系的实验与结果
%% 参数配置初始化
CNT = 1000; %对于每组(K,M,N),重复迭代次数
N = 256; %信号x的长度
Psi = eye(N); %x本身是稀疏的,定义稀疏矩阵为单位阵x=Psi*theta
K_set = [4,12,20,28,36]; %信号x的稀疏度集合
Percentage = zeros(length(K_set),N); %存储恢复成功概率
%% 主循环,遍历每组(K,M,N)
for kk = 1:length(K_set)
K = K_set(kk); %本次稀疏度
M_set = 2*K:5:N; %M没必要全部遍历,每隔5测试一个就可以了
PercentageK = zeros(1,length(M_set)); %存储此稀疏度K下不同M的恢复成功概率
for mm = 1:length(M_set)
M = M_set(mm); %本次观测值个数
fprintf('K=%d,M=%d\n',K,M);
for cnt = 1:CNT %每个观测值个数均运行CNT次
Index_K = randperm(N);
x = zeros(N,1);
x(Index_K(1:K)) = 5*randn(K,1); %x为K稀疏的,且位置是随机的
Phi = randn(M,N)/sqrt(M); %测量矩阵为高斯矩阵
A = Phi * P %传感矩阵
y = Phi * %得到观测向量y
theta = CS_CoSaMP(y,A,K); %恢复重构信号theta
x_r = Psi * % x=Psi * theta
if norm(x_r-x)&1e-6 %如果残差小于1e-6则认为恢复成功
P = P + 1;
PercentageK(mm) = P/CNT*100; %计算恢复概率
Percentage(kk,1:length(M_set)) = PercentageK;
save CoSaMPMtoPercentage1000 %运行一次不容易,把变量全部存储下来
S = ['-ks';'-ko';'-kd';'-kv';'-k*'];
for kk = 1:length(K_set)
K = K_set(kk);
M_set = 2*K:5:N;
L_Mset = length(M_set);
plot(M_set,Percentage(kk,1:L_Mset),S(kk,:));%绘出x的恢复信号
xlim([0 256]);
legend('K=4','K=12','K=20','K=28','K=36');
xlabel('Number of measurements(M)');
ylabel('Percentage recovered');
title('Percentage of input signals recovered correctly(N=256)(Gaussian)');
五、参考文章您所在位置: &
&nbsp&&nbsp&nbsp&&nbsp
大学科研成果论文18.doc 9页
本文档一共被下载:
次 ,您可全文免费在线阅读后下载本文档。
下载提示
1.本站不保证该用户上传的文档完整性,不预览、不比对内容而直接下载产生的反悔问题本站不予受理。
2.该文档所得收入(下载+内容+预览三)归上传者、原创者。
3.登录后可充值,立即自动返金币,充值渠道很便利
需要金币:150 &&
大学科研成果论文18
你可能关注的文档:
··········
··········
PAGE论文题目:基于压缩感知的的信号重构算法 学院:计算机与信息学院专业年级:电子信息工程2010级学号:姓名:指导教师、职称:日 PAGE7基于压缩感知的的信号重构算法摘要:针对支撑集未知且变化时的稀疏信号的重构问题,本文基于卡尔曼滤波思想,结合压缩感知算法,给出了一种改进的卡尔曼一压缩感知(ModifiedKalmanFiherCompressiveSensing,MKFCS)信号重构算法,该算法首先利用Kalman滤波获得信号残差的有效估计,然后根据残差变突情况,用改进的cs算法估计突变位置以确定信号的新的支撑集,最后用最小二乘方法重构信号,从而自适应的实现支撑集未知且变化的稀疏信号的重构。最后对所改进的通过重构精度、重构误差、稳健性等方面进行了仿真,仿真结果表明所提算法重构信号具有需要量测个数少、重构精度高、鲁棒性强等特点。关键词:压缩感知;最小范数;信号重构;一引言至今,已有众多国内外学者在重建算法领域做出了新的研究和探索。Candes等证明了信号重建问题可以通过求解最小范数问题解决,但Donoho指出,求解最小范数是一个NP问题,需要穷举中非零值的所有中排列可能,因而无法直接求解。此后,研究人员提出了一系列求得次最优解的算法,主要包括最小范数法、贪婪迭代匹配追踪系列算法等。其中,匹配追踪类方法为其近似求解提供了有力工具,文献中指出了该类方法用于稀疏信号重建时具有一定的稳定性。重建算法的关键是如何从压縮感知得到的低维数据中精确地恢复出原始的高维数据,即由维测量向量重建出长度为的信号的过程。传统的匹配追踪算法能够精确的重建出原始信号,但同时又有不同方面的缺陷,因此有关压縮感知重建算法的研究还有很多值得探索和研究的地方。二最小范数模型从数学意义上讲,基于压缩感知理论的信号重建问题就是寻找欠定方程组(程的数量少于待解的未知数)的最简单解的问题,范数刻画得就是信号中非零元素的个数,因而能够使得结果???可能地稀疏。通常我们采用下式描述最小范数最优化问题:s.t.(3.1)实际中,允许一定程度的误差存在,因此将原始的最优化问题转化成一个较简单的近似形式求解,其中是一个极小的常量:s.t.(3.2)但是这类问题的求解数值计算极不稳定,很难直接求解。三匹配追踪类算法匹配追踪类稀疏重建算法解决的是最小范数问题,最早提出的有匹配追踪(MP)算法和正交匹配追踪(OMP)算法。MP的基本思想是在每一次的迭代过程中,从过完备原子库里(即感知矩阵)选择与信号最匹配的原子来进行稀疏逼近并求出余量,然后继续选出与信号余量最为匹配的原子。经过数次迭代,该信号便可以由一些原子线性表示。但是由于信号在己选定原子(感知矩阵的列向量)集合上的投影的非正交性使得每次迭代的结果可能是次最优的,因此为获得较好的收敛效果往往需要经过较多的迭代次数。OMP算法则有效克服了这个问题,该算法沿用了匹配追踪算法中的原子选择准则,在重建时每次迭代得到的支撑集的一个原子,只是通过递归对己选择原子集合进行正交化以保证迭代的最优性,从而减少迭代次数。实验表明对固定稀疏的维离散时间信号,用高斯随机矩阵时,只要,正交匹配追踪算法将以极大概率准确重构信号,而且运行时间远比最小范数模型短。但是,正交匹配追踪算法精确重构的理论保证比最小范数算法弱,并非对所有信号都能准确重构,而且对于感知矩阵的要求比约束等距性更加严格。Needell等在OMP的基础上提出了正则正交匹配追踪(RegularizedOrthogonalMatchingPursuit,ROMP)算法,对于所有满足约束等距性条件的矩阵和所有稀疏信号都可以准确重构。之后,Needell等人又提出了引入回溯思想的压缩采样匹配追踪(CompressiveSamplingMatchingPursuit,CoSaMP)算法,不仅提供了比OMP算法更全面的理论保证,并且能在采样过程中对噪声有很强的鲁棒性。同样引入回溯思想的还有子空间追踪(SubspacePursuit,SP)算法,在得到的支撑集之前先建立一个候选集,之后再从候选集中舍弃不需要的原子,形成最终的支撑集,它们理论重建质量与相当,同时重建复杂度低,但是这些算法都是建立在稀疏度已知的基础上。然而实际应用中,往往是未知的,由此出现了对自适应的稀疏自适应匹配追踪(SparsityAdaptiveMatchingPursuit,SAMP)算法,它通过固定步长逐步逼近进行重建,可以在未知的情况下获得较好的重建效果,速度也远快于OMP算法。综合考虑,匹配追踪系列算法对于维数较低的小尺度信号问题运算速度很快,是一种效果较好的信号重建算法。3.1OMP算法OMP算法作为最早的贪婪迭代算法之一,它的思想对之后出现的各种贪婪算法都有着不容忽视的意义。OMP仍然沿用了M
正在加载中,请稍后...工具类服务
编辑部专用服务
作者专用服务
基于ROMP算法的人脸识别
针对用传统方法进行人脸识别的识别率不够高的问题,本文在人脸识别中采用正则化正交匹配追踪算法(ROMP),并把其与基于NN,匹配追踪(MP),正交匹配追踪(OMP)的人脸识别算法进行了对比.该算法能一次从冗余字典中选取多个原子,并能够通过正则化准则对选取的原子进行再次筛选,获得最优的原子.实验结果表明,在不同特征提取方法和训练样本数改变的情况下,基于ROMP的人脸识别算法的识别率优于其他算法.
ZHANG Wenqing
作者单位:
汕头大学工学院电子系,广东汕头,515063
年,卷(期):
机标分类号:
在线出版日期:
本文读者也读过
相关检索词
万方数据知识服务平台--国家科技支撑计划资助项目(编号:2006BAH03B01)(C)北京万方数据股份有限公司
万方数据电子出版社}

我要回帖

更多关于 正则化处理 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信