当前位置:文档之家› 压缩感知在有限投影角度CT重建中的应用 (1)

压缩感知在有限投影角度CT重建中的应用 (1)

压缩感知在有限投影角度CT重建中的应用 (1)
压缩感知在有限投影角度CT重建中的应用 (1)

压缩感知简介

2011.No31 0 3.2 熟悉结构施工图 结构施工图是关于承重构件的布置,使用的材料、形状、大小及内部构造的工程图样,是承重构件以及其他受力构件施工的依据。 看结构施工图最难的就是钢筋,要把结施图看懂就要知道钢筋的分布情况,现在都是在使用平法来标示钢筋,所以也要把平法弄懂才行。在识读与熟悉结施图的过程中应该充分结合钢筋平法表示的系列图集,搞清楚: a 各结构构件的钢筋的品种,规格,以及受力钢筋在各构件的布置情况。 b 箍筋与纵向受力钢筋的位置关系。 c 各个构件纵向钢筋以及箍筋弯钩的角度及其长度。 d 熟悉各构件节点的钢筋的锚固长度。 e 熟悉各个构件钢筋的连接方式。 f 熟悉在钢筋的搭接区域内,钢筋的搭接长度。 g 核算钢筋的间距是否满足施工要求,尤其是各个构件节点处的钢筋间距。 h 弯起钢筋的弯折角度以及离连接点的距离。 除此以外,对于钢筋混凝土构件,还应该熟悉各个构件的砼保护层厚度,各个构件的尺寸大小、布置位置等。特别注意的是对于结施图的阅读应充分结合建施图进行。 4 结束语 在熟悉施工图纸的过程中,施工技术人员对于施工图纸中的疑问,和比较好的建议应该做好记录,为后续工作(图纸自审和会审)做好准备。 参考文献 [1]《建筑识图》周坚主编 中国电力出版社 2007年;[2]《建筑工程项目管理》银花主编 机械工业出版社 2010年; 摘 要 压缩感知(Compressive Sensing, CS)理论是一个充分利用信号稀疏性或可压缩性的全新信号采集、编解码理论。本文系一文献综述,主要介绍了压缩感知的三部分即信号的稀疏表示、测量矩阵的设计、信号恢复算法的设计。 关键词 压缩感知 稀疏表示 测量矩阵 信号恢复算法 1 引言 1928年由美国电信工程师H.奈奎斯特(Nyquist)首先提出,1948年信息论的创始人C.E.香农(Shannon)又对其加以明确说明并正式作为定理引用的奈奎斯特采样定理,是采样带限信号过程所遵循的规律。它指出:在进行模拟/数字信号的转换过程中,当采样频率fs.max大于信号中最高频率fmax的2倍时(fs.max>=2fmax),采样之后的数字信号完整地保留了原始信号中的信息。一般实际应用中保证采样频率为信号最高频率的5~10倍。该理论支配着几乎所有的信号/图像等的获取、处理、存储、传输等。随着科技的发展,成为目前信息领域进一步发展的主要瓶颈之一,主要表现在两个方面: (1)数据获取和处理方面。在许多实际应用中(例如超宽带信号处理、核磁共振、空间探测等),Nyquist采样硬件成本昂贵、获取效率低下,信息冗余及有效信息提取的效率低下,在某些情况甚至无法实现。 (2)数据存储和传输方面。通常的做法是先按照Nyquist方式获取数据,然后将获得的数据进行压缩,最后将压缩后的数据进行存储或传输,这样会造成很大程度的资源浪费。另外,为保证信息的安全传输,通常以某种方式对信号进行编码,这给信息的安全传输和接收带来一定程度的麻烦。 近年来,由D .D o n o h o (美国科学院院士)、E . Candes(Ridgelet, Curvelet创始人)及华裔科学家T. Tao(2006年菲尔兹奖获得者,2008年被评为世界上最聪明的科学家)等人提出了一种新的信息获取指导理论,即压缩感知(Compressive Sensing(CS),或称Compressed Sensing、Compressed Sampling)。该理论指出:对可压缩的信号通过远低于Nyquist标准的方式进行数据采样,仍能够精确地恢复出原压缩感知简介 刘太明1 黄 虎2 (1、成都理工大学,四川成都,610059;2、成都理工大学,四川成都,610059) 始信号。该理论一提出,就在信息论、信号/图像处理、医疗成像、模式识别、地质勘探、光学/雷达成像、无线通信等领域受到高度关注,并被美国科技评论评为2007年度十大科技进展。 2 CS基本原理 信号x∈R n×1压缩传感的测量过程可以表示为y=Ax∈R M×1,M<

压缩感知理论综述(原创)

压缩感知理论综述 摘要:信号采样是模拟的物理世界通向数字的信息世界之必备手段。多年来,指导信号采样的理论基础一直是著名的Nyquist采样定理,但其产生的大量数据造成了存储空间的浪费。压缩感知(Compressed Sensing)提出一种新的采样理论,它能够以远低于Nyquist采样速率采样信号。本文详述了压缩感知的基本理论,着重介绍了信号稀疏变换、观测矩阵设计和重构算法三个方面的最新进展,并介绍了压缩感知的应用及仿真,举例说明基于压缩感知理论的编解码理论在一维信号、二维图像处理上的应用。 关键词:压缩感知;稀疏表示;观测矩阵;编码;解码 一、引言 Nyquist采样定理指出,采样速率达到信号带宽的两倍以上时,才能由采样信号精确重建原始信号。可见,带宽是Nyquist采样定理对采样的本质要求。然而随着人们对信息需求量的增加,携带信息的信号带宽越来越宽,以此为基础的信号处理框架要求的采样速率和处理速度也越来越高。解决这些压力常见的方案是信号压缩。但是,信号压缩实际上是一种资源浪费,因为大量的不重要的或者只是冗余信息在压缩过程中被丢弃。从这个意义而言,我们得到以下结论:带宽不能本质地表达信号的信息,基于信号带宽的Nyquist采样机制是冗余的或者说是非信息的。 于是很自然地引出一个问题:能否利用其它变换空间描述信号,建立新的信号描述和处理的理论框架,使得在保证信息不损失的情况下,用远低于Nyquist 采样定理要求的速率采样信号,同时又可以完全恢复信号。与信号带宽相比,稀疏性能够直观地而且相对本质地表达信号的信息。事实上,稀疏性在现代信号处理领域起着至关重要的作用。近年来基于信号稀疏性提出一种称为压缩感知或压缩采样的新兴采样理论,成功实现了信号的同时采样与压缩。 简单地说,压缩感知理论指出:只要信号是可压缩的或在某个变换域是稀疏的,那么就可以用一个与变换基不相关的观测矩阵将变换所得高维信号投影到一个低维空间上,然后通过求解一个优化问题就可以从这些少量的投影中以高概率重构出原信号,可以证明这样的投影包含了重构信号的足够信息。在该理论框架

陆吾生-压缩感知方法及其在稀疏信号和图像处理中的应用

陆吾生教授短期课程“压缩感知方法及其在稀疏信号和图像 处理中的应用”资料 1. 课程介绍_压缩感知方法及其在稀疏信号和图像处理中的应 用.doc 2. 陆吾生教授短期课程“压缩感知方法及其在稀疏信号和图像处理中的应用”的讲义 Lecture_Notes_CS_LWS_Final.pdf 3. 各章所涉及到的Matlab程序 Main functions Main functions.zip(内含 ex3_1.m (for Example 3.1) ex3_2.m (for Example 3.2) gp_denoise.m (for Algorithm GP in Sec.3.2) fgp_denoise.m (for Algorithm FGP in Sec.3.2) gp_deblurr.m (for Algorithm GPB in Sec.3.3) ) Auxiliary functions Auxiliary functions.zip(内含gen_dct.m oper_L.m oper_Lt.m proj_bound.m proj_pair.m gp_denoise_w.m) Data Data.zip(内含camera256.mat 及 lena256.mat)

4. 陆吾生“压缩感知方法及其在稀疏信号和图像处理中的应用”课程(1A-6B)上课录像 Lecture_LWS_1A.rmvb 2010.11.09.(220M) Lecture_LWS_1B.rmvb 2010.11.09.(231M) Lecture_LWS_2A.rmvb 2010.11.11.(252M) Lecture_LWS_2B.rmvb 2010.11.11.(193M) Lecture_LWS_3A.rmvb 2010.11.12.(225M) Lecture_LWS_3B.rmvb 2010.11.12.(200M) Lecture_LWS_4A.rmvb 2010.11.16.(239M) Lecture_LWS_4B.rmvb 2010.11.16.(169M) Lecture_LWS_5A.rmvb 2010.11.18.(239M) Lecture_LWS_5B.rmvb 2010.11.18.(226M) Lecture_LWS_6A.rmvb 2010.11.19.(256M) Lecture_LWS_6B.rmvb 2010.11.19.(224M) 5. 陆吾生教授2010.11.17.在上海大学所做的学术报告,题为:

压缩感知的去噪应用

Noise reduction through Compressed Sensing J.F.Gemmeke,B.Cranen Dept.of Linguistics,Radboud University,Nijmegen,The Netherlands {J.Gemmeke, B.Cranen}@let.ru.nl Abstract We present an exemplar-based method for noise reduction using missing data imputation:A noise-corrupted word is sparsely represented in an over-complete basis of exemplar(clean) speech signals using only the uncorrupted time-frequency ele-ments of the word.Prior to recognition the parts of the spectro-gram dominated by noise are replaced by clean speech estimates obtained by projecting the sparse representation in the basis. Since at low SNRs individual frames may contain few,if any, uncorrupted coef?cients,the method tries to exploit all reliable information that is available in a word-length time window.We study the effectiveness of this approach on the Interspeech2008 Consonant Challenge(VCV)data as well as on AURORA-2 https://www.doczj.com/doc/3f17119582.html,ing oracle masks,we obtain obtain accuracies of36-44%on the VCV data.On AURORA-2we obtain an accuracy of91%at SNR-5dB,compared to61%using a conventional frame-based approach,clearly illustrating the great potential of the method. Index Terms:Automatic Speech Recognition,Missing Data Techniques,Compressed Sensing 1.Introduction Automatic speech recognition(ASR)performance degrades substantially when speech is corrupted by background noises. Missing Data Techniques(MDT)[1,2]provide a powerful way to mitigate the impact of both stationary and non-stationary noise for moderate Signal-to-Noise(SNR)ratios.The gen-eral idea behind MDT is that it is possible to estimate?prior to decoding?which spectro-temporal elements of the acoustic representations are reliable(i.e.,dominated by speech energy) and which are unreliable(i.e.,dominated by background noise). These reliability estimates are used to treat reliable and unreli-able features differently and are referred to as a spectrographic mask.This information can for instance be used to replace the unreliable features by clean speech estimates,a process called imputation([3]). Although recognition accuracy can be improved substan-tially with MDT,at SNRs(≤0dB)the gain in recognition per-formance appears generally too small to be of practical use.A possible explanation is that at SNRs≤0dB a substantial num-ber of frames may contain few,if any,reliable features.As the number of reliable coef?cients in a frame decreases,it becomes more dif?cult to safely impute the missing coef?cients because in most MDT approaches imputation is performed on a frame by frame(i.e.strictly local)basis.This cannot but degrade recognition performance. Due to continuity constraints imposed by the speech pro-duction system,speech energy is distributed over the time-frequency plane in patches which cannot be of arbitrary small https://www.doczj.com/doc/3f17119582.html,ing a(much)wider time window than a single frame might provide a way to exploit this continuity over time for im-puting missing data thus avoiding local information scarcity.In this paper we propose a novel,exemplar based,data imputation front-end that tries to take advantage of the dependencies be- tween neighboring frames by using a larger spectro-temporal context.The technique is dubbed sparse imputation and is based on work in the emergent?eld of Compressed Sensing [4,5]. Following an approach similar to[6],we treat entire words as units and represent them by?xed length vectors.We rep- resent unknown words as a linear combination of as few as possible exemplar words in a training database.Work in Com- pressed Sensing has shown that if such a linear combination is sparse,the weight vector can be determined using only a small part of the elements of the feature vector representing the un- known item.We exploit this property by using only the features that were considered reliable in the noisy input according to the spectrographic mask.Next,the linear combination of clean exemplar words is used for reconstructing the unreliable coef?- cients of the noisy words.Finally,the imputed feature vectors are processed by a conventional HMM-based ASR. In this paper we present a feasibility study to show that the Compressed Sensing approach is also potentially bene?cial for speech recognition.We explore the effectiveness of our method by applying it to the Interspeech2008Consonant Challenge (VCV)data[7])using two different mask types:the’oracle’ mask1and a mask which estimates reliability based on a har- monic decomposition,dubbed harmonicity mask([8]).Addi- tionally,we compare the recognition performance that we ob- tained by means of our new,whole word based sparse imputa- tion method with the results from a classical,frame based im- putation approach using the AURORA-2digit recognition task, which also allows us to investigate relative improvement as a function of SNR.We explain why the improvement is larger for oracle than for harmonicity masks. 2.Method 2.1.Speech materials and classi?cation task Two word recognition tasks were performed.First,we per- formed intervocalic English consonant recognition using the VCV data(consisting of1clean and6noisy subsets)which are described in[7].Second,we carried out a single-digit recogni- tion/classi?cation task using test set A from the AURORA-2cor- pus which comprises1clean and24noisy subsets,with four noise types(subway,car,babble,exhibition hall)at six SNR levels,SNR=20,15,10,5,0,?5dB Due to the constraint that the current implementation of our exemplar-based imputation technique operates on whole- 1Oracle masks are masks in which reliability decisions are based on exact knowledge about the extent to which each time-frequency cell is dominated by either noise or speech

压缩感知理论

压缩感知理论 一、压缩感知理论简介 压缩感知,又称压缩采样,压缩传感。它作为一个新的采样理论,它通过开发信号的稀疏特性,在远小于Nyquist 采样率的条件下,用随机采样获取信号的离散样本,然后通过非线性重建算法完美的重建信号。压缩感知理论一经提出,就引起学术界和工业界的广泛关注。它在信息论、图像处理、地球科学、光学、微波成像、模式识别、无线通信、大气、地质等领域受到高度关注,并被美国科技评论评为2007年度十大科技进展。 二、压缩感知产生背景 信号采样是模拟的物理世界通向数字的信息世界之必备手段。多年来,指导信号采样的理论基础一直是著名的Nyquist 采样定理。定理指出,只有当采样速率达到信号带宽的两倍以上时,才能由采样信号精确重建原始信号。可见,带宽是Nyquist 采样定理对采样的本质要求。但是,对于超宽带通信和信号处理、核磁共振成像、雷达遥感成像、传感器网络等实际应用,信号的带宽变得越来越大,人们对信号的采样速率、传输速度和存储空间的要求也变得越来越高。为了缓解对信号传输速度和存储空间的压力,当前常见的解决方案是信号压缩但是,信号压缩实际上是一种严重的资源浪费,因为大量采样数据在压缩过程中被丢弃了,它们对于信号来说是不重要的或者只是冗余信息。故而就有人研究如何很好地利用采集到的信号,压缩感知是由 E. J. Candes 、J. Romberg 、T. T ao 和D. L. Donoho 等科学家于2004 年提出,压缩感知方法抛弃了当前信号采样中的冗余信息。它直接从连续时间信号变换得到压缩样本,然后在数字信号处理中采用优化方法处理压缩样本。这里恢复信号所需的优化算法常常是一个已知信号稀疏的欠定线性逆问题。 三、压缩感知理论 压缩感知理论主要涉及到三个方面,即信号的稀疏表示、测量矩阵的设计和重构算法的构造。稀疏信号广义上可理解为信号中只有少数元素是非零的,或者信号在某一变换域内少数元素是非零的。那么在我们如果只保留这些非零数据,丢弃其他的系数,则可以减小储存该信号需要的空间,达到了压缩(有损压缩)的目的,同时,这些系数可以重构原始信号,不过一般而言得到的是X 的一个逼近。在实际生活中有很多数字信号都是稀疏信号或者在某一变换域内是稀疏的,这样压缩感知理论的第一个方面就可以得到满足。如果信号N x R ∈在某变换域内是稀疏的,可以用一组正交基12[,,,]N ψψψψ= 线性组合表示:1 N i i i x s s ψ===ψ∑,其中式中,是对应于正交基的投影系数。由稀疏性可知其内只含有少数不为零的数,感知信号y 可表示为:y x s s =Φ=Φψ=Θ,Φ就为测量矩阵,Ψ为稀疏表示矩阵,当测量矩阵与稀疏表示矩阵不相关时就可以从s 中不失真的恢复出原始信号x ,常用的测量矩阵有高斯随机阵等。接下来是算法的重构,由于用少数信号恢复原来的大信号,这是一个欠定问题,一般用最优化方法来求解。这就是压缩感知理论体系的基本理论。 四、对这一创新案例的分析

基于压缩感知的水下图像去噪

基于压缩感知的水下图像去噪 作者:丁伟王国宇王宝锋 来源:《现代电子技术》2013年第02期 摘要:水下环境复杂,水下摄像得到的图像较为模糊。采集数据时会采集到大量不包含任何有用信息的数据,噪声影响更严重。压缩感知理论提出,能用较低采样率高概率重构信号。为研究压缩感知对水下图像噪声的抑制作用,采用OMP,SP,COSAMP不同贪婪重构算法对水下图像进行不同采样率重构分析。实验结果表明,选取合适采样率既可以以少量数据重构图像,又可以抑制水下噪声,且OMP算法效果最好。 关键词:压缩感知;水下图像;图像重构;图像去噪 中图分类号:TN919?34 文献标识码:A 文章编号:1004?373X(2013)02?0019?03 0 引言 随着地球上人口的激增,陆上资源的不断消耗,海洋逐渐成为人类赖以生存的发展新空间。人类在对海洋进行探索发现时,往往采取水下摄像的方式获取有价值的信息。相机在处理过程中需要采集大量数据,但经过变换后只需存储一小部分,大量不包含任何有用信息的冗余数据也被采集,这就对设备要求高,并且采集到的水下图像噪声的影响也会增大。 压缩感知的方法可以直接获取少量包含绝大部分目标信息的数据,经过重构得到需要的水下图像。基于压缩感知的图像去噪方法,将图像中的有用信息部分作为图像中的稀疏成分,而将图像中的噪声作为图像去除其中稀疏成分后得到的残差,并以此作为图像去噪处理的基础。本文主要研究贪婪重构算法系列对水下图像有色噪声的抑制作用[1]。 1 压缩感知理论介绍 1.1 压缩感知理论的提出 在日常生活中,人们接触的信号大多数是模拟的,但是目前在信息处理过程中能处理的信号却只能是数字化的,所以人们要得到信号,首先就要进行A/D转换,即模拟/数字信号转换。转换过程主要包括采样、压缩、传输和解压缩4个部分。 其中采样过程必须满足奈奎斯特采样定理,即采样频率大于等于模拟信号频谱中最高频率的2倍。然而随着时代发展,人们对信息需求量逐渐增加,携带信息的信号带宽越来越宽,所要求的处理速度和采样速率越来越高,这就使得相应的硬件条件难以实现,给信号的转换过程带来巨大的压力。是否能够采用一种新的方法,在保证信息不损失的情况下,用远低于采样定理要求的速率采样信号,又能恢复信号,成为研究的热点。

压缩感知原理

压缩感知原理(附程序) 1压缩感知引论 传统方式下的信号处理,是按照奈奎斯特采样定理对信号进行采样,得到大量的采样数据,需要先获取整个信号再进行压缩,其压缩过程如图2.1。 图2.1 传统的信号压缩过程 在此过程中,大部分采样数据将会被抛弃,即高速采样后再压缩的过程浪费了大量的采样资源,这就极大地增加了存储和传输的代价。 由于带宽的限制,许多信号只包含少量的重要频率的信息。所以大部分信号是稀疏的或是可压缩的,对于这种类型的信号,既然传统方法采样的多数数据会被抛弃,那么,为什么还要获取全部数据而不直接获取需要保留的数据呢?Candes和Donoho等人于2004年提出了压缩感知理论。该理论可以理解为将模拟数据节约地转换成压缩数字形式,避免了资源的浪费。即,在采样信号的同时就对数据进行适当的压缩,相当于在采样过程中寻找最少的系数来表示信号,并能用适当的重构算法从压缩数据中恢复出原始信号。压缩感知的主要目标是从少量的非适应线性测量中精确有效地重构信号。核心概念在于试图从原理上降低对一个信号进行测量的成本。压缩感知包含了许多重要的数学理论,具有广泛的应用前景,最近几年引起广泛的关注,得到了蓬勃的发展。 2压缩感知原理 压缩感知,也被称为压缩传感或压缩采样,是一种利用稀疏的或可压缩的信号进行信号重构的技术。或者可以说是信号在采样的同时被压缩,从而在很大程度上降低了采样率。压缩感知跳过了采集N个样本这一步骤,直接获得压缩的信号的表示。CS理论利用到了许多自然信号在特定的基 上具有紧凑的表示。即这些信号是“稀疏”的或“可压缩”的。由于这一特性,压缩感知理论的信号编解码框架和传统的压缩过程大不一样,主要包括信号的稀疏表示、编码测量和重构算法等三个方面。

压缩感知原理

压缩感知原理 1压缩感知引论 传统方式下的信号处理,是按照奈奎斯特采样定理对信号进行采样,得到大量 的采样数据,需要先获取整个信号再进行压缩,其压缩过程如图 2.1。 在此过程中,大部分采样数据将会被抛弃,即高速采样后再压缩的过程浪费了大量的采样资源,这就极大地增加了存储和传输的代价。 由于带宽的限制,许多信号只包含少量的重要频率的信息。所以大部分信号是稀疏的或是可压缩的,对于这种类型的信号,既然传统方法采样的多数数据会被抛弃,那么,为什么还要获取全部数据而不直接获取需要保留的数据呢?Candes和Donoho等人于2004年提出了压缩感知理论。该理论可以理解为将模拟数据节约地转换成压缩数字形式,避免了资源的浪费。即,在采样信号的同时就对数据进行适当的压缩,相当于在采样过程中寻找最少的系数来表示信号,并能用适当的重构算法从压缩数据中恢复出原始信号。压缩感知的主要目标是从少量的非适应线性测量中精确有效地重构信号。核心概念在于试图从原理上降低对一个信号进行测量的成本。压缩感知包含了许多重要的数学理论,具有广泛的应用前景,最近几年引起广泛的关注,得到了蓬勃的发展。 2压缩感知原理 压缩感知,也被称为压缩传感或压缩采样,是一种利用稀疏的或可压缩的信号进行信号重构的技术。或者可以说是信号在采样的同时被压缩,从而在很大程度上降低了采样率。压缩感知跳过了采集N个样本这一步骤,直接获得压缩的信号的表示。CS理论利用到了许多自然信号在特定的基上具有紧凑的表示。即这些信号 是“稀疏”的或“可压缩”的。由于这一特性,压缩感知理论的信号编解码框架和传统的压缩过程大不一样,主要包括信号的稀疏表示、编码测量和重构算法等三个方面。 对于一个实值的有限长一维离散时间信号 X ,可以看作为一个R N空间N X 1的 维的列向量,元素为n, n,=1 , 2,…N。R N空间的任何信号都可以用N X1维

压缩感知新技术专题讲座_四_第7讲压缩感知在图像信号处理中的应用

压缩感知新技术专题讲座(四) 第7讲 压缩感知在图像信号处理中的应用 李 莉,杨吉斌,赵 斐 (解放军理工大学指挥自动化学院信息作战系,江苏南京210007)摘 要:绝大部分自然图像信号都在某个变换域具有稀疏性或近稀疏性。基于压缩感知理论,可以用远低 于采样定理要求的采样频率采集信号,并可在一定条件下高概率恢复信号,这将极大降低图像信号的采样频率以 及数据存储和传输的代价。文章首先简述了压缩感知理论,然后分析了图像的稀疏性对图像重建质量的影响,最后 着重从图像压缩、图像融合、图像去噪、图像识别以及图像复原几个方面分析了压缩感知理论在图像处理领域中的 应用以及目前所面临的问题。 关键词:压缩感知;稀疏表示;图像压缩;图像融合;图像去噪;图像识别;图像复原 中图分类号:T N 911.73文献标识码:A 文章编号:CN 32-1289(2012)03-0093-07 Application of Compressed Sensing in Field of Image Signal Processing L I L i ,YA N G J i -bin ,ZH A O Fei (Depar tment of I nfo rma tio n O peration Studies ICA ,PL A U ST ,N anjing 210007,China) Abstract :M ost natural im ag e signals are sparse or near ly sparse in a transform domain . Based on the theo ry of com pr essed sensing ,the signal with the sampling frequency much low er than the sampling theorem can be sampled,and sig nal w ith high pro bability under certain co nditions recov er ed.T his can greatly reduce the sampling frequency and the cost o f data storage and transm ission o f the im ag e sig nal.T his paper firstly outlined the com pressed sensing theor y, then analysed the effect of the sparsity of the imag e on the reconstruction quality and finally analy sed the application of the compressed sensing theor y in the field o f im ag e pro cessing fro m image com pression ,imag e fusio n ,image denoising ,im ag e recog nition and image resto ration . Key words :compressed sensing ;sparse r epresentation;image co mpr ession;imag e fusion; image denoising ;imag e recog nition;im age restor ation 传统的图像信号采集和处理方法都是基于奈奎斯特采样定理的,即为了精确重构信号,对信号的采样频率不能低于模拟信号频谱中最高频率的2倍。近年来,在许多实际应用中,传感系统获取数据的能力不断增强,图像信号的频谱越来越宽,如核磁共振成像信号、雷达遥感成像信号等,因此,基于奈奎斯特采样定理的图像获取、存储、压缩、融合等应用对信号处理能力的要求越来越高,也给相应的硬件实现带来严峻考验。因此,有必要寻求新的突破奈奎斯特采样定理的信息采集、处理方法。 2004年由Cand s 、Donoho 和Tao 等人提出了一种新的信息获取指导理论——压缩感知理论,或称压缩采样技术,相关文献[1~3]在2006年正式发表。该理论指出,若信号在某个变换域是稀疏的或可压缩的,就可第33卷第3期 2012年9月军 事 通 信 技 术Journal of M ilitar y Co mmunicat ions T echnolog y V o l.33No.3Sep.2012 收稿日期:2012-02-16;修回日期:2012-06-11 作者简介:李 莉(1977-),女,硕士,讲师.

浅谈压缩感知方法及其在雷达领域的应用

浅谈压缩感知方法及其在雷达领域的应用 摘要:传统信号处理的采样率必须满足香农定理。随着携带信息量和系统分辨率的提高,系统带宽不断增大,这对系统传输和存储等带来巨大压力。压缩感知理论利用信号内在的稀疏性,以低于奈奎斯特采样率对其进行采样,显著降低信号处理的成本。文章介绍了压缩感知方法的基本理论和几类典型稀疏重构方法,并通过仿真实验分析了它们的性能。最后结合几个典型实例,概述了采用压缩感知方法解决雷达信号处理领域某些特定工程问题的优势。 Abstract:Conventional signal processing approaches must follow Shannon's celebrated theorem. As the promotion of information and resolution,the band of system will also increase. The transmission and storage of system is greatly challenged. While compressive sensing theory can sample signal at the rate below Nyquist Sampling frequency to lessen the system cost in signal processing. This paper introduces the basic theory of compressive sensing and several typical sparse recovery methods. The performance of different methods was illustrated through simulation. Via several typical applications in radar,we showed the advantage in dealing with some special

压缩感知技术综述

压缩感知技术综述 摘要:信号采样是模拟的物理世界通向数字的信息世界之必备手段。多年来,指导信号采样的理论基础一直是著名的Nyquist采样定理,但其产生的大量数据造成了存储空间的浪费。压缩感知(Compressed Sensing)提出一种新的采样理论,它能够以远低于Nyquist采样速率采样信号。本文详述了压缩感知的基本理论,着重介绍了信号稀疏变换、观测矩阵设计和重构算法三个方面的最新进展,并介绍了压缩感知的应用及基于压缩感知SAR成像的仿真。 关键词:压缩感知;稀疏表示;观测矩阵;SAR成像; Abstract: Signal sampling is a necessary means of information world physical world to the digital simulation. Over the years, the base theory of signal sampling is the famous Nyquist sampling theorem, but a large amount of data generated by the waste of storage space. Compressed sensing and put forward a new kind of sampling theory, it can be much less than the Nyquist sampling signal sampling rate. This paper introduces the basic theory of compressed sensing, emphatically introduces the new progress in three aspects of signal sparse representation, design of measurement matrix and reconstruction algorithm, and introduces the application of compressed sensing and Simulation of SAR imaging based on Compressive Sensing Keywords: Compressed sensing; Sparse representation; The observation matrix; SAR imaging; 0 引言 Nyquist采样定理指出,采样速率达到信号带宽的两倍以上时,才能由采样信号精确重建原始信号。可见,带宽是Nyquist采样定理对采样的本质要求。然而随着人们对信息需求量的增加,携带信息的信号带宽越来越宽,以此为基础的信号处理框架要求的采样速率和处理速度也越来越高。解决这些压力常见的方案是信号压缩。但是,信号压缩实际上是一种资源浪费,因为大量的不重要的或者只是冗余信息在压缩过程中被丢弃。从这个意义而言,我们得到以下结论:带宽不能本质地表达信号的信息,基于信号带宽的Nyquist采样机制是冗余的或者说是非信息的。 于是很自然地引出一个问题:能否利用其它变换空间描述信号,建立新的信号描述和处理的理论框架,使得在保证信息不损失的情况下,用远低于Nyquist 采样定理要求的速率采样信号,同时又可以完全恢复信号。与信号带宽相比,稀疏性能够直观地而且相对本质地表达信号的信息。事实上,稀疏性在现代信号处理领域起着至关重要的作用。近年来基于信号稀疏性提出一种称为压缩感知或压缩采样的新兴采样理论,成功实现了信号的同时采样与压缩。

相关主题
文本预览
相关文档 最新文档