当前位置:文档之家› 像素级图像融合

像素级图像融合

像素级图像融合
像素级图像融合

毕业设计(论文)设计(论文)题目像素级图像融合方法

姓名:李桂楠

学号: 2

学院:机电与信息工程学院

专业:自动化

年级2011级

指导教师:孙甲冰

目录

摘要 (4)

Abstract (5)

第一章绪论 (1)

1.1课题背景及来源 (1)

1.2图像融合的理论基础和研究现状 (1)

1.3图像融合的应用 (1)

1.4图像融合的分类 (1)

第二章像素级图像融合的预处理 (3)

2.1图像增强 (3)

2.2图像校正 (6)

2.3图像配准 (6)

第三章像素级图像融合的方法综述 (8)

3.1加权平均图像融合方法 (8)

3.2 HIS空间图像融合方法 (8)

3.3 主成分分析图像融合方法 (8)

3.4 伪彩色图像融合方法 (9)

第四章基于小波变换的像素级图像融合概述 (10)

4.1 小波变换的基本理论 (10)

4.2 基于小波变换的图像融合 (11)

4.3基于小波变换的图像融合性能分析 (12)

第五章像素级图像融合方法的研究总结与展望 (19)

参考文献 (20)

谢辞.................................. 错误!未定义书签。

摘要

近些年,随着科学技术的飞速发展,各种各样的图像传感器出现在人们的视野前,这种样式繁多的图像传感器在不同的成像原理和不同的工作环境下具有不同功能。而因为多传感器的不断涌现,图像融合技术也越来越多的被应用于医学、勘探、海洋资源开发、生物学科等领域。

图像融合主要有像素级、决策级和特征级三个层次,而像素级图像融合作为基础能为其他层次的融合提供更准确、全面、可依赖的图像信息。本文的主要工作是针对像素级的图像融合所展开的。

关键词

图像融合理论基础、加权平均、图像融合方法、小波变换、

Abstract

In recent years, with the rapid development of science and technology, all kinds of image sensor appear in front of the people's field of vision, image sensor in a wide range of this style in different imaging principle and under different working conditions have different function. And because of multiple sensors, image fusion technology is also more and more been used in medical, exploration, Marine resources development, biological sciences, and other fields, and image fusion for national security more strategic significance to construction and economic development. Therefore, the study of image fusion is and its important theoretical significance and application prospects.

Image fusion is divided into pixel level, feature level and decision level three different levels, image fusion at pixel level and as a basis for other levels of fusion provide more accurate, comprehensive, image information can be lazy, is advantageous to the image analysis and further research. The research work of this article is the surrounding image fusion at pixel level.

Key words

image fusion, weighted average, pseudo color image fusion method and wavelet transform

第一章绪论

1.1课题背景及来源

在现代化的农业、生活、资源管理开发、国防等方面的实际应用中,图像融合被广泛的开发应用,是较为常用的图像信息融合技术,它可以对源图像中的像素进行逐个的信息融合,尽可能保留源图像中的重要信息以得到对图像更精确、更丰富的描述。为了特征级和决策级的研究提供帮助。

本章主要工作是对图像融合的理论和发展做出介绍,并在该基础上分析图像融合在实际应用前景。

1.2图像融合的理论和现状

图像融合是对不同传感器所收集到的一幅或者多幅源图像进行融合,用融合技术合成同一幅包含了多幅源图像优点、内容更加全面丰富的图像,其最早产生于20世纪70年代末,而该技术随着实际应用中的所占比例的增大在其后的时间内有了很大的发展。

虽然图像融合技术越来越多地在实际生活中得到应用,但因为该技术所覆盖领域的广泛性和该技术的多样性,研究结果只是反映了特定的方面,而不是形成完整的体系。总而言之,其中仍有很多问题有待我们的解决和探讨。

1.3图像融合的应用

多传感器技术的提高和电子科技技术方面的提高,图像融合技术越来越多的被用于实际应用中。

在民用方面,图像融合在应用于各个领域。遥感方面,随着遥感技术的发展,在同一地区可使用越来越多不同的传感器,因此能获得不同时间段的各类遥感图像信息,国土资源规划等方面都有效的利用到该技术。在医学领域,多模医学图像融合技术已经被广泛的用于医疗诊断中,根据不同影像设备可反应出人体体征情况各有不同,弥补了原来医学单一成像的缺点。

在军事领域,随着传感器的种类不停增多,可得到的战场信息战况越来越丰富,而有关于战场图像信息的分析也需要越来越准确,而多传感器图像融合技术则成为控制战争态势的有效利器。

1.4图像融合的分类

(1)按信息表征层次分类

像素级图像融合:根据某个融合规则直接对源图像灰度进行融合。像素级图像融合是最低层次的融合,但其保留信息的能力要强于决策级和特征级。但像素级融合对配准精度的要求也更高。

特征级图像融合:在像素级的基础上提取其特征信息进行综合性分析和融合处理。特征级融合首先从各个多传感器图像中提取原始信息特征,去掉其中的虚无用特征。特征级图像融合能压缩信息,还能保留图像的复合特征,可以直接为决策级融合分析提供帮助。

决策级图像融合:是最高层次的融合,从源图像中获取特征信息并进行预处理,得出各自的决策,合并成一个全局性的联合决策。决策级图像融合有较高的实时性和容错性,但是在处理过程中损失的图像信息量大,预处理的要求也比较高。

(2)按图像源分类

同类传感器图像融合:对同一传感器在不同成像模式下获得图像进行融合。

异类传感器图像融合:将不同类型的并且彼此相互独立传感器收集到的图像进行融合。

遥感图像融合:对多遥感器所获得的图像进行融合。

(3)按融合方法分类

基于空间域的图像融合:在像素级别上对图像直接进行处理。其算法有:加权平均法、主成分分析法、HIS空间法、伪彩色法等等。

基于变换域的图像融合:首先对多幅源图像进行图像变换,之后在对其获得的系数按准则进行融合,再对其进行逆变换得到融合结果。常用算法有:傅里叶变换,多尺度分解等等。

第二章 像素级图像融合的预处理

像素级图像融合是最底层的图像融合,它可以获得另外两个层级不能获得的细微的源图像信息,因为要精确要像素级别,所以在图像融合前要进行预处理,例如图像的增强、校正、配准等。

2.1图像的增强

图像增强是一类图像预处理的技术,其目的是为了获得效果更明显、对研究内容更加有用的图像信息。

图像增强的主要方法有:

1.空间域增强

2.频率域增强。

(一) 空间域增强

1.线性变换和非线性变换

在对图像的像元进行灰度值的变换以后,我们将会得到可视度更高、分辨率更为清晰的图像。根据变换函数分类,当变换函数为线性或者分段函数时,称其为线性变换。

灰度变换的过程可以表示为:g(x,y)=T[h(x,y)],射映射为T ,则输入图像中的每个像素的灰度值f (x ,y )可以通过该映射,经过变换后得到输出图像的灰度值h (x ,y )。

简单的线性变换公式课定义为:

c m y x +-=]),(h [m

-n c -d )y ,x (g ,其中,n 和m 分别为输入图像亮度分量的最大和最小值,d 和c 分别是输出图像亮度分量的最大和最小值。如图1所示,在线性变换后其灰度范围明显扩大,由[m,n]扩展为[c ,d]。变换后的图像中相邻像素灰度的差值增加,将有效改善图像视觉效果。线性变换效果图如下:

非线性变换则可以理解为,变换函数是非线性的,则为非线性变换,它是有选择的对某一灰度范围进行扩展。指数变换和对数变换都是比较常用的非线性变换。

指数变换一般公式为:

c be

x a ax b +=

对数变换一般公式为: c )1ax (blg x a b ++=

其中,a x 和b x 分别表示变换前和变换后每个像元的灰度值。a 、b 、c 为参数。

图4 非线性灰度变换

2.空间增强

为了达到强化图像特征信息的目的,则采用空间增强。领域处理:对于某一图像(i ,j ),对于该图像像元的集合{i+m ,j+n}(m 、n 为任意整数)称为该像元的领域。

由图可知g(i,j)可由f (i ,j )确定,它们分别为处理前和处理后的像元值,这种处理称为领域处理。领域运算的计算表达式为:

)],([),(g j i N j i N ?=

N ?为对),(j i N 像元的运算法则。

卷积运算:在空间域上对图像做加权求和的过程。需选定一个模板。 在运算前,需选定一个大小为B A ?的运算模板),(b a ?。并建立一个和模板大小相同的活动窗口),(f b a ,再将模板与窗口的对应的灰度值做对应运算。得到新的窗口中心灰度值。其公式为:

∑∑==?=B

b A a b a b a f n m g 11),(),(),(? 将模板和窗口作相同移动后再按上式计算得出新的灰度值。根据该公式进行类推,最后获得目标图像。

平滑:传感器在成像过程会存在各种客观原因造成的误差,图像在形成过程中会出现“噪声。”平滑的目的是为提高图像质量而进行的处理。

锐化:锐化可突出边缘和线状口信息。

(二)频率域增强

在图像处理过程中,像元的灰度值随着位置变化的频繁程度用频率来表示,属于空间频率。对于边缘、线条、噪声等特征,在短像元距离内灰度值变化频率较大,而在长像元距离内灰度值逐渐变化。

频率域增强的过程如下:

),(),(),()v u,(),(傅里叶变换滤波傅里叶变换v u g v u G v u H F y x f ?????→?→???→??????→?

(三)彩色增强

1.伪彩色增强

一副黑白的图像在经过一定规则的变换后得到彩色图像的过程为伪彩色增强。

2.假彩色增强

假彩色增强与伪彩色增强不基本相似,而它与伪彩色增强不同在于它与原波段的真实颜色不相同,它呈现出来的颜色并不是物体的真是颜色。

(四)图像运算

为了达到图像增强的目的,可对图像运用代数方法进行运算。

1.加法运算

是指两幅大小相同的图像对它们的像元的灰度值进行相加。

若设加法运算后的图像为),(y x f a ,两幅图像分别为),(和),(21y x f y x f ,则

加法运算公式为:

)],(),([),(21y x f y x f a y x f a +=

2.差值运算

差值运算是指两幅同样大小的图像对它们的灰度值进行相减。

若差值运算后的图像为),(y x f b ,两幅图像为),(1y x f 和),(2y x f ,则差值运算

公式为:

]),(),([),(21b y x f y x f a y x f b +-=

3.比值运算

比值运算是针对两幅大小相同的图像,对它们对应的像元进行除法运算。 若比值运算后的图像为),(y x f c ,两幅图像为),(和),(21y x f y x f ,则比值运算

公式为: ])

,(),([),(21y x f y x f a Int y x f c ?= 2.2图像校正

1.准备工作:对源图像包含的数据信息进行收集整理;

2.输入原始数字影像;

3.建立校正变换函数。

(1)多项式校正法;

(2)共线方程校正法。

2.3图像配准

(1)对图像灰度信息进行配准

该方法在图像灰度上对图像的相似程度进行统计,主要有互相关法、序贯相似度检测匹配法和交互信息。

对于一幅图像I 和一个模板T ,二维交叉相关函数定义为: 21

2)],([)

,(),(),(v y u x I u y u x I y x T v u C y x y x --∑∑--∑∑=

),(y x C 为图像上进行了相似程度为(u,v)的位移。

序贯相似检测法相对来说是更容易实现的方法,其准则定义为:

)),(),((),(),(v u v y u x I T y x T v u E I y x ∧∧-----∑∑=

其中,I T ∧

和分别为模板和图像窗口的均值。 交互信息I 由A 、B 的个体熵)定义n m,(和联合熵)(、)

m (G n G G ),()()(),(n m G n G m G n m I -+=

式中,??-=-=)]([)()(;)]([),()(n p In n p n H dm m p In n m p m G dn;

??-=In n m p n m G ),(),([p(m,n)]dmdn;p(m)和p (n )为随机变量M 和N 的边缘概率密度,p(m,n)为M 和N 的联合概率密度分布。

(2)对变换域进行图像配准

相位相关是重要的配准方法之一,在对图像运用傅里叶变换时。设),(和),(21y x f y x f 两幅图像,),(00y x 是两幅图像的平移量,则:

),(),(0012y y x x f y x f --=

而它们之间的傅里叶变换满足下式:

),())(2exp(),(1002v u F vy ux j v u F *+-=π

(3)基于特征的图像配准方法

1.特征提取,根据图像性质提取对配准有用的特征信息。

2.特征匹配,将两幅图像中提取的特征作对应。

3.图像转换,利用特征信息进行转换后获得目标图像。

实验五_不同分辨率图像融合

实验五不同分辨率图像融合 一实验目的 通过本次实验了解图像数据融合的基本原理和基本思路,学会利用ERDAS软件进行不同分辨率图像之间的融合,并对不同数据融合方法进行分析和比较,掌握不同数据融合方法的基本操作。 二实验原理 在遥感中,数据融合属于一种属性融合,它是将同一地区的多源遥感影像数据加以智能化合成,产生比单一信息源更精确、更完全、更可靠的估计和判断。 在ERDAS是指分辨率融合(Resolution Merge)是对不同空间分辨率遥感图像的融合处理,使处理后的遥感图像既具有较好的空间分辨率,又具有多光谱特征,从而达到图像增强的目的。 一般来说,遥感影像的数据融合分为预处理和数据融合两步: 1.预处理:主要包括遥感影像的几何纠正、大气订正、辐射校正及空间配准 (1)几何纠正、大气订正及辐射校正的目的主要在于去处透视收缩、叠掩、阴影等地形因素以及卫星扰动、天气变化、大气散射等随机因素对成像结果一致性的影响; (2)影像空间配准的目的在于消除由不同传感器得到的影像在拍摄角度、时相及分辨率等方面的差异。空间配准的精度一般要求在1~2个像元内。 2.ERDAS软件提供了三种图像融合方法: 1、主成分变换融合(Pinciple Component) 主成分变换融合是建立在图像统计特征基础上的多维线性变换,具有方差信息浓缩、数据量压缩的作用,可以更准确地提示提示多波段数据结构内部的遥感信息,常常是以高分辨率数据替代多波段数据变换以后的第一主成分来达到融合的目的。具体过程是首选对输入的多波段遥感数据进行主成分变换,然后以高空间分辨遥感数据替代变换以后的第一主成分,最后再进行主成分逆变换,生成具有高空间分辨率的多波段融合图像。 2、乘积变换融合(Mutiplicative) 乘积变换融合应用最基本的乘积组合算法直接对两种空间分辨率的遥感数据进地合成,即Bi_new=Bi_m*B_h,其中Bi_new代表融合以后的波段数值(i=1,2,3,..n),Bi_m表示多波段图像中的任意一个波段数值,B_h代表高分辨率遥感数据。乘积变换是由crippen的4种分析技术演变而来的,cippen研究表明:将一定亮度的图像进行变换处理时,只有乘法变换可以使其色彩保持不变。 3、比值变换融合(Brovey Transform) 比值变换融合是将输入遥感数据的3个波段按照下列公式进行计算,获得融合以后各波段的数据:Bi_new=[Bi_m/(Br_m+Bg_m+Bb_m)]*B_h,其中Bi_new代表融合以后的波段数值(i=1,2,3),Br_m,Bg_m,Bb_m分别代表多波段图像中的红绿蓝波段数值,Bi_m表示红、绿、蓝3波段中的任意一个,B_h代表高分辨率遥感数据。 三实验内容 数据融合:主成分变换融合(Pinciple Component),乘积变换融合(Mutiplicative),比值变换融合(Brovey Transform) 四实验数据

像素级图像融合讲解

山东大学(威海)毕业论文 毕业设计(论文)设计(论文)题目像素级图像融合方法 姓名:李桂楠 学号:201100800668 学院:机电与信息工程学院 专业:自动化 年级2011级 指导教师:孙甲冰

目录 摘要 (4) Abstract (5) 第一章绪论 (1) 1.1课题背景及来源 (1) 1.2图像融合的理论基础和研究现状 (1) 1.3图像融合的应用 (1) 1.4图像融合的分类 (1) 第二章像素级图像融合的预处理 (3) 2.1图像增强 (3) 2.2图像校正 (6) 2.3图像配准 (6) 第三章像素级图像融合的方法综述 (8) 3.1加权平均图像融合方法 (8) 3.2 HIS空间图像融合方法 (8) 3.3 主成分分析图像融合方法 (8) 3.4 伪彩色图像融合方法 (9) 第四章基于小波变换的像素级图像融合概述 (10) 4.1 小波变换的基本理论 (10) 4.2 基于小波变换的图像融合 (11) 4.3基于小波变换的图像融合性能分析 (12)

第五章像素级图像融合方法的研究总结与展望 (19) 参考文献 (20) 谢辞................................. 错误!未定义书签。

摘要 近些年,随着科学技术的飞速发展,各种各样的图像传感器出现在人们的视野前,这种样式繁多的图像传感器在不同的成像原理和不同的工作环境下具有不同功能。而因为多传感器的不断涌现,图像融合技术也越来越多的被应用于医学、勘探、海洋资源开发、生物学科等领域。 图像融合主要有像素级、决策级和特征级三个层次,而像素级图像融合作为基础能为其他层次的融合提供更准确、全面、可依赖的图像信息。本文的主要工作是针对像素级的图像融合所展开的。 关键词 图像融合理论基础、加权平均、图像融合方法、小波变换、

多聚焦图像融合源代码

针对经典的最大系数法不准确和方差法计算量大的问题,本文给出了一种混合多级式多聚焦图像融合方法。对于三层小波分解的多聚焦图像融合,每幅图像被分解为三层十个频带。对这十个频带本文分别采用三种方法进行融合。对于低频系数,本文仍然采用求平均法;对于高频系数本文采用方差法和最大系数法进行融合。它们的计算量比最大系数法大一些,但是融合结果更接近于原始清晰图像,而相比于方差法,它们的计算量小的多,但是融合质量稍差一些,应用者可以根据不同的需要进行选择。 本文还给出了一种基于Canny算 子边缘检测的小波变换多聚焦图像融 合方法。首先对图像进行三层小波分 解,然后用Canny算子进行边缘检测, 得到各层分辨率下的边缘图像;对相 应分辨率的高频小波系数根据其是否 为图像的边缘点采用最大系数法或方 差法分别进行融合。仿真实验证明该 方法效果良好,计算量可以灵活调节。 关键词:小波变换;多尺度几何分析;多聚焦图像融合;边缘检测主要程序: clear all; close all; leo1=imread('a1.bmp');%读入图片 leo2=imread('a2.bmp') T=0.4;k1=0.5;k2=0.5;w='db4';m='edge'; tic; outdoor1=leo1; outdoor2=leo2; %三层小波分解 [ca11,chd11,cvd11,cdd11]=dwt2(outdoor1,w); [ca12,chd12,cvd12,cdd12]=dwt2(ca11,w); [ca13,chd13,cvd13,cdd13]=dwt2(ca12,w); [ca21,chd21,cvd21,cdd21]=dwt2(outdoor2,w); [ca22,chd22,cvd22,cdd22]=dwt2(ca21,w); [ca23,chd23,cvd23,cdd23]=dwt2(ca22,w); %求边缘图像 e11=edge(ca11,'canny',T); e12=edge(ca12,'canny',T); e13=edge(ca13,'canny',T); e21=edge(ca21,'canny',T); e22=edge(ca22,'canny',T); e23=edge(ca23,'canny',T); %矩阵融合 chd3=matfusion(chd13,chd23,e13,e23); cvd3=matfusion(cvd13,cvd23,e13,e23); cdd3=matfusion(cdd13,cdd23,e13,e23); chd2=matfusion(chd12,chd22,e12,e22); cvd2=matfusion(cvd12,cvd22,e12,e22); cdd2=matfusion(cdd12,cdd22,e12,e22); chd1=matfusion(chd11,chd21,e11,e21); cvd1=matfusion(cvd11,cvd21,e11,e21); cdd1=matfusion(cdd11,cdd21,e11,e21); ca3=k1*ca13+k2*ca23; %反小波变换 L2=size(chd2);L1=size(chd1); ca2=idwt2(ca3,chd3,cvd3,cdd3,w); ca1=idwt2(ca2(1:L2(1),1:L2(2)),chd2,cvd2,cd d2,w); I=idwt2(ca1(1:L1(1),1:L1(2)),chd1,cvd1,cdd1, w);

红外图像与可见光图像融合笔记

红外图像与可见光图像融合 ——笔记 图像融合是将来自不同传感器在同一时间(或者不同时间)对同一目标获取的两幅或者多幅图像合成为一幅满足某种需求图像的过程。 为了获得较好的融合效果,在研究融合算法之前,对图像预处理理论及方法进行了研究。预处理理论主要包括图像去噪、图像配准和图像增强。图像去噪目的是为了减少噪声对图像的影响。图像配准是使处于不同状态下的图像达到统一配准状态的方法。图像增强是为了突出图像中的有用信息,改善图像的视觉效果,并方便图像的进一步融合。 图像融合评价方法:主观评价和客观评价。指标如:均值、标准差、信息熵等。 针对 IHS 变换和小波变换的优缺点,本文提出了一种基于这两种变换结合的图像融合方法。该算法的具体实现步骤如下:先对彩色可见光图像进行 IHS 变换,对红外图像进行增强,然后将变换后得到的 I 分量与已增强的红外图像进行 2 层小波分解,将获得的低频子带和高频子带使用基于窗口的融合规则,而后对分量进行小波重构和 IHS 逆变换,最后得到融合结果。经仿真实验证明,此结果优于传统 IHS 变换和传统小波变换,获得了较好的融合结果,既保持了可见光图像中的大量彩色信息又保留了红外图像的重要目标信息。 红外传感器反映的是景物温度差或辐射差,不易受风沙烟雾等复杂条件的影响。一般来说,红外图像都有细节信息表现不明显、对比度低、成像效果差等缺点,因此其可视性并不是很理想。 可见光成像传感器与红外成像传感器不同,它只与目标场景的反射有关与其他无关,所以可见光图像表现为有较好的颜色等信息,反应真实环境目标情况,但当有遮挡时就无法观察出遮挡的目标。 利用红外传感器发现烟雾遮挡的目标或在树木后的车辆等。在夜间,人眼不能很好的辨别场景中的目标,但由于不同景物之间存在着一定的温度差,可以利用红外传感器,它可以利用红外辐射差来进行探测,这样所成的图像虽然不能直接清晰的观察目标,但是能够将目标的轮廓显示出来,并能依据物体表面的温度和发射率的高低把重要目标从背景中分离出来,方便人眼的判读。但由于自身成像原理以及使用条件等原因,所形成图像具有噪声大、对比度低、模糊不清、视觉效果差等问题。不利于人眼判读。 可以将两者图像融合在一起,这样可以丰富图像信息,提高图像分辨率,增强图像的光谱信息,弥补单一传感器针对特定场景表达的不全面,实现对场景全面清晰准确的表达。 两者的主要区别有: (1)可见光图像与红外图像的成像原理不同,前者依据物体的反射率的不同进行成像,后者依据物体的温度或辐射率不同进行成像,因此红外图像的光谱信息明显不如可见光图像。

遥感图像融合方法比较

1 绪论 1.1研究目的及意义 20世纪90年代中后期以后,搭载许多新型传感器的卫星相继升空,使得同一地区的遥感数据影像数目不断增多。如何有效地利用这些不同时相、不同传感器、不同分辨率的遥感数据便成为了遥感工作者研究的瓶颈问题,然而解决这一问题的关键技术就是遥感影像数据融合。 遥感数据融合就是对多个遥感器的图像数据和其他信息的处理过程,它着重于把那些在空间或时间上冗余或互补的多源数据,按一定法则(算法)进行处理,获得比单一数据更精确、更丰富的信息,生成一幅具有新的空间、波谱和时间特征的合成图像。 遥感是不同空间、时间、波谱、辐射分辨率提供电磁波谱不同谱段的数据。由于成像原理不同和技术条件的限制,任何一个单一遥感器的遥感数据都不能全面的反映目标对象的特征,也就是有一定的应用范围和局限性。各类非遥感数据也有它自身的特点和局限性。影像数据融合技术能够实现数据之间的优势互补,也能实现遥感数据与地理数据的有机结合。数据融合技术是一门新兴的技术,具有十分广阔的应用前景。所以,研究遥感影像数据融合方法是非常必要的。 1.2研究现状及发展的趋势 1.2.1研究现状 20世纪美国学者提出“多传感器信息融合”的概念认为在多源遥感影像数据中能够提取出比单一遥感影像更丰富、更有效、更可靠的信息。之后由于军事方面的要求,使得遥感影像数据融合技术得到了很大的发展,美、英,德等国家已经研制出了实用的遥感数据融合处理的系统和软件,同时进行了商业应用。 1)、融合结构 融合的结构可分为两类:集中式和分布式。集中式融合结构:各传感器的观测数据直接被送到中心,进行融合处理,用于关联、跟踪、识别等。分布式融合结构:每个传感器独立完成关联、识别、跟踪,然后由融合中心完成配准、多源关联的融合。 2)、融合的层次 图像融合可分为:像元级融合、特征级融合和决策级融合。 像元级融合是最低级的信息融合,可以在像素或分辨单位上进行,又叫做数据级融合。它是对空间配准的遥感影像数据直接融合,然后对融合的数据进行特征提取和属性说明。 特征级融合是由各个数据源中提取特征信息进行综合分析和处理的过程,是中间层次的融合。特征级融合分为目标状态信息融合和目标特征融合。 决策级融合是在信息表示的最高层次上进行融合处理。首先将不同传感器观测同一目标获得的数据进行预处理、特征提取、识别,以建立对所观测目标的初步理论,然后通过相关处理、决策级融合判别,最终获得联合推断结果,从而为决策提供依据。

三种图像融合方法实际操作与分析

摘要:介绍了遥感影像三种常用的图像融合方式。进行实验,对一幅具有高分辨率的SPOT全色黑白图像与一幅具有多光谱信息的SPOT图像进行融合处理,生成一幅既有高分辨率又有多光谱信息的图像,简要分析比较三种图像融合方式的各自特点,择出本次实验的最佳融合方式。 关键字:遥感影像;图像融合;主成分变换;乘积变换;比值变换;ERDAS IMAGINE 1. 引言 由于技术条件的限制和工作原理的不同,任何来自单一传感器的信息都只能反映目标的某一个或几个方面的特征,而不能反应出全部特征。因此,与单源遥感影像数据相比,多源遥感影像数据既具有重要的互补性,也存在冗余性。为了能更准确地识别目标,必须把各具特色的多源遥感数据相互结合起来,利用融合技术,针对性地去除无用信息,消除冗余,大幅度减少数据处理量,提高数据处理效率;同时,必须将海量多源数据中的有用信息集中起来,融合在一起,从多源数据中提取比单源数据更丰富、更可靠、更有用的信息,进行各种信息特征的互补,发挥各自的优势,充分发挥遥感技术的作用。[1] 在多源遥感图像融合中,针对同一对象不同的融合方法可以得到不同的融合结果,即可以得到不同的融合图像。高空间分辨率遥感影像和高光谱遥感影像的融合旨在生成具有高空间分辨率和高光谱分辨率特性的遥感影像,融合方法的选择取决于融合影像的应用,但迄今还没有普适的融合算法能够满足所有的应用目的,这也意味着融合影像质量评价应该与具体应用相联系。[2] 此次融合操作实验是用三种不同的融合方式(主成分变换融合,乘积变换融合,比值变换融合),对一幅具有高分辨率的SPOT全色黑白图像与一幅具有多

光谱信息的SPOT图像进行融合处理,生成一幅既有高分辨率又有多光谱信息的图像。 2. 源文件 1 、 imagerycolor.tif ,SPOT图像,分辨率10米,有红、绿、两个红外共四个波段。 2 、imagery-5m.tif ,SPOT图像,分辨率5米。 3. 软件选择 在常用的四种遥感图像处理软件中,PCI适合用于影像制图,ENVI在针对像元处理的信息提取中功能最强大,ER Mapper对于处理高分辨率影像效果较好,而ERDAS IMAGINE的数据融合效果最好。[3] ERDAS IMAGINE是美国Leica公司开发的遥感图像处理系统。它以其先进的图像处理技术,友好、灵活的用户界面和操作方式,面向广阔应用领域的产品模块,服务于不同层次用户的模型开发工具以及高度的RS/GIS(遥感图像处理和地理信息系统)集成功能,为遥感及相关应用领域的用户提供了内容丰富而功能强大的图像处理工具。 2012年5月1日,鹰图发布最新版本的ERDAS IMAGINE,所有ERDAS 2011软件用户都可以从官方网站上下载最新版本 ERDAS IMAGINE 11.0.5. 新版本包括之前2011服务包的一些改变。相比之前的版本,新版本增加了更多ERDAS IMAGINE和GeoMedia之间的在线联接、提供了更为丰富的图像和GIS产品。用户使用一个单一的产品,就可以轻易地把两个产品结合起来构建一个更大、更清

图像融合的研究背景和研究意义

图像融合的研究背景和研究意义 1概述 2 图像融合的研究背景和研究意义 3图像融合的层次 像素级图像融合 特征级图像融合 决策级图像融合 4 彩色图像融合的意义 1概述 随着现代信息技术的发展,图像的获取己从最初单一可见光传感器发展到现在的雷达、高光谱、多光谱红外等多种不同传感器,相应获取的图像数据量也急剧增加。由于成像原理不同和技术条件的限制,任何一个单一图像数据都不能全面反应目标对象的特性,具有一定的应用范围和局限性。而图像融合技术是将多种不同特性的图像数据结合起来,相互取长补短便可以发挥各自的优势,弥补各自的不足,有可能更全面的反映目标特性,提供更强的信息解译能力和可靠的分析结果。图像融合不仅扩大了各图像数据源的应用范围,而且提高了分析精度、应用效果和使用价值,成为信息领域的一个重要的方向。图像配准是图像融合的重要前提和基础,其误差的大小直接影响图像融合结果的有效性。 作为数据融合技术的一个重要分支,图像融合所具有的改善图像质量、提高几何配准精度、生成三维立体效果、实现实时或准实时动态监测、克服目标提取与识别中图像数据的不完整性等优点,使得图像融合在遥感观测、智能控制、无损检测、智能机器人、医学影像(2D和3D)、制造业等领域得到广泛的应用,成为当前重要的信息处理技术,迅速发展的军事、医学、自然资源勘探、环境和土地、海洋资源利用管理、地形地貌分析、生物学等领域的应用需求更有力地刺激了图像融合技术的发展。 2 图像融合的研究背景和研究意义 Pohl和Genderen对图像融合做了如下定义:图像融合就是通过一种特定算法将两幅或多幅图像合成为一幅新图像。它的主要思想是采用一定的算法,把

多聚焦图像融合算法研究

本科毕业设计论文题目多聚焦图像融合算法研究 专业名称 学生姓名 指导教师 毕业时间

毕业 任务书 一、题目 多聚焦图像融合算法研究 二、指导思想和目的要求 本题目来源于科研,主要研究多聚焦图像的概念,学习多聚焦图像的常用融合算法,进而实现相关算法。希望通过该毕业设计,学生能达到: 1.利用已有的专业知识,培养学生解决实际工程问题的能力; 2.锻炼学生的科研工作能力和培养学生团队合作及攻关能力。 三、主要技术指标 1.学习多聚焦图像的特点; 2.研究多聚焦图像的融合算法; 3.实现多聚焦图像的融合。 四、进度和要求 第01周----第02周: 参考翻译英文文献; 第03周----第04周: 学习多聚焦图像的特点; 第05周----第08周: 研究多聚焦图像的融合算法; 第09周----第14周: 编写多聚焦图像的融合程序; 第15周----第16周: 撰写毕业设计论文,论文答辩。 五、主要参考书及参考资料 1.张德丰.MATLAB 数字图像处理[M].北京:机械工业出版社,201 2. 2. 敬忠良. 图像融合——理论与应用[M].北京:高等教育出版社,2010. 3. 郭雷. 图像融合[M]. 北京:电子工业出版社,2011. 4. 孙巍. 孙巍. 像素及多聚焦图像融合算法研究[D].长春:吉林大学,2008. 5. 马先喜. 多聚焦图像融合算法研究[D].无锡:江南大学,2012. 学生 指导教师 系主任 __ __ 设计 论文

摘要 图像融合是将同一对象的两个或多个图像按一定规则合成为一幅图像。其关键是抽取每幅源图像中的清晰区域,并将这些清晰区域以一定的规则融合起来,从而生成一幅清晰且信息量完整的融合图像。多聚焦图像融合的具体目标在于提高图像的空间分辨率、改善图像的几何精度、增强特征显示能力、改善分类精度、替代或修补图像数据的缺陷等。 本文概括了多聚焦图像融合的一些基本概念和相关的基本知识,对DWT分解的层数和方向子带的个数对融合结果的影响进行了初步的研究。并就加权平均法、单层DWT分解、二层及二层以上DWT分解对多聚焦图像的融合进行了算法研究和编程实现,并对这些方法的仿真结果进行了比较分析。 仿真结果表明,基于空间域的加权平均法的融合效果非常一般,在图像的细节表现力方面存在很大的不足;而基于变换域中的小波变换的低频取平均、高频取绝对值最大的融合算法在小波分解层数达到三层时,所得融合图像的性能指标,如信息熵、空间频率和清晰度都较为理想,达到了预期目的。可见多层DWT分解融合方法具有较高的应用价值,可以将其用于图片的判读分析,如指纹识别、人脸鉴别、不完整图片的复原等。 关键词:图像融合,多聚焦图像,加权平均,DWT

遥感影像融合处理方法

遥感影像融合处理方法 摘要:本文介绍了遥感影像数据融合技术,并给出了融合的一些基本理论、融合处理一般步骤以及常用融合处理方法,最后简要描述了融合评价的方式方法等。 关键词:遥感影像融合融合评价 1、前言 将高分辨率的全色遥感影像和低分辨率的多光谱遥感影像进行融合,获得色彩信息丰富且分辨率高的遥感融合影像的过程,成为遥感影像融合。全色影像一般具有较高空间分辨率,多光谱影像光谱信息较丰富,为提高多光谱影像的空间分辨率,可以将全色影像融合进多光谱影像。通过影像融合既可以提高多光谱影像空间分辨率,又能保留其多光谱特性。 2、遥感影像融合一般步骤 遥感影像信息融合一般流程主要分为两个阶段:图像预处理,图像融合变换。 图像预处理主要包括:几何校正及影像配准。几何校正主要在于去除透视收缩、阴影等地形因素以及卫星扰动、天气变化、大气散射等随机因素对成像结果一致性的影响;影像配准的目的在于消除由不同传感器得到的影像在拍摄角度、时相及分辨率等方面的差异。 3 常用融合方式 3.1 IHS融合 IHS(亮度I、色度H、饱和度S)变换就是将影像从RGB彩色空间变换到IHS空间来实现影像融合的一种方法。由光学、热红外和雷达(微波)等方式得到的不同波段遥感数据,合成的RGB颜色空间是一个对物体颜色属性描述系统,而IHS色度空间提取出物体的亮度、色度、饱和度,它们分别对应每个波段的平均辐射强度、数据向量和的方向及其等量数据的大小。RGB颜色空间和IHS 色度空间有着精确的转换关系。IHS变换法只能用三个波段的多光谱影像融合和全色影像融合。 3.2 小波融合 小波变换,基于遥感影像的频域分析进行的,由于同一地区不同类型的影像,低频部分差别不大,而高频部分相差很大,通过小波变换对变换区实现分频,在分频基础上进行遥感影像的融合,常用于雷达影像SAR与TM影像的融合。

像素级图像融合

毕业设计(论文)设计(论文)题目像素级图像融合方法 姓名:李桂楠 学号: 2 学院:机电与信息工程学院 专业:自动化 年级2011级 指导教师:孙甲冰

目录 摘要 (4) Abstract (5) 第一章绪论 (1) 1.1课题背景及来源 (1) 1.2图像融合的理论基础和研究现状 (1) 1.3图像融合的应用 (1) 1.4图像融合的分类 (1) 第二章像素级图像融合的预处理 (3) 2.1图像增强 (3) 2.2图像校正 (6) 2.3图像配准 (6) 第三章像素级图像融合的方法综述 (8) 3.1加权平均图像融合方法 (8) 3.2 HIS空间图像融合方法 (8) 3.3 主成分分析图像融合方法 (8) 3.4 伪彩色图像融合方法 (9) 第四章基于小波变换的像素级图像融合概述 (10) 4.1 小波变换的基本理论 (10) 4.2 基于小波变换的图像融合 (11) 4.3基于小波变换的图像融合性能分析 (12)

第五章像素级图像融合方法的研究总结与展望 (19) 参考文献 (20) 谢辞.................................. 错误!未定义书签。

摘要 近些年,随着科学技术的飞速发展,各种各样的图像传感器出现在人们的视野前,这种样式繁多的图像传感器在不同的成像原理和不同的工作环境下具有不同功能。而因为多传感器的不断涌现,图像融合技术也越来越多的被应用于医学、勘探、海洋资源开发、生物学科等领域。 图像融合主要有像素级、决策级和特征级三个层次,而像素级图像融合作为基础能为其他层次的融合提供更准确、全面、可依赖的图像信息。本文的主要工作是针对像素级的图像融合所展开的。 关键词 图像融合理论基础、加权平均、图像融合方法、小波变换、

多聚焦图像像素级融合算法研究

多聚焦图像像素级融合算法研究 多聚焦图像融合是多源图像融合领域的一个重要分支,主要用于同一光学传感器在相同成像条件下获取的聚焦目标不同的多幅图像的融合处理。由于聚焦范围有限,光学成像系统不能将焦点内外的所有目标同时清晰成像,导致图像分析时需要耗费大量时间和精力。 多聚焦图像融合是一种解决光学成像系统聚焦范围局限性问题的有效方法,可以有效提高图像信息的利用率,扩大系统工作范围,增强系统可靠性,更加准确的描述场景中的目标信息。目前,该技术广泛应用于交通、医疗、物流、军事等领域。 多聚焦图像像素级融合是多聚焦图像融合的基础,它获得的原始信息最多,能够提供更多的细节信息。如何准确定位并有效提取源图像中的聚焦区域是多聚焦图像像素级融合的关键。 由于受图像内容复杂性影响,传统的多聚焦图像像素级融合方法很难对源图像中聚焦区域准确定位,且融合图像质量并不理想。本论文针对现有多聚焦图像像素级融合方法存在的不足,在空间域内对多聚焦图像像素级融合算法进行了深入研究。 论文主要研究内容如下:1、提出了基于鲁棒主成分分析(Robust Principal Component Analysis, RPCA)与脉冲耦合神经网络(Pulse Coupled Neural Network, PCNN)的多聚焦图像融合算法。根据RPCA构建的低维线性子空间可表示高维图像数据,增强目标特征信息,对噪声具有鲁棒性的特点,将源图像在RPCA分解域的稀疏特征作为PCNN神经元的外部输入,并根据PCNN神经元的点火频率来定位源图像中的聚焦区域,增强了融合算法对噪声的鲁棒性,提高了融合

图像质量。 2、提出了基于RPCA与四叉树分解相结合的多聚焦图像融合算法。利用源图像稀疏矩阵的区域一致性进行块划分,有利于提高聚焦区域信息提取的完整性和准确性。 此外,四叉树分解用树结构存储图像块划分结果,有利于提高源图像递归剖分的效率。该算法在自适应确定最优分块大小的基础上,利用稀疏矩阵各稀疏矩阵子块的局部特征检测源图像的聚焦区域,抑制了“块效应”对融合图像质量的影响,取得了良好的融合效果。 3、提出了基于图像分解的多成分图像融合算法。利用基于 (Rudin-Osher-Fatemi, ROF)模型的Split Bregman算法将源图像分解为卡通和纹理部分,用卡通成分和纹理成分中像素邻域窗口的梯度能量(Energy of image Gradient, EOG)检测聚焦区域像素,并根据融合规则对这些像素进行融合,将融合后的卡通和纹理部分合并实现图像融合。 该算法提高了融合算法对源图像几何特征描述的完整性,提升了融合算法性能,改善了融合图像的视觉效果。4、提出了基于非负矩阵分解(Negative Matrix Factorization, NMF)和聚焦区域检测的多聚焦图像融合算法。 利用NMF的纯加性和稀疏性,对多聚焦图像进行初始融合,利用初始融合图像与源图像间的差异图像的局部梯度特征检测聚焦区域,根据融合规则将检测到的聚焦区域进行合并得到最后的融合图像。该算法提高了聚焦区域检测准确性,改善了传统NMF融合算法所得融合图像对比度,提高了融合图像质量。 最后,对本文的主要研究工作和创新点进行总结,并对未来研究方向进行了展望。

高分辨率遥感图像融合方法的比较正式

包头师范学院 本科学年论文 论文题目:高分辨率遥融图像融合方法比较院系:资源与环境学院 专业:地理信息系统 学号:0912430022 姓名:郭殿繁 指导教师:同丽嘎 撰写学年:2010 至2011 学年 二零一零年十二月

摘要:目前,遥感中高分辨率全色遥感影像和低空间分辨率的多光谱遥感影像融合是影像融合技术应用的主流。本文通过对遥感影像四种融合方法的研究,并且用呼和浩特市快鸟影像图像融合举例,加深对四种融合方法的理解和理论应用,最后通过截取呼和浩特市快鸟影像的原始多波段彩色影像和原始高分辨率全色波段影像的一部分进行四种融合方法来进行精度的比较,以ENVI4.7软件作为平台,最终得出,Gram-Schmidt变换效果最好,HSV变换融合效果最差。 关键词:图像融合;PCA变换;Gram-Schmidt变换;Brovey变换;HSV变换;精度比较 Abstract: At present, the remote sensing high resolution full-color remote sensing image and low spatial resolution multi-spectral remote sensing image fusion is image fusion technology application of mainstream. This article through to four kinds of remote sensing image fusion method with the principle and analysis, and in Hohhot, fast image image fusion for example, the bird to deepen the understanding of four fusion method and theory, and finally by intercepting the original image Hohhot fast bird multichannel color image and primitive high-resolution full-color band image on the part of four fusion method for precision compared to ENVI4.7 software as a platform to finally arrive, the best effect, Schmidt transform - the worst. Fusion result transformation HSV. Key words: image fusion, PCA transform; Schmidt transform; the - Brovey transform; HSV transform; Precision;

图像融合

图像融合的定义 数字图像融合(Digital Image Fusion)是以图像为主要研究内容的数据融合技术,是把多个不同模式的图像传感器获得的同一场景的多幅图像或同一传感器在不同时刻获得的同一场景的多幅图像合成为一幅图像的过程。由于不同模式的图像传感器的成像机理不同,工作电磁波的波长不同,所以不同图像传感器获得的同一场景的多幅图像之间具有信息的冗余性和互补性,经图像融合技术得到的合成图像则可以更全面、更精确地描述所研究的对象。正是由于这一特点,图像融合技术现已广泛地应用于军事、遥感、计算机视觉、医学图像处理等领域中。 数字图像融合是图像分析的一项重要技术,该技术在数字地图拼接、全景图、虚拟现实等领域有着重要应用。虽然Photoshop等图像处现软件提供了图像处理功能,可以通过拖放的方式进行图像拼接,但由于完全是手工操作,单调乏味,且精度不高,因此,有必要寻找一种方便可行的图像融合方法。Matlab具有强大的计算功能和丰富的工具箱函数,例如图像处理和小波工具箱包含了大多数经典算法,并且它提供了一个非常方便快捷的算法研究平台。 一、图像融合算法 2.1图象融合算法的层次分类 图像融合系统的算法按层次结构划分可分为信号级、像素级、特征级和决策级。 信号级融合:是指合成一组传感器信号,目的是提供与原始信号形式相同但品质更高的信号。 像素级图像融合:是指直接对图像中像素点进行信息综合处理的过程。像素级图像融合的目的是生成一幅包含更多信息、更清晰的图像。像素级图像融合属于较低层次的融合,目前,大部分研究集中在该层次上。 特征级图像融合:是指从各个传感器图像中提取特征信息,并将其进行综合分析和处理的过程。提取的特征信息应是像素信息的充分表示量或充分统计量,典型的特征信息有边缘、形状、轮廓、角、纹理、相似亮度区域、相似景深区域等。在进行融合处理时,所关心的主要特征信息的具体形式和内容与多传感器图像融合的应用目的、场合密切相关。通过特征级图像融合可以在原始图像中挖掘相关特征信息、增加特征信息的可信度、排除虚假特征、建立新的复合特征等。

多聚焦图像融合方法综述

多聚焦图像融合方法综述 摘要:本文概括了多聚焦图像融合的一些基本概念和相关知识。然后从空域和频域两方面将多聚焦图像融合方法分为两大块,并对这两块所包含的方法进行了简单介绍并对其中小波变换化法进行了详细地阐述。最后提出了一些图像融合方法的评价方法。 关键词:多聚焦图像融合;空域;频域;小波变换法;评价方法 1、引言 按数据融合的处理体系,数据融合可分为:信号级融合、像素级融合、特征级融合和符号级融合。图像融合是数据融合的一个重要分支,是20世纪70年代后期提出的概念。该技术综合了传感器、图像处理、信号处理、计算机和人工智能等现代高新技术。它在遥感图像处理、目标识别、医学、现代航天航空、机器人视觉等方面具有广阔的应用前景。 Pohl和Genderen将图像融合定义为:“图像融合是通过一种特定的方法将两幅或多幅图像合成一幅新图像”,其主要思想是采用一定的方法,把工作于不同波长范围、具有不同成像机理的各种成像传感器对同一场景成像的多幅图像信息合成一幅新的图像。 作为图像融合研究重要内容之一的多聚焦图像融合,是指把用同一个成像设备对某一场景通过改变焦距而得到的两幅或多幅图像中清晰的部分组合成一幅新的图像,便于人们观察或计算机处理。图像融合的方法大体可以分为像素级、特征级、决策级3中,其中,像素级的图像融合精度较高,能够提供其他融合方法所不具备的细节信息,多聚焦融合采用了像素级融合方法,它主要分为空域和频域两大块,即: (1)在空域中,主要是基于图像清晰部分的提取,有梯度差分法,分块法等,其优点是速度快、方法简单,不过融合精确度相对较低,边缘吃力粗糙; (2)在频域中,具有代表性的是分辨方法,其中有拉普拉斯金字塔算法、小波变换法等,多分辨率融合精度比较高,对位置信息的把握较好,不过算法比较复杂,处理速度比较慢。 2、空域中的图像融合 把图像f(x,y)看成一个二维函数,对其进行处理,它包含的算法有逻辑滤波器法、加权平均法、数学形态法、图像代数法、模拟退火法等。 2.1 逻辑滤波器法 最直观的融合方法是两个像素的值进行逻辑运算,如:两个像素的值均大于特定的门限值,

利用ENVI软件进行遥感图像的融合和增强实习报告

遥感图像处理实习报告 实验内容:影像融合与增强 班级:测绘1102班 学号:13 姓名: 指导老师:陈晓宁、黄远程、竞霞、史晓亮 西安科技大学 测绘科学与技术学院 二零一三年一月 实习三影像融合与增强

一、实习内容: 1.掌握ENVI中各种影像融合方法,并比较各方法的优缺点; 2.熟悉ENVI图像增强操作; 3.本实习的数据源为上节已经过校正的资源三号多光谱和全色影像。 二、实习目的: 1.了解和认识各种图像融合方法的原理、内容及要点; 2.熟悉、熟练操作ENVI软件中各种图像融合的方法、步骤并学会加以比较; 3.学习利用ENVI软件进行各种图像增强处理操作; 4.学会定性、定量分析比较图像融合的差异。 三、实习步骤: 1.图像融合: 三波段融合: HSV和Color Normalized (Brovey)变换: 1)从ENVI主菜单中,选择File → Open Image File,分别加载校正后的资源三号多光谱与全色影像到可用波段列表Available Bands List中; 2)选择多光谱3,2,1波段(可以根据需要选择)对应R,G,B,点击Load RGB将多光谱影像加载到显示窗口display#1; 3)在ENVI的主菜单选择Transform → Image Sharpening → HSV; 4)在Select Input RGB Input Bands对话框中,选择Display #1,然后点击OK。 5)从High Resolution Input File对话框中选择全色影像,点击OK。 6)从HSV Sharpening Parameters对话框中,选择重采样方法,并输入输出路径和文件名,点击OK。即可完成HSV变换融合;

一种改进多分辨率图像融合算法

第32卷第9期 光电工程V ol.32, No.9 2005年9月 Opto-Electronic Engineering Sept, 2005文章编号:1003-501X(2005)09-0055-04 一种改进多分辨率图像融合算法 杨平先,孙兴波 (四川理工学院电子与信息工程系,四川自贡 643000) 摘要:提出一种基于局部熵的多分辨图像融合算法。利用小波变换得到待融合图像的多分辨结构,同时得到图像的多分辨局部熵序列。以局部熵为判据,在图像多分辨结构相应各级上进行融合,得到融合图像的多分辨结构,利用小波逆变换重构融合图像。实验结果表明,该图像融合方法在保留TM多光谱图像光谱分辨率的同时,通过融合SPOT全色图像提高了空间分辨率,丰富了图像细节信息。 关键词:局部熵;多分辨分析;图像融合;小波变换 中图分类号:TP391文献标识码:A Improved algorithm for image fusion based on multi-resolution analysis YANG Ping-xian,SUN Xing-bo (Deptartment of Electronic Engineering,Sichuan University of Science&Engineering,Zigong 643000,China) Abstract:This paper introduces a local entropy-based multi-resolution image fusion technique. The algorithm consists of three steps: First,decomposing the input multi-spectral image by wavelet transform to obtain the multi-resolution local entropy sequences of each input image. Second, according to local entropy-based criterion,the multi-resolution analysis of the fused image can be obtained on the corresponding levels of the multi-resolution analysis of the input images. Finally,the output image can be obtained through inverse wavelet transform. Experiment results show that image details are enriched while spectral solution of TM image is reserved by fusing TM image with SPOT image with the image fusion method. Key words:Local entropy;Multi-resolution analysis;Image fusion;Wavelet transform 引言 随着成像技术的发展,图像数据可以从多个不同传感器获得,由于单独的图像传感器提供的信息往往是有限的,因此通常需要其他的图像传感器提供辅助信息,国内外的研究现状表明,对于利用图像融合算法对多源遥感图像中像素进行分类,从而实现图像分割这类问题,解决的主要途径包括统计模型,证据理论和神经网络等。 针对多光谱TM图像和全色SPOT图像来说,TM图像具有较好的光谱分辨率,而SPOT图像空间分辨率较高,因此融合这两类图像可以在保留多光谱图像光谱分辨率的同时,提高其空间分辨率,从而可提高这类遥感图像目标识别的准确度和地构目标分类的精度。多光谱TM图像和全色SPOT图像进行融合的传统方法主要有:HIS变换,主成分分析,高通滤波等方法。 本文给出一种新颖算法,首先利用局部熵的概念对图像每点计算局部熵得到变换后新的图像序列,然

信息融合技术在图像融合中的应用

信息融合技术在图像融合中的应用 摘要:图像信息融合能够以软件手段把对同一目标或场景的不同图像,综合成对同一目标或场景的全面、准确的描述,它在医学、遥感、军事等领域有着较为广泛的应用。良好的图像融合方法能够为后续的计算机自动化处理奠定坚实的基础。本文介绍了图像融合的概念和层次划分,并重点分析了图像融合中所用到的信息融合方法。 关键词:信息融合,图像融合 1.引言 军事、医学、自然资源勘探、海洋资源管理、环境和土地利用管理、地形地貌分析、生物学等的应用需求有力地刺激了图像处理和图像融合技术的发展。医学上,图像融合技术被用来诊疗和制定手术方案。商业和情报部门用图像融合技术来对旧照片、录像带进行恢复、转换等处理。随着遥感技术的发展,获取遥感数据的手段越来越丰富,各种传感器获得的影像数据在同一地区形成影像金字塔,图像融合技术实现多源数据的优势互补,为提高这些数据的利用效益提供了有效的途径。星载遥感用于地图绘制、多光谱、高光谱分析、数据的可视化处理、数字地球建设等,图像融合是必不可少的技术手段。 2.图像融合的概念 图像融合技术是一种先进的综合多个源图像信息的图像处理技术。所谓多源图像融合是对多个传感器采集到的关于同一场景或目标的多个源图像进行适当的融合处理,以获取对同一场景的更为准确、更为全面、更为可靠的图像描述。图像是二维信号,图像融合技术是

多源信息融合技术的一个重要分支,因此,图像融合与多传感器信息融合具有共同的优点。通过图像融合可以强化图像中的有用信息、增加图像理解的可靠性、获得更为精确的结果,使系统变得更加实用。同时,使系统具有良好的鲁棒性,例如,可以增加置信度、减少模糊性、改善分类性能等。 目前,将图像融合技术应用于数字图像处理的主要目的有以下几种: (1)增加图像中有用信息的含量,改善图像的清晰度,增强在单一传感器图像中无法看见/看清的某些特性; (2)改善图像的空间分辨率,增加光谱信息的含量,为改善检测/分类/理解/识别性能获取补充的图像信息; (3)通过不同时刻的图像序列融合来检测场景/目标的变化情况; (4)通过融合多个二维图像产生具有立体视觉的三维图像,可用于三维重建或立体摄影、测量等; (5)利用来自其它传感器的图像来替代/弥补某一传感器图像中的丢失/故障信息。 3.图像融合层次划分 作为信息融合的一种,图像融合是对多个场景信息的综合,其目的就是通过对各个场景信息的提取,从而获得对同一场景更为准确、更为全面、更为可靠的图像描述。一般来说,图像融合可以在以下3个层次上进行[3]: 像素级——像素级融合是在获取的图像信息上进行融合,它能够

相关主题
文本预览
相关文档 最新文档