当前位置:文档之家› 视频基础知识详解

视频基础知识详解

视频基础知识详解
视频基础知识详解

视频基础知识详解

视频技术发展到现在已经有100多年的历史,虽然比照相技术历史时间短,但在过去很长一段时间之内都是最重要的媒体。

由于互联网在新世纪的崛起,使得传统的媒体技术有了更好的发展平台,应运而生了新的多媒体技术。而多媒体技术不仅涵盖了传统媒体的表达,又增加了交互互动功能,成为了目前最主要的信息工具。

在多媒体技术中,最先获得发展的是图片信息技术,由于信息来源更加广泛,生成速度高生产效率高,加上应用门槛较低,因此一度是互联网上最有吸引力的内容。

然而随着技术的不断进步,视频技术的制作加工门槛逐渐降低,信息资源的不断增长,同时由于视频信息内容更加丰富完整的先天优势,在近年来已经逐渐成为主流。

那么我们就对视频信息技术做一个详细的介绍。

模拟时代的视频技术

最早的视频技术来源于电影,电影技术则来源于照相技术。由于现代互联网视频信息技术原理则来源于电视技术,所以这里只做电视技术的介绍。

世界上第一台电视诞生于1925年,是由英国人约翰贝德发明。同时也是世界上第一套电视拍摄、信号发射和接收系统。而电视技术的原理大概可以理解为信号采集、信号传输、图像还原三个阶段。

摄像信号的采集,通过感光器件获取到光线的强度(早期的电视是黑白的,所以只取亮度信号)。然后每隔30~40毫秒,将所采集到光线的强度信息发送到接收端。而对于信号的还原,也是同步的每隔30~40毫秒,将信号扫描到荧光屏上进行展示。

那么对于信号的还原,由于荧光屏电视采用的是射线枪将射线打到荧光图层,来激发荧光显示,那么射线枪绘制整幅图像就需要一段时间。射线枪从屏幕顶端

开始一行一行的发出射线,一直到屏幕底端。然后继续从顶部开始一行一行的发射,来显示下一幅图像。但是射线枪扫描速度没有那么快,所以每次图像显示,要么只扫单数行,要么只扫双数行。然后两幅图像叠加,就是完整的一帧画面。所以电视在早期都是隔行扫描。

那么信号是怎么产生的呢?

跟相机感光原理一样,感光器件是对光敏感的设备,对于进光的强弱可以产生不同的电压。然后再将这些信号转换成不同的电流发射到接收端。电视机的扫描枪以不同的电流强度发射到荧光屏上时,荧光粉接收到的射线越强,就会越亮,越弱就会越暗。这样就产生了黑白信号。

那么帧和场的概念是什么?

前面说到,由于摄像采集信号属于连续拍摄图像,比如每隔40毫秒截取一张图像,也就是说每秒会产生25副图像。而每个图像就是一帧画面,所以每秒25副图像就可以描述为帧率为25FPS(frames per second)。而由于过去电视荧光屏扫描是隔行扫描,每两次扫描才产生一副图像,而每次扫描就叫做1场。也就是说每2场扫描生成1帧画面。所以帧率25FPS时,隔行扫描就是50场每秒。

模拟时代在全世界电视信号标准并不是统一的,电视场的标准有很多,叫做电视信号制式标准。黑白电视的时期制式标准非常多,有A、B、C、D、E、G、H、I、K、K1、L、M、N等,共计13种(我国采用的是D和K制)。到了彩色电视时代,制式简化成了三种:NTSC、PAL、SECAM,其中NTSC又分为NTSC4.43和NTSC3.58。我国彩色电视采用的是PAL制式中的D制调幅模式,所以也叫PAL-D 制式。有兴趣的可以百度百科“电视制式”来详细了解。

另外你可能会发现,场的频率其实是和交流电的频率一致的。比如我国的电网交流电的频率是50Hz,而电视制式PAL-D是50场每秒,也是50Hz。这之间是否有关联呢?可以告诉你的是,的确有关联,不过建议大家自己去研究。如果确实不懂的同学可以@我。

彩色信号又是怎么产生的呢?

其实有了基础的黑白摄像技术之后,人们就一直想实现彩色摄像。早在1861年,英国物理学家麦克斯韦就论证了所有彩色都可以使用红、蓝、绿三种基色来叠加生成。但是感光器件只是对光线敏感,但是对颜色却无法识别。为了实现对颜色的识别,人们用分光镜加滤光片的方式,将光线分解成为三种基色的纯色模式。然后分别对三个基色的纯色亮度进行采集,然后再把信号叠加实现了对彩色信号的采集能力。

色彩信号是如何表达的?

因为原来黑白电视的时候,基本上只需要一路信号就可以还原图像(同步信号后面讲)。但是有了彩色之后,一路信号能否表达一副完整的彩色图像,以及

如何表达呢?

彩色电视出现之后,为了兼容早期的黑白电视信号(也就是黑白电视机可以接收彩色信号,但是只显示黑白),科学家引入了YUV色彩表示法。

YUV信号有多种叫法,可以称作色差信号(Y,R-Y,B-Y),也可以称作分量信号(YCbCr,或者Component、YPbPr)。它是由一个亮度信号Y(Luminance或Luma),和两个色度信号U和V组成(Chrominance或Chroma)。黑白电视只使用亮度信号Y,彩色电视可以额外使用两个色度信号,来实现彩色效果。但是YUV 信号是怎么来的呢?

首先,是因为考虑到黑白电视兼容,所以基础信号仍然采用亮度信号。而颜色表达本身是通过RGB三基色的叠加来实现的,为了能够将YUV信号可以还原成三基色RGB色彩值,数学家利用了色差算法,即选取一路Cr信号和一路Cb 信号。Cr信号是指RGB的红色信号部分与RGB亮度值之间的差异,Cb信号是指RGB的蓝色信号与RGB亮度值之间的差异。所以YUV信号有时候也表达为Y,R-Y和B-Y,所以也叫色差信号。

为什么YUV色彩会延续至今?

如果大家平时经常拿手机拍摄视频,你可以把拍摄的视频文件传输到电脑上,然后用MediaInfo软件打开,你会发现很多关于视频的参数信息。而这些参数信息里面,你一定会发现手机拍摄的视频色彩也是使用YUV信号模式。为什么不用RGB来表达?现在早都没有黑白电视了啊?

其实不必考虑兼容性的原因,因为你无论是什么信号模式拍摄的视频,只要是数字化的信息文件形式,都可以与播放设备的信号模式无关。因为播放设备在播放视频文件时需要解码,再进行渲染。这时候不管什么信号模式还是色彩空间,都能转化成设备兼容的方式。

至于为什么YUV信号模式一直会持续至今,最主要的原因不是因为兼容性考虑,而是YUV信号有个巨大的优势,就是节省带宽。这在数字媒体领域是很重要的。

人眼的视觉特点是,人眼对于亮度信号最为敏感,对色度信号敏感度要弱一些。所以可以适当减少色度信号的容量,也不会被人眼观察到差异。就好比音频

里面的MP3压缩格式,是将耳朵不敏感的频率信号容量降低或去除掉,以大大降低文件的大小,但是人耳却基本听不到差异。

至于YUV信号是如何做到降低信息容量的,可以看下面的引文:

YUV主要的采样格式有YCbCr 4:2:0、YCbCr 4:2:2、YCbCr 4:1:1和 YCbCr 4:4:4。其中YCbCr 4:1:1 比较常用,其含义为:每个点保存一个 8bit 的亮度值(也就是Y值),每 2x2 个点保存一个 Cr 和Cb 值,图像在肉眼中的感觉不会起太大的变化。所以,原来用 RGB(R,G,B 都是 8bit unsigned) 模型, 1个点需要 8x3=24 bits(如下图第一个图),(全采样后,YUV仍各占8bit)。按4:1:1采样后,而现在平均仅需要 8+(8/4)+(8/4)=12bits(4个点,8*4(Y)+8(U)+8(V)=48bits), 平均每个点占12bits。这样就把图像的数据压缩了一半。

以上内容引自百度百科“YUV”条目。限于篇幅原因,对于YUV的各种采样模式不再祥加描述,大家可以参考百度百科中的详细解释。如有不懂的同学可以@我。

数字化时代的视频技术

视频技术发展到了数字化时代,其实原理上并没有太多变化。这也就是为什么前面要提到模拟时代视频技术的知识的原因。

但是数字化的视频技术,虽然基础原理没有改变,但是各方面的性能和功能有了很大的提升。这些就重点讲一下数字化之后的视频技术有了哪些突破:

彩色摄像的演进

前面讲到,实现彩色摄像其实是把光线分解成为三个基色分别取亮度值,但是这种结构比较复杂,成本也高。因为实现彩色摄像需要有一个分光用的棱镜,然后采集光线必须要用到三片感光器件(CCD或CMOS)。这种结构带来第二个不好的地方就是结构会比较庞大,不利于小型化微型化。

后来呢,德国人拜耳发明了一种滤镜,是一种马赛克滤镜。将含三基色的马赛克滤镜覆盖在感光器件上面,这样就可以实现用一片感光器件来采集三种颜色,同时也取消了分光棱镜这种结构。这样下来,不仅成本降低了,结构也简化了。

有了这种技术之后,摄像设备就可以越做越小,现在集成在手机上的摄像头整体厚度只有2~3毫米,尺寸只有1~3毫米。当然在专业领域,高端的摄像机仍然采用分光棱镜加3CCD的技术,原因不是他们不愿意改,而是3CCD的色彩丰度更好。而且专业摄像机CCD技术也从IT型发展到了FIT型,感兴趣的同学可以查看一下SONY公司关于FIT型CCD专业摄像机的介绍来了解。总而言之,就是民用领域和专业领域发展方向不一样,所以路线也不同。

场概念消失

在模拟电视时代,受限于显像管技术原因,采用的是隔行扫描技术来还原图像显示。但是现在都是平板电视了(液晶电视、等离子电视、激光电视),电视的成像方式不再是一条线一条线的扫描,而是一次性全画面呈现。所以现在的视频拍摄一般都没有场的概念,当然为了向前兼容,在视频文件信息中,你会看到扫描模式的参数。利用手机拍摄的视频文件,其扫描模式的参数都是Progressive,就是逐行扫描的意思。

采样率和采样精度

大家都知道模拟和数字的最大差别就是信息存储和传递方式,一个是模拟量

一个是数字量化的。那么数字化对于连续过程的量化就必须用到采样过程,也可以理解为片段化。例如音频数字化,就是把音频在每个很小的时间间隔上获取音频的信息然后进行数字量化,最后把所有连续采样的数字量化数据组合,来形成最终的信息。视频也是这样,按照一定的时间间隔,把获取到的图像进行数字量化,然后连续的数字量化的集合就是一段完整的视频文件。

但是视频的采样率并非是大家理解的那样,每秒钟产生25帧的图像,采样率就是25Hz。实际上,ITU(International Telecommunications Union,国际电信联盟)在CCIR 601标准中,对于视频的采样标准有了明确的界定:

一、采样频率:为了保证信号的同步,采样频率必须是电视信号行频的倍数。CCIR为NTSC、PAL和SECAM制式制定的共同的电视图像采样标准:

f s=13.5MHz

这个采样频率正好是PAL、SECAM制行频的864倍,NTSC制行频的858倍,可以保证采样时采样时钟与行同步信号同步。对于4:2:2的采样格式,亮度信号用fs频率采样,两个色差信号分别用

f s/2=6.75MHz的频率采样。由此可推出色度分量的最小采样率是3.375MHz。

二、分辨率:根据采样频率,可算出对于PAL和SECAM制式,每一扫描行采样864个样本点;对于NTSC制则是858个样本点。由于电视信号中每一行都包括一定的同步信号和回扫信号,故有效的图像信号样本点并没有那么多,CCIR 601规定对所有的制式,其每一行的有效样本点数为720点。由于不同的制式其每帧的有效行数不同(PAL和SECAM制为576行,NTSC制为484行),CCIR 定义720×484为高清晰度电视HDTV(High Definition TV)的基本标准。实际计算机显示数字视频时,通常采用下表的参数:

三、数据量:CCIR 601规定,每个样本点都按8位数字化,也即有256个等级。但实际上亮度信号占220级,色度信号占225级,其它位作同步、编码等控制用。如果按f s 的采样率、4:2:2的格式采样,则数字视频的数据量为:

13.5(MHz)×8(bit)+2×6.75(MHz)×8(bit) = 27Mbyte / s同样可以算出,如果按4:4:4的方式采样,数字视频的数据量为每秒40兆字节!按每秒27

兆字节的数据率计算,一段10秒钟的数字视频要占用270兆字节的存储空间。按此数据率,一张680兆字节容量的光盘只能记录约25秒的数字视频数据信息,而且即使当前高倍速的光驱,其数据传输率也远远达不到每秒27兆字节的传输要求,视频数据将无法实时回放。这种未压缩的数字视频数据量对于当前的计算机和网络来说无论是存储或传输都是不现实的,因此,在多媒体中应用数字视频的关键问题是数字视频的压缩技术。

由上述引文可知,YUV的采样率和采样精度,是数字视频从模拟向数字化过渡中兼容性的解决方案。延续了模拟视频以行为单位扫描的机制(模拟视频没有分辨率概念,只有行的概念)。由于这套标准是面向数字电视广播系统制定的统一标准,一般只在广播电视领域中才会看到,而在其他的数字化视频体系中基本没有体现。比如你在视频文件信息中找不到关于采样率的参数。

视频分辨率

视频分辨率也是数字化视频时代的主要特征,由于模拟视频采用线扫描机制,也就是按行显示图像,而每一行的视频线中并没有进行数字量化,所以模拟视频都是以多少行来界定的。比如PAL制式采用576行,NTSC制式采用480行。

到了数字化时代,为了量化视频的具体信息,就必须对每行的信息进行采样并量化,就形成了分辨率的概念。如果采用PAL制式的视频,每行量化的图像点为768个,那么分辨率就是768×576。也就是说把PAL制的视频图像可以分解为768×576个像素点组成。

虽然简单的看视频分辨率的概念挺简单的,但实际上并没有那么简单。原因就是数字化视频的应用领域非常的多,从最早的广播电视应用,到监控安防,到互联网应用,后来又到了高清数字电视,以及移动互联网等等。而因为涉及的行业很多,每个行业都会制定自己的标准,所以就形成了对视频图像分辨率的定义有了很多标准。我们就拿最常见的广播电视、监控安防为例:

大家在计算机领域也都有接触过分辨率的概念,比如VGA(640×480)、SVGA (800×600)、XGA(1024×768)、SXGA(1280×1024)、SXGA+(1400×1050)、UXGA(1600×1200)、WXGA(1280×800)、WXGA+(1280×854/1440×900)、WSXGA(1600×1024)、WSXGA+(1680×1050)、WUXGA(1920×1200)等等。

现在最高的标准是WQUXGA(3840×2400)。这个标准最早是由IBM制定的模拟信号的电脑显示标准,后来被各厂家继续沿用和升级。再后来被VESA标准化组织统一制定。

但是为什么分辨率就不能是简单的数字,非要在前面弄一堆字母呢?这一堆字母绝对能把一大群人搞晕掉。

原因在于制定一个输出的分辨率,并不是简单的设置有多少个像素点,而是还要考虑到实现这个像素点成像的方法。包括色阶多少、带宽多大、扫描方式怎样,如果深入的讲还有电路形式、增益控制、时序方式、寻址方式等等。如果没有详细制定这些图像是如何生成的,那么各个厂家之间的产品可能很难兼容,也就不会见到今天如此发达的计算机市场了。

同样的道理,制定标准化的分辨率和实现方式,有助于行业的统一和兼容。

监控安防领域有什么分辨率标准呢?下面请看:

这里解释一下,CIF是Common Intermediate Format 的缩写,即通用影像传输视频会议(video conference)中常使用的影像传输格式,是ITU H.261协议中的一部分。大家可能发现了,每个分辨率的色度取样个数和行数都是对应分辨率的一半。没错,因为这个标准因为考虑到摄像头的性能和传输的性能影响,采取的是间隔像素采样和隔行扫描机制,而间隔像素采样通过插值进行补齐。

不过这些参数貌似现在很难见到了,为什么呢?很简单,因为监控安防现在都是高清化了,都是D2、D3这种级别的,对应分辨率是720P和1080P这一类。

那么在广播电视领域,对于分辨率的定义又是怎样呢?

前面已经提到了关于PAL制和NTSC制式的视频分辨率标准,另外还有一个

SECAM制式,SECAM的分辨率为720×576。那么你会发现SECAM制式和PAL制的行数是一样的,只有每行的分辨率不同。这是由于SECAM调制载波方式不同造成的。

在标清电视时代,对于分辨率方面理解与现在其实有所不同。比如SECAM 制式每帧图像是625行,但是分辨率是720×576,也就是只有576行。是因为视频信号传输过程中分帧正程和帧逆程,而帧逆程就是回扫,反向回去。在视频信号正常显示时,需要消除行帧逆程扫描对画面的干扰,所以就变成了576行。

到了高清时代,数字电视推出了HDTV标准,它对于显示分辨率的定义为1280×720逐行扫描,也就是俗称的720P;1920×1080隔行扫描,也就是俗称的1080i;1920×1080逐行扫描,也就是所谓的1080P。

当然高清数字电视已经逐渐普及了,目前正在面向4K高清过渡,也就是所谓的UHDTV(Ultra High Definition Television,超高清数字电视)。UHDTV草案定义了两个分辨率标准,及4K(3840×2160)和8K(7680×4320),支持50Hz、60Hz、和59.94Hz三种帧率,只采用逐行扫描。UHDTV采用正交采样,像素纵横比(PAR)为1:1,显示纵横比(DAR)为16:9。

关于像素纵横比和显示纵横比的概念,相对比较简单,这里就不做解释了。如果不清楚的可以搜索一下,当然同样也可以@我。

关于信号同步

信号同步是在广播电视领域中非常重要的技术,因为它如果出现问题,你的电视画面一定是没法看的,比如下面这种情况:

产生这种画面的原因,在于信号没有同步。导致行扫描时,没有在指定的位置。

要想图像内容在正确的位置显示,就必须提供同步信号来进行约束。而不管是模拟电视时代,还是在数字电视时代,不管是电视机还是显示器都需要信号同步。

同步信号一般有两种,分别为场同步(VSYNC)和行同步(HSYNC)。不论是什么类型的信号接口,都包含有一个或两个同步信号。

VGA信号线的引脚定义

另外一种形式的VGA接口,也叫RGBHV接口

DVI接口引脚定义

专业设备中的专用视频同步接口

虽然有很多设备如电视机的复合信号输入(Composite)、HDMI输入,显示器的DisplayPort输入,专业设备的SDI和HD SDI输入,都没有专门的视频场同步和行同步信号接口,但并不是说这些信号不需要同步。而是这些信号接口把场同步和行同步信号已经调制到了信号中。

也就是说我们平时见到的视频信号接口中,并非只有纯粹的视频信息,还包含了很多的信息,比如同步信号、时钟信号(TC,TimeCode)、CEC控制信号、HDCP版权保护信息、SerialClock设备与分辨率识别信息等。

视频编码与压缩

视频编码与压缩,是数字化视频非常重要的技术,以至于它直接影响到视频在各个领域的应用。如果没有视频编码技术的不断提高,我们今天也不可能在方方面面享受到视频的便利性。

首先,视频编码是一项非常复杂的工程,远超过对音频和图像压缩的难度。其次,视频编码是一个多级压缩的过程,而非单一压缩方案。当然如果不是有着这么复杂的一项工程,视频文件远比我们想象的要大的多。我们来举一个例子:按照CCIR 601的视频信号采集标准,一个标准PAL制式电视信号转换成数字信号,按照常见的非专业级采样标准4:2:0(你想支持更高的也不行啊,民用级的设备做不到更高的采样率),则每秒钟产生的视频内容所生成的数字文件为21MB。那么1分钟的视频文件有多大呢?1260MB那么大。

那如果按照RGB色彩表达方式,720×576分辨率,每个采样点3个基色,每个基色是8bit数据,每秒25帧画面。得出来的结果是720×576×3×8×25=237.3Mbit=29.67MByte。那么1分钟的视频就是1780MB……我想从来没有用户见到过1分钟的视频会生成这么大的文件吧。这还仅仅是标清,如果是高清1080P的话,那就是69.5TB!!

从上面的例子可以看出,即便是不压缩视频,采用YUV颜色来存储信息,比起使用RGB颜色来存储信息,容量还是要小一些的。所以也可以说YUV颜色方式算是视频编码的最初一级压缩方法。

这里面需要穿插一个话题,关于色阶。

色阶的意思,就是颜色从无到最大时,中间的过渡梯级有多少。假如说亮度的黑白信号,色阶为2时,那么它就只有两种颜色,全白和全黑。那如果变为256级是(比较常见的色阶标准),结果就是下面这样:

同样的RGB三基色中,每种颜色都有色阶。8bit数据能够存储256个色阶,那么RGB三基色就可以实现1677万种颜色,也就是24位色。

注:计算机颜色体系中有32位色,实际上是24位色之外增加了一个8位的Alpha透明层,所以也叫RGBA。

那能不能使用更高的色阶呢?大于256级色阶好不好?当然好了,不过一般的显示器不支持。但是的确是有高色阶的显示器,目前色阶最高的显示器可以支持10bit颜色信息,也就是1024级色阶。当然价格是不可想象的!

EIZO GX540医学显示器,1024级色阶黑白显示器,价格不明,但不会少于10万元

(当然也有彩色的10bit显示器,那更是天价)

SONY BVM-X300主控监视器,OLED显示10bit彩色,可以显示10亿种颜色

价格嘛,我记得大概是36万多吧

还有得告诉大家一个不好的消息,一般民用的低端显示器采用的TN型液晶面板,都是6bit的,也就是RGB每种颜色只有64级,一共可以显示颜色只有26万种。当然你可以选择32位色模式,只不过它的1677万种颜色,是通过插值换算出来的,并不是真正的1677万种颜色。真正支持1677万种颜色的显示器,其实也不是很便宜的。

画面压缩

如果每一帧的视频画面,按照RGB颜色保存的话,文件会非常大。例如PAL 制视频画面所产生的文件有1.2MB。

如果将每帧的视频画面压缩,那么可能大大减小视频的文件大小。而我们所知的最常见图像压缩算法就是jpeg。JPEG 是Joint Photographic Experts Group(联合图像专家小组)的缩写,是第一个国际图像压缩标准。

首先JPEG压缩是对图像的YUV色彩分量进行分别编码,所用的编码主要算法是DCT(DCT for Discrete Cosine Transform,离散余弦变换)。它是与傅里叶变换相关的一种变换,它类似于离散傅里叶变换(DFT for Discrete Fourier Transform),但是只使用实

数。DCT是一种非常高压缩率低失真的压缩算法,可以将图像压缩至1/5到1/10大小,而且画质基本没有太大变化。

那么利用JPEG压缩算法,原本每帧图像大小为1.2MB,现在就变成了180KB左右,减小了很多。而每秒钟的视频大小就变成了4.4MB,1分钟的视频就是263MB。顿时小了很多。使用这种算法的视频编码方式叫做Motion JPEG,也叫MJPEG。注意,视频压缩里面也有个比较知名的方法叫做MPEG,但不等同于MJPEG,两者截然不同。

运动压缩

虽然通过JPEG算法,可以将视频变小了好几倍,但是还是比较大。对于传输来说和存储来说,门槛还是太高了,只能适合像广播电视行业这种专业机构使用。

那么还有什么办法可以把视频文件压缩的更小呢?那就是帧间压缩方法。

说到帧间压缩,那必须提到一个组织。MPEG(Moving Picture Experts Group,动态图像专家组)是ISO(International Standardization Organization,国际标准化组织)与IEC(International Electrotechnical Commission,国际电工委员会)于1988年成立的专门针对运动图像和语音压缩制定国际标准的组织。

现在知道了吧,MPEG其实是一个组织的名字。当然这个组织有很多有代表性的压缩算法,都是以MPEG-X命名的。所以大家也就习惯的把MPEG称作压缩方法。

首先,运动压缩采用的是帧间压缩法。而什么是帧间压缩法呢?

由于视频是由很多帧的画面集合组成,而鉴于运动的特性,在很短的间隔时间内运动幅度很小。另外就是运动的画面中,存在很多并没有运动的画面信息。甚至有时候拍摄的画面有很多帧图像之间几乎没有变化。这样重复的记录这些没有变化的图像信息,简直是太浪费了。

帧间压缩,就是尽可能的剔除那些相邻画面中没有变化的内容信息。举个例子,比如画面是一个人骑自行车,背景不变,而骑自行车的人从画面一端跑到另外一端。那么这个时候,就可以把没有遮盖到的背景部分,只保存一份就行了。

剩下的只是记录人骑自行车的整个动态画面就OK。

当时原理上比较简单,实现起来就比较困难了。帧间压缩的时候首先要用到关键帧和非关键帧的概念。关键帧就是指你要保存画面上所有数据的那一帧图像,并且以这个图像作为参考。关键帧后面每一帧都会比照关键帧和此前一帧的画面,记录画面改变的地方,去掉重复的信息。

早期的压缩算法就是采取这种策略,比如MPEG-1。它的应用产品大家可能更熟悉——VCD。

这里顺便提一下MP3,MP3的全名叫做MPEG-1 layer3。也就是说MP3压缩格式是MPEG-1压缩标准里面的一个子集。跟MP4是完全不同的概念。

VCD虽然在一张光盘里(650MB容量)可以放得下差不多一部电影的长度,已经是压缩率很惊人了。当然这也是牺牲画面为前提的:

●VCD的分辨率很低,只有352×288(对应PAL制),比标准的电视画面

的清晰度小很多。

●VCD在运动不太明显的情况下画质还可以接受,如果是运动很快的画面

中,就会出现很多惨不忍睹的马赛克。

有了VCD产品,国人们是皆大欢喜。这里可以顺带讲一下,VCD机是中国人发明的,那家公司叫万燕。但是呢,VCD技术是飞利浦、SONY、松下、JVC等公司联合制定的标准,而生产VCD芯片的公司是美国的C-CUBE公司。怎么说呢,技术虽然是老外们发明的,不过他们并不看重这项技术,所以就没形成产品。反倒是国人把它发扬光大了。

与此同时,欧美国家其实对VCD是不太感冒的。因为他们还在VHS时代(感兴趣的同学可以搜索一下VHS,以及SONY的betacam与JVC的VHS制式标准大战),而且VCD第一不便宜,第二画质也不高,第三还不能录像只能播放。

其实有了VCD产品之后,对世界还是很震惊的。大家都觉得把一部电影放在一张小小的碟片里面真的很方便。但是VCD画质真的不好,有没有什么新的技术可以做到更小的容量更高的清晰度呢?那就是后来推出的MPEG-2。

MPEG-2这个标准是最早风靡全球的压缩技术,标准制定的时间是1994年(VCD标准是1993年)。虽然已经过去20多年了,却仍然是当今最重要的视频

压缩格式之一。除了还有大量的DVD产品以外,更重要的是目前广播电视领域的数字电视DVB-T标准,仍然使用的是MPEG-2压缩标准(在中国)。

MPEG-2相对于MPEG-1有什么提升呢?

1.画面有了很大的提升,且更加灵活了。MPEG-1几乎所有的应用都集中在

VCD上,分辨率很小,且不能改变。MPEG-2可以适合中等清晰度(D1

标准、PAL制或者NTSC等制式电视标准)到高清晰度视频内容的展示。

也就是说即便是720P、1080P等这样的高分辨率视频,MPEG-2仍然适

用。

2.增加了GOP模式,使用IBP帧结构。原来的帧间压缩方式,在大动态场

景下马赛克很严重。到了MPEG-2之后就有了很大的提升,因为使用了

参考帧B帧,使用了向前预测帧方式,而且压缩率是可变的。总的来说,

就是大动态时候不会有马赛克了。

3.增加了很多额外的信息,功能更加强大。比如支持更强的交互与命令控

制(大家有没有想起来VCD 2.0时候画面有菜单可以选,DVD比这个强

大),支持传输流形式(TS,TransportStream,就是可以用于直播,也不

怕文件损坏就全完),多音轨而且多声道……

但是MPEG-2也有不足的,主要就是它是面向工业化视频信息生产发行领域的,也就是说只适合电视台、DVD发行商、卫星通信等领域,不适合民用。因为码流真的很大,比MPEG-1要大。虽然一张光盘就可以装的下一整部电影,那是因为光盘的容量从650MB提升到了4.3GB,甚至7.2GB。

互联网视频应用的到来

早期的宽带速度只有1~2Mbps(56K modem和ISDN时代根本就没视频什么事),想要在线播放DVD影片是不可能的(至少5~10Mbps),VCD也不行而且技术上不支持。MPEG组织的科学家就开始研究能够适合在网络上播放的视频压缩方法,也就是后面推出的MPEG-4压缩格式。

MPEG-4很明显的特征就是适合在网络上播放,灵活度更高,功能更加强大:

1.压缩比更高更灵活。MPEG-1压缩比为20~30倍,MPEG-2压缩比为10~

20倍,MPEG-4压缩比从几十到一百多倍不等;

2.对于画面内容可以使用不同的压缩比率,可以对非重要对象使用高压缩

比,对重要对象使用低压缩比。这样可以在保证主要画质情况下压缩比

更高;

3.不同对象可以使用不同编码算法,进一步提升压缩效率;

4.音视频搭配更灵活;

5.交互性更强,尤其适合互联网这种模式。

MPEG-4后来产生了很多衍生压缩算法,比较著名的就是Xvid和Dvix了。其实MPEG-4的知名度不如Xvid和Dvix,因为在那个时期,MPEG-4为了适应互联网较低的带宽速度,大部分应用都是一些低分辨率低码流的视频。而Xvid和Dvix 虽然源自MPEG-4体系,但是面向视频文件存档进行了优化,可以比DVD小3~4倍的大小,存储与DVD画质非常接近的视频内容。受到了用户的极大喜爱,以至于在那个时期已经成为盗版影片的必选格式。

RealMedia,曾经的王者

曾经互联网视频最大的赢家是Real Network,也是它最早实现了基于互联网的流媒体视频(在线观看)。想当年还在56K Modem窄带时期,Real Network公司就已经提供了视频在线观看功能。笔者曾经在那个还在PSTN上进行拨号的时代,体验过通过realplayer观看NBA的直播。如果以现在的标准来衡量那个时期

的产品,那就是延时巨大(经常要loading几分钟)、画质惨不忍睹(分辨率超低,马赛克严重)、经常性的卡顿。

但是随着宽带的逐渐普及,RealMedia的巨大优势得以施展。在那个时期,RealMedia是当之无愧的王者。

首先,RealMedia压缩标准并非是MPEG-4衍生的版本,而是一个私有的压缩标准。这个标准由Real Network公司创立,且独有。RealMedia拥有极大的压缩比,远超MPEG家族。比如说一部标准DVD格式的电影,大约4.3GB容量,如果采用Dvix压缩的话,大概能压缩到700MB,而使用RM格式压缩,连700MB 的一半都不到。即便是到了后期的RMVB压缩格式,也基本不会超500MB。

第二,Real Network公司在当时提供了世界上最完善的流媒体系统方案,只不过是收费的。那个时候的竞争对手只有微软的Windows Media Encoder,免费但是功能不完善。而RealMedia Encoder提供了VOD模式和LIVE模式完整的流媒体解决方案,虽然比较贵(印象中大概1万多美金)。

视频基础知识详解

视频基础知识详解 视频技术发展到现在已经有100多年的历史,虽然比照相技术历史时间短,但在过去很长一段时间之内都是最重要的媒体。 由于互联网在新世纪的崛起,使得传统的媒体技术有了更好的发展平台,应运而生了新的多媒体技术。而多媒体技术不仅涵盖了传统媒体的表达,又增加了交互互动功能,成为了目前最主要的信息工具。 在多媒体技术中,最先获得发展的是图片信息技术,由于信息来源更加广泛,生成速度高生产效率高,加上应用门槛较低,因此一度是互联网上最有吸引力的内容。 然而随着技术的不断进步,视频技术的制作加工门槛逐渐降低,信息资源的不断增长,同时由于视频信息内容更加丰富完整的先天优势,在近年来已经逐渐成为主流。 那么我们就对视频信息技术做一个详细的介绍。 模拟时代的视频技术 最早的视频技术来源于电影,电影技术则来源于照相技术。由于现代互联网视频信息技术原理则来源于电视技术,所以这里只做电视技术的介绍。 世界上第一台电视诞生于1925年,是由英国人约翰贝德发明。同时也是世界上第一套电视拍摄、信号发射和接收系统。而电视技术的原理大概可以理解为信号采集、信号传输、图像还原三个阶段。 摄像信号的采集,通过感光器件获取到光线的强度(早期的电视是黑白的,所以只取亮度信号)。然后每隔30~40毫秒,将所采集到光线的强度信息发送到接收端。而对于信号的还原,也是同步的每隔30~40毫秒,将信号扫描到荧光屏上进行展示。 那么对于信号的还原,由于荧光屏电视采用的是射线枪将射线打到荧光图层,来激发荧光显示,那么射线枪绘制整幅图像就需要一段时间。射线枪从屏幕顶端

开始一行一行的发出射线,一直到屏幕底端。然后继续从顶部开始一行一行的发射,来显示下一幅图像。但是射线枪扫描速度没有那么快,所以每次图像显示,要么只扫单数行,要么只扫双数行。然后两幅图像叠加,就是完整的一帧画面。所以电视在早期都是隔行扫描。 那么信号是怎么产生的呢? 跟相机感光原理一样,感光器件是对光敏感的设备,对于进光的强弱可以产生不同的电压。然后再将这些信号转换成不同的电流发射到接收端。电视机的扫描枪以不同的电流强度发射到荧光屏上时,荧光粉接收到的射线越强,就会越亮,越弱就会越暗。这样就产生了黑白信号。 那么帧和场的概念是什么? 前面说到,由于摄像采集信号属于连续拍摄图像,比如每隔40毫秒截取一张图像,也就是说每秒会产生25副图像。而每个图像就是一帧画面,所以每秒25副图像就可以描述为帧率为25FPS(frames per second)。而由于过去电视荧光屏扫描是隔行扫描,每两次扫描才产生一副图像,而每次扫描就叫做1场。也就是说每2场扫描生成1帧画面。所以帧率25FPS时,隔行扫描就是50场每秒。 模拟时代在全世界电视信号标准并不是统一的,电视场的标准有很多,叫做电视信号制式标准。黑白电视的时期制式标准非常多,有A、B、C、D、E、G、H、I、K、K1、L、M、N等,共计13种(我国采用的是D和K制)。到了彩色电视时代,制式简化成了三种:NTSC、PAL、SECAM,其中NTSC又分为NTSC4.43和NTSC3.58。我国彩色电视采用的是PAL制式中的D制调幅模式,所以也叫PAL-D 制式。有兴趣的可以百度百科“电视制式”来详细了解。 另外你可能会发现,场的频率其实是和交流电的频率一致的。比如我国的电网交流电的频率是50Hz,而电视制式PAL-D是50场每秒,也是50Hz。这之间是否有关联呢?可以告诉你的是,的确有关联,不过建议大家自己去研究。如果确实不懂的同学可以@我。 彩色信号又是怎么产生的呢?

安防监控中的各种视频接口知识简介

安防监控中的各种视频接口知识简介 来源:中国一卡通网作者:广州众成弱电设备安装有限公司发布时间:2011-01-21 14:25:11 字体:[大 中小] 关键字:安防监控视频接口 摘要:本文结合一些图片来说下视频及其接口方面的知识及工程的设计施工中大家可能碰到的一些困惑。 本文结合一些图片来说下视频及其接口方面的东西。顺便聊聊在工程的设计施工中大家可能碰到的一些困惑。 一、复合视频(composite video): 复合视频接口是一种就普遍和常见的视频接口,顾名思义就是把视频信号的色度和亮度复合在一起进行传输的视频信号。在物理上,复合视频端子有“芯”和“皮”,“芯”传递的是复合视频信号,“皮”就是端子外壳(接地)。因为色度和亮度的的频率会相互干扰和影响,因此复合视频信号总的来说质量一般,因此,其也主要应用在家庭用的音视频设备或者要求不是很高的视频监控设备中,比如VCD、DVD、摄像机等。 复合视频接口有两种端子:分别是RCA端子和BNC端子。RCA端子就是通常所说的莲花头和莲花座,BNC端子就是BNC头和BNC座。

图一 RCA端子和S-VIDEO端子 图二 BNC端子 有一点要提醒大家,就是RCA端子既可以用在复合视频接口,也可以用在音频接口,如果用在音频接口的话,通常又叫做3.5莲花头(座)。 至于RCA端子和BNC端子在实用中有什么区别,答案是没有区别,关键看设备上的接口,设备如果是BNC座,那就用同轴电缆线做BNC头;设备如果是RCA座,那么还是用同轴

电缆做RCA头。当然家用的音视频设备比较多用RCA端子,而视频监控设备比较多用BNC 端子做视频接口。 二、二分量视频(S-VIDEO) S-VIDEO接口 S端子实际上是一种五芯接口,由两路视亮度信号、两路视频颜色度信号和一路公

(完整版)华为视频会议基本知识

华为视频会议基本知识 1.、什么是视频会议系统?视频会议是利用现有通信网(包括各种传输网络)和数字信号压缩处理技术,将音视频和数据信号处理后传到远端,实现面对面的交流。其交流形式为点到点,点对多点。主要设备包括MCU(多点控制单元)、视频会议终端、网关、网守和相关的配套外围设备。如显示设备,音响系统等。 2.、视频会议系统的作用是什么?视频会议可以实现数据、视频、语音应用的有机融合与网络资源的高效利用,与远在千里之外的人进行面对面交谈,做到远在天边,近在咫尺,并能够随时自主地组织和召开会议,进行业务调度、远程管理、信息交流、技术培训等等,节约时间和差旅经费,大大提高工作效率。 3.、视频会议的发展趋势?视频会议的发展经历了四代:第一代是70年代。采用模拟传输,占用带宽大(960个话路),因此用户极少。第二代是80年代。其传输由模拟转为数字传输,由最初的数字静态传输到动态图像传输,占用带宽8—34Mbps。第三代为90年代。视频会议采用了国际电联(ITU)标准H.320。正是进入商用领域。传输带宽为64Kbps-2Mbps。第四代为21世纪。视频会议进入多媒体通信。基于国际标准H.323和

SIP,将音频、视频和数据融合与一体。适用于不同的用户,不同需求的融合通信。 4.、视频会议系统对网络的需求是什么?视频会议系统可以广泛运行于IP、ISDN、FR、DDN、卫星网络等各种网络环境中。华为终端提供E1、IP、ISDN等多种线路接口。 5. 建立视频会议系统的成本包括那些?视频会议系统的建设成本分为建设费和使用费。建设费是一次性投资,包括视频会议设备的购买费用,基础网络的建设费用和会议室的装修费用。使用费主要包括网络的使用费用,如电信线路的租费等。 6、视频会议有哪些国际标准?视频会议行业的国际标准是由ITU(国际电信联合会)和IETF(国际工程师组织)制定的。主要以字母H开头。 视频会议行业的国际标准有H.320、H.323和SIP(H.324)三个主要的标准集。其中H.323是目前主流的标准。SIP是已经确定的下一代标准。常用的算法如下:图像处理算法有:H.261、H.263、H.263++和H.264 图像清晰度:CIF(VCD)、4CIF(DVD)和10CIF(HD,16:9数字高清电视)声音处理算法有:G.711、 G.722、G.722.1Annex C、G.723、G.728和G.729 声音清晰度:3.4KHz(电话音质)、7KHz(调幅收音机音质)、14KHz(调频收音机音质)和20KHz(CD音质)

数字视频基础知识

第三章 数字视频基础知识 3.1 视频的基础知识 在人类接受的信息中,有70%来自视觉,其中视频是最直观、最具体、信息量最丰富的。我们在日常生活中看到的电视、电影、VCD、DVD以及用摄像机、手机等拍摄的活动图像等都属于视频的范畴。 摄影机是指用胶片拍摄电影的机器,摄像机是用磁带、光盘、硬盘等作为界质记录活动影像的机器,广泛用于电视节目制作、家庭及其他各个方面。 摄影机使用胶片和机械装置记录活动影像,所采用的是光学和化学记录方式,摄象机是采用电子记录方式。 1 视频的定义 ?视频(Video)就其本质而言,是内容随时间变化的一组动态图像(25或30帧/秒),所以视频又叫作运动图像或活动图像。 ?一帧就是一幅静态画面,快速连续地显示帧,便能形运动的图像,每秒钟显示帧数越多,即帧频越高,所显示的动作就会越流畅。 『视觉暂留现象』 ?人眼在观察景物时,光信号传人大脑神经,需经过一段短暂的时间,光的作用结束后,视觉形象并不立即消失,这种残留的视觉称“后像”,视觉的这一现象则被称为“视觉暂留现象”。 ?具体应用是电影的拍摄和放映。 ?根据实验人们发现要想看到连续不闪烁的画面,帧与帧之间的时间间隔最少要达到是二十四分之一秒。 ?视频信号具有以下特点: ?内容随时间而变化 ?有与画面动作同步的声音(伴音) ?图像与视频是两个既有联系又有区别的概念:静止的图片称为图像(Image),运动的图像称为视频(Video)。 ?图像与视频两者的信源方式不同,图像的输入靠扫描仪、数字照相机等设备;视频的输入是电视接收机、

摄象机、录象机、影碟机以及可以输出连续图像信号的设备。 2.视频的分类 ?按照处理方式的不同,视频分为模拟视频和数字视频。 ?模拟视频(Analog Video) ?模拟视频是用于传输图像和声音的随时间连续变化的电信号。早期视频的记录、存储和传输都采用模拟方式,如在电视上所见到的视频图像是以一种模拟电信号的形式来记录的,并依靠模拟调幅的手段在空间传播,再用盒式磁带录像机将其作为模拟信号存放在磁带上。 ?模拟视频的特点: ?以模拟电信号的形式来记录 ?依靠模拟调幅的手段在空间传播 ?使用磁带录象机将视频作为模拟信号存放在磁带上 ?传统视频信号以模拟方式进行存储和传送然而模拟视频不适合网络传输,在传输效率方面先天不足,而且图像随时间和频道的衰减较大,不便于分类、检索和编辑。 ?要使计算机能对视频进行处理,必须把视频源即来自于电视机、模拟摄像机、录像机、影碟机等设备的模拟视频信号转换成计算机要求的数字视频形式,这个过程称为视频的数字化过程。 ?数字视频可大大降低视频的传输和存储费用、增加交互性、带来精确稳定的图像。 ?如今,数字视频的应用已非常广泛。包括直接广播卫星(DBS)、有线电视(如图5.2)、数字电视在内的各种通信应用均需要采用数字视频。 ?一些消费产品,如VCD和DVD,数字式便携摄像机,都是以MPEG视频压缩为基础的。 数字化视频的优点 ?适合于网络应用 ?在网络环境中,视频信息可方便地实现资源共享。视频数字信号便于长距离传输。 ?再现性好 ?模拟信号由于是连续变化的,所以不管复制时精确度多高,失真不可避免,经多次复制后,误差就很大。

九大视频接口全接触知识介绍

九大视频接口全接触知识介绍 1、射频 天线和模拟闭路连接电视机就是采用射频(RF)接口。作为最常见的视频连接方式,它可同时传输模拟视频以及音频信号。RF接口传输的是视频和音频混合编码后的信号,显示设备的电路将混合编码信号进行一系列分离、解码在输出成像。由于需要进行视频、音频混合编码,信号会互相干扰,所以它的画质输出质量是所有接口中最差的。有线电视和卫星电视接收设备也常用RF连接,但这种情况下,它们传输的是数字信号。 2、复合视频 不像射频接口那样包含了音频信号,复合视频(Composite)通常采用黄色的RCA(莲 花插座)接头。“复合”含义是同一信道中传输亮度和色度信号的模拟信号,但电视机如果不 能很好的分离这两种信号,就会出现虚影。 3、S端子

S端子(S-Video)连接采用Y/C(亮度/色度)分离式输出,使用四芯线传送信号,接口为四针接口。接口中,两针接地,另外两针分别传输亮度和色度信号。因为分别传送亮度和色度信号,S端子效果要好于复合视频。不过S端子的抗干扰能力较弱,所以S端子线的长度最好不要超过7米。 4、色差 色差(Component)通常标记为Y/Pb/Pr,用红、绿、蓝三种颜色来标注每条线缆和接口。绿色线缆(Y),传输亮度信号。蓝色和红色线缆(Pb和Pr)传输的是颜色差别信号。色差的效果要好于S端子,因此不少DVD以及高清播放设备上都采用该接口。如果使用优质的线材和接口,即使采用10米长的线缆,色差线也能传输优秀的画面。 5、VGA VGA(Video Graphics Array)还有一个名称叫D-Sub。VGA接口共有15针,分成3排,每排5个孔,是显卡上应用最为广泛的接口类型,绝大多数显卡都带有此种接口。它传输红、绿、蓝模拟信号以及同步信号(水平和垂直信号)。使用VGA连接设备,线缆长度最好不要超过10米,而且要注意接头是否安装牢固,否则可能引起图像中出现虚影。6、DVI DVI(Digital Visual Interface)接口与VGA都是电脑中最常用的接口,与VGA不同的是,DVI可以传输数字信号,不用再进过数模转换,所以画面质量非常高。目前,很多高清

视频会议基础知识

视频基础知识---高清晰度视频会议 高清晰度视频会议 在高清晰度编码/ 解码技术产生之前,视频会议数据是根据公用交换格式(CIF) 进行编码的。国际电信联盟-电信标准部门(ITU-T) 制定了视频标准,称为H.261 和H.263。H.261 标准只定义了QCIF 和CIF 格式。四分之一CIF (QCIF) 格式只被用于最低数据率(64 千位/ 秒及更低)的会议,今天已经很少使用。自从H.263 标准发行以来,更多使用“全分辨率”(定以为16CIF)的格式(4CIF 和16CIF)被采用。由于采用此类标准时,计算和宽带功能有限,所以,用于全动感视频会议的公用分辨率仍然是CIF 到4CIF。下面的表格列出了用于NTSC(北美)和PAL(欧洲)视频信号的H.261 和H.263 标准的相应格式分辨率。以下列出的分辨率代表4:3 的屏幕高度比。 ITU-T 最近采用了视频压缩新标准,该方法减小了整个视频文件的大小,从而文件可以更为节省地通过容量更小的网络连接(更低的数据率/ 宽带)进行传输。现在,ITU-T 建议高清晰度视频会议采用H.264 视频标准,该标准通过比较低的数据传输率提供上好的画面质量。现在,H.264 是HD-DVD(高清晰度DVD)以及广播、电缆、视频会议和消费者电子产品的强制使用的标准。下面的表格说明了H.264 标准中引入的SD和HD 分辨率。 H.264 规格是视频会议理想的工具。尽管和之前的H.26x 算法相比,它需要更强的处理能力,但是自2004年之后生产的大多数视频会议系统都包括H.264。它可提供优质的视频传输和低延时的编码和解码,从而视频流更为流畅、自然。事实上,H.264 的效率是H.263 的两倍,在特定线路速率下的视频质量也要高出一倍。此外,某些增强的H.264 规格包括互动视频的错误隐藏算法,此技术可自动调整视频操作,即便网络负担过重、不稳定或者出错率高,都可以保证操作自如,并提供更高品质的视觉享受。H.264 编码标准提供了更强的灵活性,为不同的开发商提供了进行互操作的通用平台。H.263 标准支持大量可能的变异产品,与此不同,H.264 标准只包括少量的压缩技术。这样一来,可以在不大幅度下、降视频质量的前提下更为轻易地实现来自多个生产商的不同视频会议设备的集成。

视频输入输出常用接口介绍

视频输入输出常用接口介绍 随着视频清晰度的不断提升,这也促使我们对高清视频产生了浓厚的兴趣,而如果要达某些清晰度的视频就需要配备相应的接口才能完全发挥其画质。所以说视频接口的发展是实现高清的前提,从早期最常见且最古老的有线TV输入到如今最尖端的HDMI数字高清接口,前前后后真是诞生了不少接口。但老期的接口信号还在继续使用,能过信号转换器就能达到更清晰的效果,比如: AV,S-VIDEO转VGA AV,S-VIDEO转HDMI,图像提升几倍,效果更好。 从现在电视机背后的接口也能看出这点,背后密密麻麻且繁琐的接口让人第一眼看过去有点晕的感觉。今天小编就将这些接口的名称与作用做一个全面解析,希望能对选购电视时为接口而烦恼的朋友起到帮助。 TV接口

TV输入接口 TV接口又称RF射频输入,毫无疑问,这是在电视机上最早出现的接口。TV接口的成像原理是将视频信号(CVBS)和音频信号(Audio)相混合编码后输出,然后在显示设备内部进行一系列分离/ 解码的过程输出成像。由于需要较多步骤进行视频、音视频混合编码,所以会导致信号互相干扰,所以它的画质输出质量是所有接口中最差的。 AV接口 AV接口又称(RCARCA)可以算是TV的改进型接口,外观方面有了很大不同。分为了3条线,分别为:音频接口(红色与白色线,组成左右声道)和视频接口(黄色)。

AV输入接口与AV线 由于AV输出仍然是将亮度与色度混合的视频信号,所以依旧需要显示设备进行亮度和色彩分离,并且解码才能成像。这样的做法必然对画质会造成损失,所以AV接口的画质依然不能让人满意。在连接方面非常的简单,只需将3种颜色的AV线与电视端的3种颜色的接口对应连接即可。 总体来说,AV接口实现了音频和视频的分离传输,在成像方面可以避免音频与视频互相干扰而导致的画质下降。AV接口在电视与DVD连接中使用的比较广,是每台电视必备的接口之一。 S端子 S端子可以说是AV端子的改革,在信号传输方面不再将色度与亮度混合输出,而是分离进行信号传输,所以我们又称它为“二分量视频接口”。

图像及视频基础知识

图像及视频基础知识 光和颜色 1 光和颜色 可见光是波长在380 nm~780 nm 之间的电磁波,我们看到的大多数光不是 一种波长的光,而是由许多不同波长的光组合成的。如果光源由单波长组成,就称为单色光源。该光源具有能量,也称强度。实际中,只有极少数光源是单色的,大多数光源是由不同波长组成,每个波长的光具有自身的强度。这称为光源的光谱分析。 颜色是视觉系统对可见光的感知结果。研究表明,人的视网膜有对红、绿、 蓝颜色敏感程度不同的三种锥体细胞。红、绿和蓝三种锥体细胞对不同频率的光的感知程度不同,对不同亮度的感知程度也不同。 自然界中的任何一种颜色都可以由R,G,B 这3 种颜色值之和来确定,以这三种颜色为基色构成一个RGB 颜色空间,基色的波长分别为700 nm(红色)、546.1nm(绿色)和435.8 nm(蓝色)。 颜色=R(红色的百分比)+G(绿色的百分比)+B(蓝色的百分比) 可以选择不同的三基色构造不同的颜色空间,只要其中一种不是由其它两种 颜色生成。例如Y(Yellow,黄色),C( Cyan,青色),M(Magenta,品红)。 2 颜色的度量 图像的数字化首选要考虑到如何用数字来描述颜色。国际照明委员会CIE (International Commission on Illumination )对颜色的描述作了一个通用的定义,用颜色的三个特性来区分颜色。这些特性是色调,饱和度和明度,它们是颜色所固有的并且是截然不同的特性。 色调(hue)又称为色相,指颜色的外观,用于区别颜色的名称或颜色的种类。 色调用红、橙、黄、绿、青、蓝、靛、紫等术语来刻画。用于描述感知色调的一个术语是色彩(colorfulness)。 饱和度(saturation)是相对于明度的一个区域的色彩,是指颜色的纯洁性, 它可用来区别颜色明暗的程度。完全饱和的颜色是指没有渗入白光所呈现的颜色,例如仅由单一波长组成的光谱色就是完全饱和的颜色。 明度(brightness)是视觉系统对可见物体辐射或者发光多少的感知属性。它 和人的感知有关。由于明度很难度量,因此国际照明委员会定义了一个比较容易度量的物理量,称为亮度(luminance) 来度量明度,亮度(luminance)即辐射的能量。明度的一个极端是黑色(没有光),另一个极端是白色,在这两个极端之间

日常生活中的音视频功能端口基础知识

Composite Video Output(模拟信号) 复合视频端子也叫AV端子或者Video端子,是声、画分离的视频端子,一般由三个独立的RCA插头(又叫梅花接口RCA端子)组成的,其中的V接口连接混合视频信号,为黄色插口;L接口连接左声道声音信号,为白色插口;R接口连接右声道声音信号,为红色插口。 S-Video Output(不适用于高清视频,其信号最高分辨率有限) S端子也是非常常见的端子,其全称是Separate Video,也称为SUPER VIDEO。S端子实际上是一种五芯接口,由两路视亮度信号、两路视频色度信号和一路公共屏蔽地线共五条芯线组成 HDMI Output 高清晰度多媒体接口(英文:High Definition Multimedia Interface,HDMI)是一种数字化视频/音频接口技术,是适合影像传输的专用型数字化接口,其可同时传送音频和影音信号,最高数据传输速度为5Gbps。同时无需在信号传送前进行数/模或者模/数转换。 DVI DVI的英文全名为Digital Visual Interface,中文称为“数字视频接口”。是一种视频接口标准,设计的目标是通过数字化的传送来强化个人电脑显示器的画面品质。

RJ45 / Ethernet RJ45 型网线插头又称水晶头,共有八芯做成,广泛应用于局域网和ADSL 宽带上网用户的网络设备间网线(称作五类线或双绞线)的连接。10 100base tx RJ45接口是常用的以太网接口,支持10兆和100兆自适应的网络连接速度,常见的RJ45接口有两类:用于以太网网卡、路由器以太网接口等的DTE类型,还有用于交换机等的DCE类型。 常见音视频格式: MP3全称是动态影像专家压缩标准音频层面3(Moving Picture Experts Group Audio Layer III)。是当今较流行的一种数字音频编码和有损压缩格式,它设计用来大幅度地降低音频数据量WMA(Windows Media Audio)是微软公司推出的与MP3格式齐名的一种新的音频格式。由于WMA在压缩比和音质方面都超过了MP3 Dolby Digital杜比数字技术(英文名称:Dolby Digital),是杜比实验室发布的新一代家庭影院环绕声系统。其数字化的伴音中包含左前置、中置、右前置、左环绕、右环绕5个声道的信号。它是DVD-Video影碟的指定音频标准。广泛应用于卫星电视机顶盒、数字有线等领域。Dolby Digital Plus 杜比数字+技术是专为所有的高清节目与媒体所设计的下一代音频技术。杜比数字+技术建立在杜比数字技术的基础之上,杜比数字技术是全世界DVD和高清广播节目的多声道音频标准。 Dolby TrueHD 杜比TrueHD是专为高清光盘媒体所开发的下一代无损压缩技术。特点100%无损的编码技术。码率高达18 Mbps。支持多达八个分离式24比特/96 kHz全频带声道。 碟片类型种类: CD 英语:Compact Disc),是一种用以储存数字资料的光学碟片。容量:700MB CD-R Compact Disk-Recordable, CD-R是一种一次写入、永久读的标准。其工作原理是通过激光照射到盘片上的“凹陷”和“平地”其反射光的变化来读取的;CD-ROM的“凹陷”是印制的,而CD-R是由刻录机烧制而成。 CD-RW 可擦写光盘。盘片由于采用了相变技术,它的激光反射率比一般的CD盘片要低很多。D-RW驱动器的激光头有两种波长设置,分别为写(P-Write)和擦除(P-Eraze),刻录时(500~700摄氏度)使该物质的分子自由运动,多晶结构被改变,呈现一种非晶状(随即)状态(反射率只有5%)。而擦除数据就利用(200℃)温度让刻录层物质恢复到多晶结构(即CD-RW 光盘初始状态)。 DVD 数字多功能光盘(英文:Digital Versatile Disc),简称DVD,是一种光盘存储器,通常用来播放标准电视机清晰度的电影,高质量的音乐与作大容量存储数据用途。 DVD-R 采用有机染料的方法制成,容量:4.7GB。 DVD-RW 可重写超过1,000次。容量都是4.7GB

电脑基础知识讲座(第一讲_电脑入门)

电脑基础知识讲座 前言 电脑知识犹如无边无涯的大海,是永远学不尽的。这里讲的只能起到电脑学习的引路作用。本讲座是为电脑入门者和刚入门的初学者编写的,但因为是系统的电脑教程,对于已经达到电脑中级水平的绝大多数人来说,只要你能耐心看下去,总会发现有你还不了解的内容。 讲座共分六讲: 第一讲:电脑入门; 第二讲:文字录入; 第三讲:Word 2003文字处理软件; 第四讲:Powerpoint2003幻灯片制作工具; 第五讲:Internet基础知识; 第六讲:Excel工作表。 本着实用易懂的原则,尽量少讲理论;操作上讲透,理论上简单叙述。包括办公自动化的绝大部分内容,同时还讲了一些书本上没有的知识,如文件的关联,解决本地连接受限制问题、网上下载电影等。 第一讲:电脑入门 平常所说的电脑是个人计算机的形象叫法,是一种微型计算机。从字面上就可看出,电脑可以用来替代甚至增加人脑的部分功能。至今为止,除电脑以外的所有机器都是用来帮助、取代人类体力劳动的工具,是对有形物体进行加工,或对不同的物理量进行转换,只有电脑是用来对各种信

息进行加息理,从而替代人类的部分脑力劳动。电脑的功能非常强大,可以说,只有人想不到的,没有电脑做不到的。这是因为人的大脑只有一个,而电脑是由无数个人的大脑共同研究出来的。 电脑的构成:电脑是由硬件和软件组成的。 硬件: 电脑中看得见摸得着的都称为硬件,主要分为中央处理器、存储器和输入、输出设备。 1、中央处理器CPU CPU即中央处理器,它是计算机的大脑,计算机的运算、控制都是由它来处理的。它的发展非常迅速,从最初的8088到奔腾486、586,现在已经发展到双核甚至四核,用迅驰技术装备的笔记本电脑,使用户脱离缆线的约束,真正做到在移动中进行工作、学习、休闲。全世界99%的CPU 都是英特尔和AMD公司的产品,中国最近才制造出“龙芯一号”。 2、存储器 存储器是电脑的记忆细胞,用来存放程序和数据。存储器分为内存和外存。 内存指CPU可以随时直接存取的存储器,一般容量很小,虽然容量小,但电脑的速度与它有很大关系。现在的空腹电脑的已经彀2G的容量。 外存包括磁盘、磁带等。磁盘有硬盘、移动硬盘、光盘、软盘、U盘等。 3、输入、输出设备

HDM基础知识

HDMI基础知识 DVI的缺点是没有附带Audio音频联接,而且DVI的接口插座是沿袭以前的一些插座模式(例如什么P&D、DFP ...),显得有些大。大家都知道如今计算机多媒体常用的IEEE1394以及USB接口吧,都很小、轻灵。但它们的速度也不慢啊。DVI 的下一代继承者:HDMI 出现了,解决了俺说的上述问题。本图相片中的插座只有DVI-D,还没有HDMI 插座: HDMI 的样式: 与大家经常玩的USB接口、IEEE1394 接口以及一些数码相机的接口相仿,但是内含全部Video视频,Audio 音频联接信号。麻雀虽小,五脏俱全。承担将来的HDTV 高清晰数字电视信号传输也绰绰有余,大家不必担心:)

HDMI 肯定会替代DVI 的,HDMI 发扬光大了DVI 的特点(数字视频信号TMDS传输),并融入了AUDIO (数字音频信号传输)。所以HDMI =VIDEO+HDCP+AUDIO (数字视频,版权保护,数字音频)。 出于向下兼容的考虑,HDMI兼容DVI,所以有许多可行的解决方案,例如:从视频源(HTPC、影碟机、机顶盒等)处的DVI-D 信号,汇集别处的音频源的音频信号,一起接驳在终端的HDMI接口处。 还可以由信号源(例如影碟机、机顶盒等)的HDMI接口处,将视频和音频信号分离(剥离),分别供给你的音视频终端:例如影碟机的HDMI 输出中的视频给DVI 接口的投影仪,同时影碟机的HDMI 输出中的音频供给AV Receiver (功放),你看不矛盾吧^_^

HDMI支持标准、增强、以及高清晰数字电视视频、以及标准立体声、多声道环绕立体声数字音频格式。 HDMI支持未经压缩的数字视频信号,注意是“未经压缩”,那可是“纯正”高保真哪!同样HDMI是被那些联盟的成员一起开发的,自然少不了Silicon Image (竟跟他们打交道了) 。具备HDMI 的机器已经面世: 大家看到两个机器背面的 HDMI 输出接口/插座了吧。右侧的那台机器的 DCDI 标志的右边,就是 HDMI OUT 。HDMI 目前已经有1.1 的版本了。现在已经有具备HDMI 的家用型器材面世了。相继的配套线缆也会普及的……

常用视频接口详解

常用视频接口详解 ● 必备接口: ·HDMI接口:是最新的高清数字音视频接口,收看高清节目,只有在HDMI通道下,才能达到最佳的效果,是高清平板电视必须具有的基本接口。 ·DVI接口:是数字传输的视频接口,可将数字信号不加转换地直接传输到显示器中。 ·色差分量接口:是目前各种视频输出接口中较好的一种。 ·AV接口:AV接口实现了音频和视频的分离传输,避免了因音/视频混合干扰而导致的图像质量下降。 ·RF输入接口:是接收电视信号的射频接口,将视频和音频信号相混合编码输出,会导致信号互相干扰,画质输出质量是所有接口中最差的。 ● 实用接口: ·光纤接口:使用这种接口的平板电视不通过功放就可以直接将音频连接到音箱上,是目前最先进的音频输出接口。 ·RS-232接口:是计算机上的通讯接口之一,用于调制解调器、打印机或者鼠标等外部设备连接。带此接口的电视可以通过这个接口对电视内部的软件进行维护和升级。 ·VGA接口:是源于电脑显卡上的接口,显卡都带此种接口。VGA就是将模拟信号传输到显示器的接口。 ·S端子:是AV端子的改革,在信号传输方面不再对色度与亮度混合传输,这样就避免了设备内信号干扰而产生的图像失真,能够有效地提高画质的清晰程度。 ● 可选接口: ·USB接口:是目前使用较多的多媒体辅助接口,可以连接U盘、移动硬盘等设备。 ·蓝牙接口:是一种短距的无线通讯技术,不需要链接实现了无线听音乐,无线看电视。 ·耳机接口:使用电视无线耳机可在电视静音的情况下,自由欣赏精彩节目。 ● 趋势接口: ·DisplayPort接口:可提供的带宽就高达10.8Gb/s,也允许音频与视频信号共用一条线缆传输,支持多种高质量数字音频。 ● 必备接口:什么是HDMI接口? HDMI是新一代的多媒体接口标准,全称是High-Definition Multimedia InteRFace,中文意思为高清晰多媒体接口,该标准由索尼、日立、松下、飞利浦、东芝、Silicon image、Thomson (RCA)等7家公司在2002年4月开始发起的。其产生是为了取代传统的DVD碟机、电视及其它视频输出设备的已有接口,统一并简化用户终端接线,并提供更高带宽的数据传输速度和数字化无损传送音视频信号。

影视合成基础知识

一、色彩知识 (一)色彩模式 1、RGB色彩模式:是由红、绿、蓝三原色组成的色彩模式。所谓三原色是指不能由其他色彩组合而成的色彩。 2、灰度模式属于非彩色模式。 3、LAB模式是用来从一种颜色模式向另外一种颜色模式转变的内部颜色模式。由三个通道组成:一个亮度和两个色度通道A和B组成,其中A代表从绿到红,B代表从蓝到黄。 4、HSB模式色相:区分色彩的名称。饱和度:某种颜色的浓度含量。饱和度越高,颜色的强度也就越高。亮度:颜色中光的强度表述。 (二)图形、像素和分辨率 1、计算机图形可分为两种类型:位图图形和矢量图形。位图图形也叫光栅图形,通常也称之为图像,它由大量的像素组成。位图图形是依靠分辨率的图形,每一幅都包含着一定数量的像素。矢量图形是与分辨率无关的独立的图形。它通过数学方程式得到的,由矢量所定义的直线和曲线组成。例如徽标在缩放到不同大小时都保持清晰的线条。 2、像素:像素是构成图形的基本元素,它是位图图形的最小单位。像素有以下三种特性:像素与像素间有相对位置;像素具有颜色能力,可以用位来度量,像素都是正主形的;像素的大小是相对的,它依赖于组成整幅图像像素的数量多少。 3、分辨率:分辨率是指图像单位面积内像素的多少。分辨率越高,则图像越清晰。 (三)颜色深度 图像中每个像素可显示出的颜色数称作颜色深度,通常有以下几种颜色深度标准:1、24位真彩色:每个像素所能显示的颜色数为24位,也就是2的24次方,约有1680万种颜色;2、16位增强色:增强色为16位颜色,每个像素显示的颜色数为2的16次方,有65536种颜色;3、8位色:每个像素显示的颜色数为2的8次方,有256种颜色。 (四)Alpha通道 视频编辑除了使用标准的颜色深度外,还可以使用32位颜色深度。32位颜色深度实际上是在24位颜色深度上添加了一个8位的灰度通道,为每一个像素存储透明度信息。这个8位灰度通道被称为Alpha通道。 二、视频基础 (一)非线性编辑 简单地说就是使用计算机对视频进行处理通常称为非线性编辑,指应用计算机图形、图像技术,在计算机中对各种原始素材进行各种编辑操作,并将最终结果输出到计算机硬盘、光盘等记录设备上这一系列完整的工艺过程。 (二)非线性编辑的应用范围

视频会议基础知识培训

...../ ...../ 扫盲级培训基础知识文档资料一 (视频会议基础知识篇) 1、什么是视频会议 通俗的说:视频会议系统就是为人们无法聚集到同一个地方进行会议的时候,提供一种高科技的通信、协作和决策的一种现代化手段。 专业的说:视频会议是利用现有通信网(包括各种传输网络)和数字信号压缩处理技术,将音视频和数据信号处理后传到远端,实现面对面的交流。其交流形式为点到点,点对多点和多点对多点。 主要设备包括MCU(多点控制单元)、视频会议终端、网关、网闸和相关的配套外围设备,如显示设备、音响系统等。 2、视频会议系统协议标准 视频会议行业的国际标准是由ITU(国际电信联合会)和IETF(国际工程师组织)制定的。

目前视频会议行业的国际标准有H.320、H.323(ITU)和SIP(IETF)3个标准集。其中H.323是目前主流的标准。SIP是已经确定的下一代标准。 ITU-T H.320是关于在从56Kbps到2Mbps的ISDN和交换的56Kbps电路上进行电视会议的标准。自从1990年最早通过以后,H.320成为广泛接受的关于ISDN会议电视的标准。H.320是一个"系统"标准,它包含了许多关于系统各部分的其它ITU-T标准,下列标准是H.320的主要组成部分: H.320是一套标准,他包括视频、音频的压缩与解压缩、静止图像、多点会议、加密及一些更新的特性,主要用于系统的终端和MCU的设计。H.320标准包括H.200系列标准和T.120系列标准;H.200系列指的是视听业务,具体来说是以传送活动图像为主的通信业务.T.120系列主要针对声像业务,即传送静止图像的通信业务。 ITU-T H.323标准涵盖了音频、视频及数据在以IP包为基础的网络——LAN、INTRANET、EXTRANET和INTERNET上的通讯,建立H.323标准是为了允许不同厂商的多媒体产品和应用能够互操作。对于范围广泛的基于IP网络的多媒体通信应用来说,H.323标准是非常重要的构件。另外,该标准也允许通过ISDN和POTS与基于PPP的网络直接相连。 1996年,ITU批准了H.323规范。该标准范围广泛,涵盖了各种独立设备。个人计算机技术以及点对点和多点视频会议。标准解决了点对点及多点视频会议中诸如呼叫与会话控制,多媒体与带宽管理等许多问题。H.323为现有的企业基础设施(如IP网)建立了多媒体标准,设计时考虑了弥补质量保证(QOS)机制的不足,H.323使用户能使用多媒体应用而无需改变他们网络的基础结构。

视频监控基础知识培训资料

培训资料

目录 一、安防行业的现状 (1) 二、安防监控典型图例 (14) 三、AB设备 (19) 1.视频切换矩阵及音频切换矩阵 (20) 1.1 AB80-30系列视频切换矩阵 (20) 1.2 AB80-50系列视频切换矩阵 (20) 1.3 AB80-80系列视频切换矩阵 (21) 2.前端设备 (30) 2.1 AB一八8一体化快球系 列 (30) 2.2 AB云台系列 (30) 2.3 AB40解码器 (31) 3.AB键盘系列 (49) 3.1 主控键盘系列 (49) 3.2 分控键盘............................................ (49) 4. AB数字光端机系列 (50) 4.1 AB多模光端机 (50) 4.2 AB单模光端机 (51) 5. AB硬盘录像机及画面处理器 (52) 6. AB软件 (52) 7. AB辅助设备 (52) 8. AB设备联网的优势 (52)

安全防范的现状 视频监控系统是安全防范系统的重要组成部分。近年来,随着计算机、网络以及图像处理、传输技术的飞速发展,视频监控技术也有了长足的发展。 监控系统主要用于对重要区域或远程地点的监视和控制,在银行、金融、水利、航运、零售、制造业、大型企业、治安、消防、小区安保等领域具有举足轻重的地位。一套优秀的监控系统可以实时动态地汇报被监测点的情况,及时发现问题并进行处理,完整的备份资料可以随时进行分析调查。现在一般所说的数字化监控系统,是指监控系统的输入、控制、显示、存储这四大部分均采用数字化图像压缩处理持技术。它的另一特点是经过数字化处理的图像,可利用现有的网络技术,将现场图像传输到远端监控中心。可以说数字化监控系统的两大技术核心就是图像压缩存取技术和网络传输技术,围绕这两种技术在监控系统中的应用,就是数字化监控发展的历程。 目前市场上的监控系统分为以下几种: 模拟监控系统 模拟监控系统是一种传统的监控方式,由模拟摄像机设备组成。模拟系统由模拟摄像机采集视频信息,并通过视频线或射频线路直接输出到监视器,同时由录像机实时将模拟数据记录下来存档。这种方式简单直接,可靠性高,成本低。 数字网络监控系统 以太网技术的日益成熟,使得网络已经深入到各个生产、生活领域。利用公司现有的计算机网络来传输视频,可以充分利用公司的资源并节省成本。网络监控系统在某些领域已经取代了原有的模拟监控系统,并充分发挥了网络监控的优势。网络监控系统工程是由数字摄像设备采集视频信息,并以数字的方式通过有线网络传输到监控中心的设备,百兆以及千兆网络可以提供足够的网络带宽,以支持多个高质量并发视频流稳定地传输。缺点是必须依赖有线的网络,当被监控点没有固定网络的时候便无法传送实时的视频图像,并有受网络情况及病毒的制约。 移动数字监控系统 相对于传统的模拟监控和网络监控来说,移动视像监控采用了更新的技术和方法。在通常情况下,被监控点和中央控制中心相距较远且位置较分散,利用传统网络布线的方式不但成本非常高,而且一旦遇到河流山脉等障碍或对于目标监控点不固定或移动物体(运钞车、轮船等)的控制时,有线网络更是束手无策。此时,移动网络无可比拟的优势就体现了出来。

VJ必读,视频接口

VJ必读:视频输出端口介绍 HDMI、DVI、VGA、RGB、分量、S端子、USB接口 视频输出端口介绍(HDMI、DVI、VGA、RGB、分量、S端子、USB接口)1.S端子标准S端子标准S端子连接线音频复合视频S端子色差常规连接示意图S端子(S-Video)是应用最普遍的视频接口之一,是一种视频信号专用输出接口。常见的S端子是一个5芯接口,其中两路传输视频亮度信号,两路传输色度信号,一路为公共屏蔽地线,由于省去了图像信号Y与色度信号C的综合、编码、合成以及电视机机内的输入切换、矩阵解码等步骤,可有效防止亮度、色度信 视频输出端口介绍(HDMI、DVI、VGA、RGB、分量、S端子、USB接口) 1.S端子 标准S端子 标准S端子连接线

音频复合视频S端子色差常规连接示意图 S端子(S-Video)是应用最普遍的视频接口之一,是一种视频信号专用输出接口。常见的S 端子是一个5芯接口,其中两路传输视频亮度信号,两路传输色度信号,一路为公共屏蔽地线,由于省去了图像信号Y与色度信号C的综合、编码、合成以及电视机机内的输入切换、矩阵解码等步骤,可有效防止亮度、色度信号复合输出的相互串扰,提高图像的清晰度。一般DVD或VCD、TV、PC都具备S端子输出功能,投影机可通过专用的S端子线与这些设备的相应端子连接进行视频输入。 显卡上配置的9针增强S端子,可转接色差

S端子转接线 欧洲插转色差、S端子和AV

与电脑S端子连接需使用专用线,如VIVO线 2.VGA接口 DVI接口正在取代VGA,图为DVI转VGA的转接头 VGA是Video Graphics Adapter的缩写,信号类型为模拟类型,视频输出端的接口为15针母插座,视频输入连线端的接口为15针公插头。VGA端子含红(R)、黄(G)、篮(B)三基色信号和行(HS)、场(VS)扫描信号。VGA端子也叫D-Sub接口。VGA接口外形象“D”,其具备防呆性以防插反,上面共有15个针孔,分成三排,每排五个。VGA接口是显卡上输出信号的主流接口,其可与CRT显示器或具备VGA接口的电视机相连,VGA接口本身可以传输VGA、SVGA、XGA等现在所有格式任何分辨率的模拟RGB+HV信号,其输出的信号已可和任何高清接口相貔美。

视频方面的基础知识

2.1.视频会议产生的意义会议电视技术的出现和发展,逐渐改变了人类的社会活动方式。视频通信是人类社会经济生活中不可缺少的一部分,有关的研究表明,有效的信息55% 60%依赖于面对面(Face to Face)的视觉效果,33% 38%依赖于说话者的语音,而只有7%依赖于内容。传统的通信工具,如电话、传真机等都无法达到面对面或一群人聚集在一起的沟通效果。对企事业单位来说,常年超负荷运转,出差开会,已成为令人苦恼,望而却步的事情。采用会议电视的方式既达到了召开会议的目的,又避免了出差到外地。从效果上来看,可以缓解交通紧张状况,节省时间和经费。对于一些紧急性会议,会议电视在争取时间、及时商讨决策、及时贯彻上级重要指示、及时取得重要信息等方面,都具有明显的优越性。它不仅让参加电视会议的每一个人都仿佛坐在同一个会议室内、同一个会议桌前进行面对面的交流,还可以让与会者在开会的同时方便地处理其他日常工作,而不会为出差开会而苦恼. 2.2视频通讯技术的发展及趋势视频会议系统的历史可追溯到本世纪60年代初,当时美国电报电话公司[AT&T]公司曾推出过模拟会议电视系统[Picturephone]。但由于当时的电话网带宽无法满足要求,其视频信号只能通过极其昂贵的卫星信号传输,这使得成本无法降低。再加上市场需求不强,技术发展不够成熟,这不但限制了该产品的推广(终于受挫而停止发展),也使视频会议市场就此沉寂下来。 进入70年代以来,由于相关技术领域的长足进步,最主要是数字式传输的出现,传统视频会议系统所用模拟信号的采样或传输方法也得到极大的改善,数字信号处理技术开始走向成熟。但是数字信号的存储与传输仍是一个难以解决的问题,尤其是采集的模拟信号如果用数字形式表示,其存储量和要求的传输能力更甚于模拟系统。对数据压缩问题的研究,成为突破障碍,是最终把视频会议技术推向市场的关键。从总体看,70年代视频会议系统的发展处于相对平静的时期,但研究工作并未中断。 进入80年代中期,通信科技发展迅猛,编码和信息压缩技术的发展,使得视频会议设备的实用性大为提高。这时的CODEC由于制造技术的提高,体积在急剧减小,与此同时,数字式网络发展也非常迅速,T1的租用费用迅速下降,并开始

相关主题
文本预览
相关文档 最新文档