首页 > 文章中心 > 视频传输

视频传输

视频传输

视频传输范文第1篇

【关键词】视频会议 实时性 MPGE标准 传输协议RSVP

视频会议起初是少数人才能够消费得起的奢侈品,很多人也只能够望而却步。随着多媒体技术的迅猛发展,网络进入千家万户,为这一问题的解决提供了契机,所以视频会议己经成为当前研究领域的一大热点,并在其他领域得到越来越广泛的应用。

1 视频会议系统简介

目前视频会议系统可以分为:软件视频会议系统、硬件视频会议系统。软件视频会议是基于PC架构的视频通信方式,具有廉价性、开放性等优势,但在视频的稳定性、可靠性还有待于进一步提高,主要应用于个人、小型企业。硬件视频会议是基于嵌入式架构的视频通信方式,依靠DSP+嵌入式软件实现音频视频通信,完成视频会议功能。由于其性能高、可靠性好,中高端视讯会议中都愿意采用这种视频方式,但是大笔资金投入建设会议网络专线,这让中小企业望而却步。随着科技的进步、技术的改善,政府、大企业也开始慢慢关注软件视频会议方式,并开始尝试应用。

2 多媒体数据压缩编码技术

编码问题可分解为信源编码、信道编码和密码编码。信源编码追求的是平均比特数或信源的码率。信道编码主要是提高数据传送的可靠性,为的是保证数据传送的安全性、完整性。视频流的实时传输对网络的带宽要求很高,因为视频数据自身的信息量很大,压缩后仍然是大大高于其他数据类型,为了保证视频可以流畅,传输时对带宽有很高的要求。其次,对数据传输的实时性也有相当高的要求,不同于非实时性数据传输,实时性数据传输尤其是视频会议时,视频数据的时延应该控制在400ms以内,可以允许数据丢失但对延时、抖动等要求很比较苛刻。同时数据采集传输过程中变比特率传输,具有突发性的特点。

3 多媒体数据的实时传输

在多媒体数据的实时传输中要做好以下两方面的工作:一是注意对网络传输性能以及所用传输方式的要求。二是有关流的管理。不仅要对网络本身的流加以控制,也要协调好收发双方工作:既要防止数据丢失;也要避免数据溢出。实时传播中运动图像在网络应用中是关键所在,应用不同也会有不同的传输特点,时下比较热门的网络视频会议,它是“通过与计算机连接的摄像头对与会者摄像,并将画面实时传输给网络中的其他与会者”。这一类应用一般画面都比较小,画面呈现的与会者都只呈现肩部以上的部分,同时画面的运动变化都很规律:五官的细微变化及头部的整移。针对这一特点一般会采用MPGE标准压缩传输,因为它能够对运动图像进行补偿预测,对大块图像的整移可以进行很好的预测和编码技术,MPEG标准因其良好的图像传输效果被广泛应用于此领域。

4 视频会议未来的发展趋势

随着经济的快速发展,人们对视频会议系统给予越来越多的关注,视频会议将会逐步走向中小型企业或是逐渐家庭化甚至平民化。这也是对科研领域这一系统研究的重要原因之一。

4.1灵活简便易操作

随着这一技术的推广,用户逐渐增多,一些用户开始不断反馈各种信息,比如产品的性能不够稳定、使用时操作不方便、频繁更新对硬件要求不断提升等等。这也使得产品会越来越人性化,操作会逐渐简单。随着视听需求的不断提高,会议视频将不单单应用于企业的会议召开上,也会运用在同步教学、在线医疗上。这样对于数据的同步分享就显得尤为重要。那么视频会议系统就会很自然地和各种自动化系统相结合,不断提升可管理性和可操作性。能够很方便的学习操纵和迅速的拆装,在保持高效的性能的同时做到便携性的提高。

4.2大众平民化

软件开发的进度越快,也就意味着产品的普及率正在提高。电话会议同样可以应用于电信、铁路、教育等各行各业。自2004年开始,很多政府机关和大中型企业将这视频会议系统逐渐覆盖到二、三线城市中去,这种发展势头正在加快脚步,相信在不久的将来各行各业将会有自己的视频服务系统。现在很多在线教育机构改变了以往的录播授课,真正实现学生与老师的在线交流,视频会议系统将在很多方面还有很大的发展空间,这两年在应用系统方面的研究正在蓬勃发展,相信视频会议系统的大众化指日可待。

4.3家用小型化

视频会议系统既然可以实现用户面对面的交流,那么这也给传统通信行业带来一次很大的革命。随着电脑的普及,计算机处理性能的提高,网络传输能力的不断加强使得电话会议逐渐走向小型化、微型化。逐渐走向大众,走进人们的生活。个人笔记本电脑的普及也为这一应用系统的家用化、小型化的发展打开了一扇窗。

这三种趋势对于视频会议相关产业者既是机遇又是挑战。人们的需求就是市场需求与商业契机,但每一项要求的背后都需要技术的支持。这项工具既要有一般通信工具的便捷,又要有超强的运算处理数据的能力,并且不能因此降低视听效果。 在不久的未来,视频会议将走进人们的日常生活,将渗透到各行各业。中国政府占据30%的使用比例,金融、教育、通信、医疗等重点行业也在不断地尝试,并占据不小的份额,但仍存在巨大的发展空间。中国的二三线城市以及下属的城镇又有不可估量的市场需求,这将带动视频会议系统市场的快速持续发展。

5 结语

随着计算机网络技术的不断进步,视频通信逐渐走近我们每一个人的生活, 人们也随之在追寻更高的视听质量,视频会议系统可以通过网络通信技术从而实现召开虚拟会议的设想,极大地方便了成员之间的交流。视频会议系统将比以往的会议模式更优质,赢得更广阔的市场。

参考文献:

[1]宋柱芹.视频会议中视频实时传输系统的研究与实现[D].中国海洋大学,2006.

视频传输范文第2篇

【关键词】视频监控;视频压缩;H.264网络

0 绪论

随着人类文明的高度发展,人类对信息的实时需求也越来越丰富。能够通过文字、语音、图像和视频等各种方式进行随时随地的信息交流是人们十分渴望的,近代飞速发展的科学技术,也正在不断满足人类的这些需求。随着视频压缩技术和网络技术的发展,可视对讲、可视电话、视频会议、视频监控、网络直播等多媒体业务成为了人们关注的热点。

1 H.264视频压缩标准及流媒体技术

1.1 H.264视频压缩技术

1.1.1 H.264标准的主要特点

(1)具有更高的编码效率;

(2)具有高质量的视频画面;

(3)具有更强的网络适应能力;

(4)采用混合编码结构;

(5)具有较少编码选项;

(6)可应用在多种环境下;

(7)具有错误恢复功能。

1.1.2 H.264标准的关键技术

(1)分层设计

H.264的算法在概念上可以分为两层:视频编码层和网络提取层。视频编码层主要用来更高效的视频内容编码,网络提取层则主要用来根据网络的要求,以恰当的方式对数据进行打包和传送。在视频编码层和网络提取层之间定义了一个基于分组方式的接口,打包和相应的信令属于网络提取层的一部分。这样,高效的编码率和良好的网络适应任务可以分别由它们来完成。

(2)帧内预测编码

帧内预测编码包括:4×4亮度帧内预测模式、16×16亮度帧内预测模式、8×8色度块帧内预测模式。

(3)帧间预测编码

H.264采用了更加先进的技术,允许编码器使用多于一帧的先前帧用于运动估计,以提高运动估计和运动补偿的精度和效率。一般我们是通过运动估值和运动补偿来利用时域相关性的。

(4)熵编码

熵编码是无损压缩编码方法,它生成的码流可以经解码无失真地恢复出原数据。H.264提供了两种熵编码方法:一种是基于上下文的自适应变长编码与普通变字长编码相结合的编码,另一种是基于上下文的自适应二进制算术编码。

1.2 视频网络传输的流媒体技术

流媒体本质上是指采用流式传输的方式在互联网播放的多媒体格式。流式传输的过程一般如下:当用户选择流媒体服务后,Web浏览器与服务器之间通过使用HTTP/TCP交换控制信息,来把需要传输的实时数据从原始信息中检索出来;然后Web浏览器启动音视频客户端程序,使用HTTP从Web服务器检索相关参数对音视频客户端程序进行初始化;音视频客户程序及音视频服务器运行实时流协议,用来交换音视频传输所需的控制信息,实时流协议提供执行播放、快进、快倒、暂停及录制等命令的方法;音视频服务器使用RTP/UDP协议将音视频数据传输给音视频客户端程序,一旦音视频数据抵达客户端,音视频客户程序即可播放输出。

流媒体技术的实现主要是流式传输的实现,而流式传输除了需要经过处理的多媒体数据和足够的缓存外,更重要的是需要适当的协议,才能保证流式传输的顺利进行,流式传输中主要使用实时传输协议RTP与实时传输控制协议RTCP、实时流放协议RTSP、资源保留协议RSVP协议。

2 视频网络传输系统的实现

网络摄像机可以将影像通过网络传至地球另一端,也可用于局域网内。网络摄像机是网络视频监控系统的主要组成部分,它在网络视频监控系统中是视频监控终端,由摄相机捕捉到的视频画面,被其进行视频编码、打包,然后依靠流媒体技术,通过网络将其传送到显示终端。

网络摄像机的视频数据先以单播RTP的方式传输到Darwin流媒体服务器,再由该服务器直接存储,或以广播或多播的方式使用RTSP协议中转到每个客户端,从而可以实现在多个客户端的视频点播或实时视频直播。

3 小结

H.264技术具有更精确的预测能力和更高的容错能力,因此可实现更高的压缩效率,它将有可能推动视频编码器进一步向前发展。随着H.264格式更加广泛地应用于网络摄像机,系统设计商和集成商将需要确保他们所选择的产品和厂商能够支持这一全新的开放标准。

【参考文献】

[1]王彩霞,赵刚,刘三民.H.264的视频压缩技术的研究与分析[J].计算机与信息技术,2009,1(Z1):46-52.

[2]楼剑,虞露.新一代的视频编解码标准:H.264[J].当代通信,2003(5):27-31.

[3]周华.音视频编解码技术H.264的应用研究[J].福建电脑,2006(6):42-43.

[4]杜晔.流媒体技术的原理和应用[J].光盘技术,2008(7):9-11.

视频传输范文第3篇

关键词 超高清视频;高速串行信号;光纤通信

中图分类号:TN919 文献标识码:A 文章编号:1671-7597(2014)09-0039-02

近年来,超高清视频信号(4K*2K)的制作、传输与播放已成为当今世界视频发展的必然趋势。随着技术的发展,人们对视频质量的要求越来越高,对视频传输距离要求越来越远[1]。但因超高清视频信号数据量大、传输速率高等特点,传输距离较近的缺点阻碍其发展。

目前,超高清分辨率视频信号的信号接口主要是DVI和HDMI,传输媒质是平衡电缆,比如双绞线。但因超高清分辨率视频信号数据量大,传输速率高,使用平衡电缆传输信号衰减严重,传输距离一般为5米左右,加上均衡器最多也只能支持到45米。且需要使用高质量规格的线缆,成本较高,布线不方便。

其他远程传输方式也有将DVI或HDMI信号通过简单的光电转换将TMDS信号转换成4个光信号,通过4条光纤进行传输。这样造成了现场布线困难,最小化传输差分信号(TMDS)存在延伸,容易靠成时钟偏移。而且此方法为单向传输,信号源无法读取显示器的扩展显示标识数据(EDID),不能以最佳分辨率进行显示。以上这些方法都不能很好的解决超高清视频信号远程传输的问题。

为了克服现有技术结构的不足,本文提出了一种超高清视频远程传输系统,以便于解决超高清视频在实际应用过程中遇到的突出问题。

1 系统方案设计

本文设计的超高清视频远程传输系统其设备包括:信号源发送端,光纤,显示器接收端。如图1所示。信号源发送端接收来自显示器接收端发送过来的光信号,将光信号转换器相应的EDID信号给信号源(PC或其它),使信号源端能够识别出显示器端的支持分辨率范围与最佳分辨率大小。同时信号源发送端将信号源端的超高清分辨率视频信号通过相关的视频解码、串并转换、光电转换等操作转换成光信号,使用光波分复用模块由同一根光纤将光信号传输给显示器接收端。

而显示器接收端将EDID信号通过串并转换和光电转换变成光信号,传输给信号源发送端,同时接收来自信号源发送端的光信号,将其经过光电转换、串并转换、视频编码等操作转换成相应的超高清分辨率视频信号,传输给显示器。

2 关键模块设计

整个系统的关键模块有三部分,包括光电转换模块、串行化/解串化模块、缓存设计。发送端框图如图2所示,接收端与发送端类似。

2.1 光电转换

本设计实现单芯光纤同时收发功能,光电转换模块起着重要的作用[2]。常用的光纤收发模块只有单独的发送或接收功能,但本文使用具有双向光发送接收功能的BOSA光组件,再同配合MAXIM公司的激光驱动器MAX3946与限幅放大器MAX3945,实现在一根光纤上同时收发数据。

光组件BOSA是将微小透镜、波分复用WDM滤光片等无源器件,与LD、PD等有源器件组装在了一个基于硅的平台上,同时具有TOSA和ROSA光组件功能,实现了单纤双向功能。激光驱动器MAX3946接收8.5Gbps高速串行数据电信号后,通过可编程均衡的输入缓冲器、脉宽调节电路、偏置电流和调制电流DAC、可编程去加重的输出驱动器驱动BOSA光组件发送。而限幅放大器MAX3945对互阻放大器产生的电信号经过可编程滤波器,限幅放大,产生CML电平差分输出信号,速率高达8.5Gbps。

2.2 串行化/解串化

超高清分辨率最高可达4K*2K分辨率,本系统前端接受来DUAL LINK的DVI信号源传输的3840*2160@30Hz,24位色深的分辨率,通过SILICON公司的解码芯片SIL7181解码成48位的奇偶场RGB信号。视频信号的采样频率为148.5 MHz。48位的RGB信号连同场同步信号VS,行同步信号HS、数据有效信号DE,像素时钟CLK一起发送给FPGA[3]。FPGA选用ALTERA公司的Stratix IV系列的EP4SGX70由于FPGA自带了16路最高支持8.5Gbps的高速串行数据收发器,可以不用外置串行化/解串化芯片。

根据最高分辨率为3840*2160@30Hz,使用单通道高速传输,单纯传输视频有效数据,使用8b/10b编码方式[4],需要使用的带宽如下:

带宽W=行数据个数*列数据个数*位宽*帧数*8bit/10bit

W=3840*2160*24*30*10/8=7.47Gbps

因此,再算上视频信号的部分消隐区,场同步信号VS、行同步信号HS、数据有效信号DE和高速串行协议的一些指示位等,使用8.5Gbps足够传输一路超高清视频信号,直接由FPGA将视频数据经过内部数据格式化,数据缓存和串行化/解串化等操作,实现将视频信号的串行化/解串化。

2.3 缓存设计

由于视频解码芯片解出来的RGB信号属于低速信号,而串行化通道属于高速接口,为了将两者数据进行同步,需要对数据放进FIFO一级缓存。FIFO根据先进先出的设计思想,在FPGA划分一个较大的缓存空间,低速信号经过格式处理后,依次把场同步信号VS、行同步信号HS、数据有效信号DE和数据DATA放入FIFO中,等待FIFO填充一定程度时,由FPGA将FIFO数据读取放入高速串行化通道中[5]。由于高速串行化通道读取速率高于低速视频输入接口,FIFO读取速度快于写入速度,保证FIFO中数据能及时读取,不会出现覆盖现象。

当高速串行化数据输入到接收端的FPGA进行解串化处理时,也需要划分FIFO缓存空间,由于高速串行化数据解串后写入FIFO的速率较快,且FPGA需要对数据和同步信号重新进行格式化处理等,需要使用两个FIFO。第一个FIFO存放解串化的数据,再由FPGA读取出来进行格式化操作,存放到第二个FIFO,最后才输出DVI视频编码芯片。DVI视频编码芯片使用SILICON公司的SIL7172芯片。

3 系统调试

该系统关键在于使用高速串行化数据通道,高达8.5Gbps。对于普通的印刷电路板材FR4已不能满足使用高速串行线要求,需使用更低损耗的高级板材如M6。普通FR4板材每英寸长度信号损耗为0.608dB,而高级板材M6每英寸损耗小于0.2dB。同时高速串行化数据线走线越短越好,旁边不能有敏感信号线如复位线,时钟线等,最好能有一层完整地参考平面,保证高速串行化数据线的信号完整性。

对系统调试首先要对硬件进行测试,包括测试电源噪声、上电时序、信号质量等。保证有硬件链路上设备是正常的。然后通过编写FPGA程序对高速串行化通道的误码率进行测试。由FPGA内部产生PRBS码流[6],通过限幅放大器处理后,由光纤发送给接收端。在接收端进行解码。由于发送的数据为已知数据,可以根据接收的数据统计误码情况,要求误码率低于10E-12。如果发现误码率较大,较大可能是画印刷电路板没处理好高速串行化数据通道或者FPGA高速串行通道的参考时钟不稳定、差分信号线的交流耦合电容不匹配、电源噪声大等问题导致。需要根据实际情况测试信号波形进行排查。

4 结论

市面上越来越多使用4K*2K的显示器或电视机,表明超高清视频在视频应用中已逐步成为主流趋势。本设计通过使用单根光纤,较好的解决了超高清视频远距离传输存在的问题,与现有的一些视频远程传输设备相比有如下几个优点。

1)分辨率范围广。

本发明可用于传输视频分辨率范围大,不仅可用于传输标准清晰度视频和高清视频,突出可传输分辨率超过1080P的超高清视频。最大传输视频分辨率可达到3840*2160。

2)传输距离远。

超高清视频远程传输系统根据光发送、光接收器件和光纤的选择不同的,传输距离也有所不同。如果使用单模光纤进行传输,最远可以传输几十千米。

3)单根光纤双向传输。

超高清视频远程传输系统利用BOSA光组件,实现信号源与显示器之间进行单根光纤双向传输。通过回传显示器的EDID信号,达到信号源智能识别显示器最佳分辨率,同时降低光纤使用成本。

参考文献

[1]张岳.高速视频光纤传输系统[J].电子测量技术,2012,35(9):74-76,86.

[2]林康,刘敬彪,等.一路视频双向数据的光纤传输系统设计[J].光通信技术,2012(03):33-35.

[3]林琳,王加贤,等.四路视频和音频信号的光纤传输系统设计[J].华侨大学学报(自然科学版),2011,32(1):35-38.

[4]赵柏山,郭名坤,等.基于FPGA的光纤与1.4标准HDMI接口转换方法[J].FPGA技术应用,2013(8):21-23.

[5]季旭东,李武森,等.多路视频双向光纤传输系统的研究[J].光传输技术,2011(3):29-32.

[6]李增.高速视频数据光纤传输系统的物料层实现[J].计算机工程,2009,35(11):272-274.

视频传输范文第4篇

关键词:雷达视频回波;分层编码;多速率多播

中图分类号:TP393 文献标识码:A 文章编号:1007-9599 (2013) 02-0000-02

1 引言

现代化协同作战指挥系统越来越重视各信息子站点的信息、情报共享。当前国内外几乎所有的国家都组建了各自的雷达防空网络。一个先进的雷达防空网络,不仅要求各雷达站能精确地探测目标信息,更要求各雷达站可靠、及时地将雷达探测的目标信息可靠地上报到各级指挥所,便于各级单位协同作战。

雷达视频回波是雷达探测到的目标信息中的重要构成部分。文献[1]指出通过对目标视频回波信号处理后,可实现对目标的探测、定位、和跟踪。尤其是在目标识别中,需要通过雷达视频回波数据,来分析和研究目标特性。雷达视频包含的信息量巨大。文献[2]指出,对雷达视频回波,采用进行40MHZ进行A/D采用,设置A/D分辨率为10bit(比特),则回波数据量则达到为50Mbps。

虽然雷达视频回波数据巨大,但是针对具体的每一个信息用户(不同的上级指挥单位)来说,并不是每一个信息用户都需要所有的视频回波数据。有的信息用户可能只需要在远程观看视频图像即可,而对于需要利用视频回波数据进行目标识别分析的用户,为了深入地挖掘目标特性,其无疑需要更多的视频回波数据。同时,从物理上来说,不同的用户其可利用的网络带宽不同,如果统一地发送全部视频数据,显然是不切实际的。因此,可模型化为雷达视频回波数据的传输是一个多速率多播的问题。多播的源节点为雷达站,多播的接收节点为协同作战指挥系统中雷达视频回波的信息用户,这些用户根据自身的带宽需求,以不同的速率接收数据。本文将视频分层技术“分层编码”(Layered Coding)应用到雷达视频回波数据的传输机制中,以实现协同作战指挥系统中雷达视频回波数据的多速率多播(Multi-rate Multicast)传输机制。这种基于分层编码技术的多速率多播传输机制,称为分层多播(Layered Multicast)。

在分层编码技术[3,4,5]中,发送方以层次结构组织数据发送,每一层为一独立的组,最低层(第一层)发送基本的视频流,第二层及以上各层发送增强质量的信息,信息接收者根据自身的网络能力,以累积的方式加入一个或多个层次,层次越多解码后的视频质量越高,即接收到的视频数据越全面。

本文研究的主要问题就是根据雷达视频数据用户可用带宽的不同及其利用数据的用途不同,如何利用分层多播技术,实现雷达视频数据到各级用户之间的多速率多播。

2 问题模型

首先,我们举例(如图1到图4)说明分层多播技术。在图1所示的网络中,分层多播的源节点是节点s,接收节点是t1、t2和t3,各边上标明的数字是该条链路的带宽,s到t1、t2和t3的网络带宽为1mbps,2mbps,3mbps。假定在源节点s处将雷达视频回波编码分成3个分层,每个分层的发送速率都是1 mbps,则t1、t2和t3都能收到第1层视频回波数据,如图2所示;t2和t3都能收到第2层视频回波数据,只有t3能收到第3层视频回波数据。

从上述的例子中可以看出,通过将雷达视频回波数据采用分层编码方式进行分层多播传输,能够实现视频回波最大化速率传输,满足雷达视频回波用户的最大需求。

由于现有的存储转发路由机制的传统网络中,每个多播数据传输都是基于树形结构的。因此本文研究的最大化雷达视频回波传输速率,以满足不同用户需求的问题,可模型化为如何根据视频回波数据各分层的发送速率以及各接收节点的可用带宽,为每个分层构建树形的数据多播传输图,如图2、图3、图4。

3 传输算法

假定雷达视频回波数据的源节点s将数据分成m个分层,L1,L2,…,Lm,每个分层Li的发送速率为ri。雷达视频回波数据的接收节点(数据用户)有n个,分别为t1,t2,…,tn。在雷达视频传输的网络中,从源节点s到接收节点tj有n(j)条路径,分别为pj(1),pj(2),…,pj(n(j)),对应的路径带宽为bj(1), bj(2),…,bj(n(j))。我们构建的雷达视频回波数据传输算法如下:

步骤1:在网络拓扑中,将雷达视频回波数据源节点s到各接收节点tj的各条路径pj(k)按其路径带宽bj(k)从小到大进行排序。

步骤2:挑选从源节点s到各接收节点tj的最大带宽路径,构建一个多播树。这个多播树可达的多播速率决定了各接收节点在这个多播树中能够接收到几个视频分层数据。

步骤3:在网络拓扑中,剖分出在步骤二中已利用的各链路的带宽,得到一个新的网络拓扑图。返回到步骤1中,重新执行。

重复步骤1,步骤2和步骤3,直到不能再构建新的多播树为止。

上述算法是一种启发式的贪心算法,其思想就是让每个接收节点在其可用带宽的限制下尽可能收到其所需的雷达视频回波数据,从而保证了用户可有带宽和用户需求之间的一种最大化。

4 结论

本文研究了大容量的雷达视频回波数据传输问题。根据雷达视频数据用户可用网络接收带宽的不同以及其利用雷达视频回波数据的用途不同,首次将分层多播的技术引入到雷达视频回波数据的传输机制中,并实现了有效的传输算法,能够很好地解决协同作战指挥系统中大数据量的雷达视频回波传输问题。

参考文献:

[1]尹志勇,焦新泉水,任勇峰.雷达视频回波信号实时采集、压缩转发装置[J].计算机测量与控制,2010,18(2):479-481.

[2]韩菲.基于雷达视频的Huffman编码研究[J].舰船电子工程,2004,24(1): 68-71.

[3]S. E. Deering, D. R. Cheriton. Multicast routing in datagram internetworks and extended LANs [J]. ACM Trans. Comput. Syst., 1990, 8(2): 85-110.

[4]S. McCanne, V. Jacobson, and M.Vetterli. Receiver driven layered multicast [C]. Proc. of ACM SIGCOMM, 1996: 117130.

视频传输范文第5篇

关键词:嵌入式Linux;无线视频传输;MPEG-4视频采集;驱动程序;软件压缩

中图分类号:TN919.8文献标识码:B

文章编号:1004-373X(2010)04-070-03

Design of Wireless Video Transmission System Based on 802.11

ZHANG Cunli,WU Yi,HUANG Hongqiang,YAN Zeqiu

(School of Physics and OptoElectronics Technology,Fujian Normal University,Fuzhou,350007,China)

Abstract:The design of a wireless video transmission system based on S3C2440A and embedded Linux OS is presented,it mainly introduces structure of the system and functions of the key modules,such as hardware design of video capturing and wireless video transmission modules,implement of the driver transplantation based on Linux,MPEG-4 digital video software encode and the application program software.The video transmission based on WLAN and this system has been realized,real-time monitoring network data flow and congestion conditions,controlling the video compression ratio automatically,improving the network transmission quality,ensuring the fluency of video playing.High reliability and convenient usage are achieved.

Keywords:embedded Linux;wireless video transmission;MPEG-4 video capturing;device driver;software compression

0 引 言

随着无线通信技术和计算机网络技术的飞速发展,无线网络传输带宽的不断提高,实时数据传输能力不断增强,无线局域网日益普及,使得基于无线局域网的视频传输成为研究热点。与有线网络相比,无线网络具有组网灵活,可扩展性,便携性好,网络改造方便,维护费用低等优点。

在此提出一种基于嵌入式Linux操作系统,采用ARM920T内核的S3C2440 A嵌入式微处理器为软硬件平台的实时视频无线传输系统,该系统可将经过MPEG-4软件压缩编码后的视频图像通过802.11无线网络传输到服务器,以实现视频图像的分析、存储和显示功能。

文献[1-6]在无线视频传输系统设计方面都做了相关的研究。文献[1]综合介绍了无线视频监控系统发展趋势和所涉及的关键技术,讨论了基于不同网络的无线视频监控系统的应用及无线视频监控的发展方向;文献[2,3]介绍了一种基于S3C2410硬件平台和嵌入式WinCE操作系统的无线视频监控系统总体设计方案;文献[4]提出了一种基于ARM9微处理器AT91-RM9200的嵌入式多路视频监控系统方案;文献[5],文献[6]分别介绍了一种基于S3C2410硬件平台、S3C2440硬件平台和嵌入式Linux系统的无线视频监控系统。其中,文献[3,4]中采用的是硬件压缩芯片来实现MPEG-4的压缩编码,文献[5]采用的是对采集到的图像进行JPEG压缩。与S3C2410相比较,S3C2440的主频提高了,视频播放效果也更好;而Linux比WinCE易于裁减,移植性、实时性更好;使用MPEG-4硬件压缩的性价比不高,可移植性以及扩展性差,不利于对算法进行改进和扩展;使用JPEG压缩,在画面变动较小的情况下,能提供相当不错的图像质量,但其压缩比不能太高,否则会影响视频质量,还会导致马赛克等编码劣化的现象。

1 系统总体设计

系统设计采用模块化思想。首先,采用USB摄像头采集实时视频信息,通过MPEG-4对采集的数字视频进行软件压缩编码,生成MPEG-4码流,然后通过802.11g无线传输模块将MPEG-4码流传输到无线接入点(Access Point,AP),最后经过AP转发到接收服务器,客户端用户可通过有线或无线方式访问服务器,获取远程视频影像。视频传输系统总体结构框图如图1所示。

图1 系统总体结构框图

2 系统硬件设计

该无线视频传输系统主要由ARM9处理器、视频采集模块、网络通信模块、电源模块组成。其硬件组成如图2所示。

图2 传输系统硬件组成

2.1 系统主控制器

核心CPU采用Samsung公司的主流ARM9处理器S3C2440A。基于ARM920T内核,主频高达400 MHz,有带(内存管理单元,MMU),片上资源丰富,性价比极高,是目前ARM9处理器的一款主流芯片。

核心板标配64 MB Samsung NAND FLASH及64 MB SDRAM,可稳定运行Linux,WinCE,VxWorks等嵌入式实时操作系统。

2.2 视频采集模块

该系统使用中星微301系列高清芯片USB摄像头,该摄像头采用CMOS感光元件。与CCD相比,尽管在成像质量上有所差距,但采用500万像素数码相机高档五玻璃高清镜头,使摄像头的分辨率最高可达1 024×768,而且还提供360°全方位视角,能基本满足视频采集的需要。

2.3 无线通信模块

无线通信模块主要是通过USB接口的无线网卡实现的。该系统通过使用ASUS WL-167g V2无线网卡在前端监控设备与后端接收服务器之间构建无线局域网络,实现点对点的无缝连接。该无线网卡可与S3C2440A集成的USB主机接口直接相连,工作在2.412~2.472 GHz(欧洲 ETSI)频段,采用OFDM,CCK,DQPSK,DBPSK等调制方式,遵从802.11b/g协议,传输速率为54 Mb/s,室内最远距离为40 m,室外最远距离为330 m,能够满足局域网内视频传输的要求。

3 系统软件设计

该系统的软件设计主要包括操作系统、驱动程序、MPEG-4视频编码和应用程序。Linux提供了丰富的网络和总线协议栈,能够降低系统的开发成本,并缩短开发周期,因此系统选用内核版本2.6的Linux操作系统。系统将USB设备驱动模块、MPEG-4视频编码模块以及其他基本模块通过交叉编译移植到S3C2440A上。

3.1 USB设备驱动模块的移植

USB设备驱动模块的移植主要指Linux下无线网卡驱动的移植。因为嵌入式Linux系统是在嵌入式终端上运行的,这就需要将驱动程序移植到嵌入式终端上。实现驱动程序移植的方式主要有两种[3]:一种是直接将驱动程序编译到内核,在系统内核启动时,直接通过初始化函数对驱动程序进行加载,在内核启动完成的同时,实现了驱动程序的加载;二是通过模块加载的方式,在已经移植的嵌入式Linux平台上进行驱动程序的加载。这两种加载方式,前者需要改变内核结构,而且在改变驱动程序时又要进行重复编译,工作量较大。比较而言,后者的灵活性更大。因此,该系统中无线网卡的驱动加载采用第二种方式。

ASUS WL-167g V2使用的是rt73芯片,该芯片有开源的Linux驱动。由于原Makefile文件并不适合ARM移植,要先对其修改再进行交叉编译,最后生成驱动rt73.ko文件。将其下载到ARM板上,并使用insmod命令进行加载。加载成功后,搜索附近存在的AP站点,再对网络进行iwconfig设置MODE,EESID,KEY等参数,并用ping命令测试无线网络是否连通。

3.2 MPEG-4视频编码模块

实现MPEG-4编码的方式有硬件压缩和软件压缩两种。硬件压缩是利用专门的压缩芯片对视频信号进行MPEG-4编码,而软件压缩是使用压缩软件对视频信号进行编码。该系统主要采用软件实现视频信号的编解码。

Xvid是一个开放源代码的MPEG-4多媒体编解码器,它是基于OpenDivX而编写的。由于Xvid是GNU GPL许可的自由软件,这意味着,软件的源代码是公开提供的,并且程序员可以对代码进行修改。目前,该系统采用的Xvid版本为Xvid 1.2.1,下载Xvid 1.2.1源码包xvidcore-1.2.1.tar.gz解压后,进行交叉编译,并移植到ARM平台。根据实际项目,编译步骤如下:

(1) 确保arm-linux-gcc交叉编译工具的正确安装;

(2) 解压缩xvidcore 源代码:

# tar xzvf xvidcore-1.2.1.tar.gz

(3) 进入xvidcore/build/generic目录,可以执行./configure Ch来显示帮助信息。根据帮助信息设置静态链接库和动态链接库的安装路径,配置所用的交叉编译器。根据程序安装的实际情况,执行如下命令配置软件功能,生成platform.inc文件。

#./configure build=arm-linux-gcc host=arm-linux --disable-assembly--prefix=/usr/local/arm/3.4.1/arm-linux

(4) 手工配置platform.inc文件,修改CC=/usr/local/arm/3.4.1/bin/arm-linux-gcc,运行make,makeinstall编译、安装源代码。

(5) 进入examples目录,运行examples下的Makefile文件,编译生成xvid_bench,xvid_decraw,xvid_encraw三个文件,将这些文件通过串口下载到目标板上运行即可。

经过调试和优化后,在400 MHz主频下对分辨率为176×144 的QCIF图像可以达到20 f/s左右的编码速度,基本实现了实时编码,可以达到实用的要求。

3.3 网络传输应用程序

实现网络传输的应用程序软件主要是嵌入式前端发送软件以及服务器接收软件的设计与实现,包括对嵌入式前端设备的控制与管理,视频数据的接收、存储、回放视频质量的调整以及可同时管理多路前端设备,接收多路视频的功能;嵌入式前端设备与服务器之间数据通信的设计与实现,包括Socket通信、MPEG-4视频流的编解码、数据包的封装、协议处理等功能。

该系统视频数据发送和接收的过程如下:前端设备先启动并处于等待用户连接的状态;当服务器需要数据时,它首先输入前端设备的IP地址,向前端设备发出数据请求;前端设备在接收到数据请求后,将它的IP组播地址和端口号传给服务器;服务器收到后,启动接收数据线程,创建用户播放界面,加入此IP组播组,等待接收数据,并向前端设备发回确认信息;前端设备收到确认信息后,向该组播组发送视频数据。其操作流程如图3所示。

图3 应用程序的操作流程图

4 系统测试

系统测试是在实验室内局域网完成的。把摄像头插入开发板USB接口,并通过无线网卡将开发板接入局域网内。启动开发板,并通过超级终端设置开发板IP地址为10.192.3.200。由于服务器端的视频显示需要Java环境,如果浏览器不支持Java插件,则需要安装JDK。安装成功后,在浏览器的地址栏输入:10.192.3.200即可实现视频的动态传输。测试结果如图4所示。

图4 视频传输测试结果

5 结 语

目前已经完成了视频采集驱动模块、无线网卡驱动模块的移植,实现了嵌入式前端设备与服务器之间的无线连接。为了提高MPEG-4软件的压缩效率,还需要对Xvid代码进行更深入的研究及优化。

由于该系统采用了高性能的ARM9处理器S3C2440A和嵌入式Linux操作系统,使其性能基本上能满足无线视频传输的要求,并具有一定的可扩展性,能通过功能模块的扩展满足更高用户的需求。

参考文献

[1]靳锐敏,别红霞.无线视频监控技术与系统综述[J].中国多媒体通信,2007(4):12-15.

[2]关学忠.基于WinCE的ARM视频监控系统解析[J].中国公共安全,2008(4):100-103.

[3]王陆林,刘贵如,蒋朝根.基于WLAN的嵌入式视频监控系统的研究与设计[J].西南科技大学学报,2008,23(1):43-47.

[4]王鹏,黄建,吕志刚.基于ARM9的嵌入式多路视频监控系统设计[J].电视技术,2008,32(7):84-86.

[5]郝卫东,李静.基于Linux的嵌入式网络视频监控系统研究与设计[J].计算机系统应用,2008,17(8):69-72.

[6]王宪,刘井权,戴F.基于ARM平台的远程视频监控系统的研究[J].微计算机信息,2007,23(2):73-75.

[7]钱晓华,郭继红.基于嵌入式Linux的无线网卡驱动程序[J].辽宁大学学报:自然科学版,2008(1):55-57.

[8]高雪娟,卓力,王素玉,等.基于H.264标准的无线局域网视频传输系统实现方案[J].测控技术,2008,27(5):15-18.