新万博|西甲官方合作伙伴

首页
Loading
您所在的位置:新万博 > 服务信息 > IC卡服务 >

车载后视场景分布式视频新万博监控系统

来源:未知 作者:admin 日期:2019-03-01 04:18

  据媒体报道,我国由于后视镜盲区造成的交通事故约占30%.而且,随着“考驾照”热不降温的现象出现,未来的汽车后视镜盲区问题更是不容小觑。数字社会的形成为数字化实时监控提供了契机,汽车后视场景的数字化实时监控成为解决后视镜盲区问题的研究热点。

  目前,市场上已经出现了一些数字化的汽车监控系统,常见的有分屏显示的监控系统、有缝拼接的监控系统和第8代“卫星”全景行车安全系统。分屏显示的监控系统只是对图像进行简单的分屏显示,不能实时地将车辆周围的景象显示在屏幕上;有缝拼接的监控系统不是将图像简单地叠加,而是对图像拼接处理,形成中间是车子,周围是图像的全景图,缺点在于四个图像拼接之处存在明显的拼接缝;第8代“卫星”全景行车安全系统采用超广角摄像头,它能够更好地消除图像拼接之处的拼接缝,形成汽车全景俯视图。

  Android系统具有平台开放性,而且谷歌的“开放汽车联盟(OAA)”致力于实现汽车与Android设备的无缝连接以及直接在汽车上内置Android车载系统;DM3730

  集成了1GHz的ARM Cortex-A8核和800MHz的TMS320C64x+ DSP核,DSP在数字信号处理上具有无可比拟的优势,更适合进行图像处理。因此,基于Android和DM3730设计的车载分布式视频监控系统有着广阔的应用前景。

  车载分布式视频监控系统集成了Android平台的开放性、ARM+DSP的高性能、以太网的可扩展性和USB摄像头的即插即用性,对实现汽车数字化实时监控有研究意义和应用价值。

  车载分布式视频监控系统由视频采集模块、视频传输模块、视频拼接模块和视频显示模块四个模块组成。图1展示了系统的整体设计,图2展示了系统各模块之间的硬件接口。

  ①视频采集模块:AM3715开发板通过USB-HOST接口外接USB摄像头,通过Android操作系统的Java本地调用接口[3](JNI)和V4L2 (video 4 linux 2)视频驱动框架实时采集视频并显示。

  ②视频传输模块:两个(或多个)AM3715和DM3730开发板之间通过以太网相连,利用RTP组播协议和自定义同步机制将USB摄像头采集的图像实时传输至DM3730开发板的ARM端。

  ③视频拼接模块:DM3730开发板的ARM端运行嵌入式Linux操作系统(或Android操作系统),通过TI Codec Engine模块同时在ARM端和DSP端映射共享内存,使得同步接收的两幅(或多幅)图像能够被ARM和DSP同时访问。针对车载应用扩充嵌入式计算视觉库(EMCV),并移植和优化SURF开源项目OpenSURF,DSP端能够实时拼接两幅(或多幅)图像,最后将拼接结果由共享内存返回ARM端。

  ④视频显示模块:视频显示是通过跨平台多媒体库SDL(Simple DirectMedia Layer)来完成的。其中,AM3715开发板显示分离的USB摄像头图像,DM3730开发板显示拼接完成的图像。

  V4L2从Linux 2.5.x版本的内核开始出现,为使能UVC驱动和V4L2编程框架,首先需检查Android内核配置选项,以生成视频设备文件/dev/videoX(X表示次设备号)。

  利用V4L2进行USB摄像头视频采集的流程[7]包括:(1)打开视频设备文件;(2)检查设备属性;(3)设置视频格式;(4)帧缓冲区管理;(5)循环采集视频;(6)关闭视频设备。

  V4L2介于应用程序和硬件设备之间,应用程序可以通过三种方式访问内核层的数据:直接读/写方式、内存映射方式和用户指针方式。直接读/写方式需要在用户空间和内核空间不断拷贝数据,效率低下;内存映射方式把内核地址映射到用户地址空间,进程可以直接读写内存,避免了数据的拷贝,具有较高的效率;用户指针方式的内存片段是由应用程序自己分配的。

  车载分布式视频监控系统采用效率较高的内存映射方式,系统调用mmap()能够将内核地址映射到用户地址空间。

  鉴于以太网具有高速的传输能力和良好的可扩展性能,车载分布式视频监控系统通过RTP组播的方式在Android系统与嵌入式Linux系统之间传输USB摄像头采集的图像。文献[8]描述了利用RTP库JRTPLIB实现视频实时传输的过程。新万博!为了确保两个AM3715开发板与DM3730开发板之间图像传输的同步性,车载分布式视频监控系统设计了同步传输协议,协议描述如下:

  ①每个发送端等待来自接收端的视频帧请求命令R,否则不执行发送操作。

  ②收到帧请求命令后,发送端首先向组播地址发送视频帧传输开始标识0xFE,以标识一帧视频传输的开始。

  ③将YUY2格式的图像依次向组播地址传输,每次传输m行,传输n次,并在每个RTP数据包的首字节位置添加RTP包传输序号(序号从0开始,依次增1)。假设YUY2图像宽度为width,高度为height,由于平均一个像素占2B,所以每次传输的RTP包数据大小为(2m*width+1)B,传输次数n = height/m.

  ④传输结束时,向组播地址发送视频帧传输结束标识0xFF,以标志一帧视频传输的结束。

  ①接收端向组播地址发送帧请求命令R,然后启动软件电子狗,并处于阻塞等待状态。

  ②若软件电子狗计时结束时仍未被喂狗,说明网络通信出现故障,重新向组播地址发送帧请求命令R,并重启软件电子狗。

  ③依次接收来自每个发送端的RTP数据包,并根据IP地址和RTP包传输序号还原每帧视频,直至收到视频帧传输结束标识0xFF.

  Codec Engine是ARM和DSP通信的桥梁,采用远程过程调用(RPC)的思想。ARM端作为客户端,DSP端作为服务器端,ARM和DSP之间的通信链路是共享内存,通信协议是ec Engine有专门的内存管理驱动CMEM来管理ARM和DSP之间的共享内存,CMEM以内存池或内存堆的方式管理一个或者多个连续的物理块内存并提供地址转换(虚拟地址和物理地址之间的转换)功能。

  Codec Engine有核心引擎接口和VISA接口。核心引擎接口包括引擎的初始化接口、引擎运行状态的控制接口和内存的系统抽象层接口;VISA接口包括视频编/解码接口、音频编/解码接口、图像编/解码接口和语音编/解码接口。VISA接口的使用分为VISA创建、VISA控制、VISA处理和VISA删除四部分,图3展示了通过VISA控制/处理的流程。

  车载分布式视频监控系统接收端使用视频编码接口(VIDENC_)实现ARM端调用DSP端基于SURF的图像拼接算法。应用程序的执行流程如图4所示。

  系统采用SURF算法检测特征点和描述特征点。SURF具有尺度和旋转不变性,对光照和视点变换具有不错的鲁棒性,并且经过优化后可以满足实时性要求。根据特征点之间的欧氏距离进行粗匹配,使用RANSAC(随机一致性)方法去除错匹配点,计算图像之间的透视变换矩阵,最终采用渐入渐出平均法融合图像。

  针对本系统,可以对算法进行进一步的优化,提高系统的实时性。由于系统中摄像头的位置相对固定,因而可以预先计算图像之间的重叠位置,不需检测完全没有图像重叠的区域;同时,由于摄像头相对位置不变,图像之间的透视变化矩阵不会变化,因此可以只计算一次透视变化矩阵,后续拼接使用第一次的透视变化矩阵,可进一步提高实时性。

  SURF特征点检测是在尺度空间中进行的,并使用Hessian矩阵行列式值检测特征点,尺度为的点X(x,y)的Hessian矩阵H(X,)定义如式(3-1),其中Lxx (X,),Lxy (X,),Lyy (X,)为在尺度下的高斯函数的二阶偏导数在图像点X处的卷积。

  SURF使用基于积分图的盒型滤波器(box filter)近似此高斯卷积过程,图3-2所示为9*9盒型滤波器对分别对x,y,xy方向的二维高斯滤波的近似。通过近似,将在点X(x,y)的二维高斯卷积转化为对其周围的加权计算过程,在此加权计算过程中,使用积分图计算图3-2中黑色矩形区域和白色矩形区域灰度值之和,将高斯滤波中的大量的乘法运算转换为简单的加减运算。

  设对x,y,xy方向的二维高斯卷积的近似分别用Dxx,Dyy,Dxy表示,则可以通过式(3-2)近似Hessian矩阵H(X,)行列式值,其中w通常取0.9。当Det(H(X,))0时,Dxx0时,点X(x,y)为局部极小值点;Dxx0时,X(x,y)为局部极大值点。找到极值点后,在3×3×3空间中判断点X(x,y)是否比它周围的26个点都大或者小,如果是,则该点被视作候选特征点,然后对候选特征点在尺度空间中进行亚像素级插值,得到特征点的坐标。

  特征点描述主要分两步:第一步是获取特征点的主方向,主要目的是为了保证旋转不变性。第二步是生成64维的特征点描述符,主要目的是描述特征点的特征。

  为了获取特征点的主方向,计算以特征点为中心,半径为6(为特征点所在的尺度)内的所有点在x,y方向的Harr小波响应。并选取一个大小为60度的扇形窗口旋转整个圆形区域,将窗口内所有x,y方向的响应值相加得到一个新矢量,最终以最长的矢量所在的方向作为特征点的主方向。

  特征点描述需要将坐标轴旋转到主方向上,并将以特征点为中心的边长为20的区域划分为4×4个子窗口,每个子窗口分为5×5个采样点,计算每个采样点的沿主方向和垂直主方向的Harr小波响应,记为d_x和d_y,最终生成一个4维矢量v=(dx,dy ,dx,dy),并将其归一化。总共4×4个子窗口,生成64维的描述符。

  此外,为了消除SURF对C++标准模板库的依赖,车载分布式视频监控系统设计了专门的容器结构和相应的操作,主要代码如下:

  SURF在DM3730上的优化分为项目级优化、指令级优化和缓存优化三个方面。项目级优化是通过合理地选择和配置相关的编译器优化选项,主要包括:调试模式选项(Debugging Model)、优化等级选项(opt_level)、代码大小选项(opt_for_sapce)、代码速度选项(opt_for_speed)、程序级优化(-op)等。为了最大限度地提高代码的执行效率,车载分布式视频监控系统选择的编译器优化选项为-o3、-ms0、-mf5、-op2、-mt、-mh、-mw.指令级优化包括选择合适的数据类型,消除指令和数据之间的相关性,使用内联(intrinsic)函数以及改善软件流水等。缓存优化是将CPU近期访问过的数据或者程序放置在Cache中,以提高CPU的执行速度。

  图6展示了车载分布式视频监控系统的拼接效果,表1比较了SURF和SIFT算法在DM3730和PC机上的拼接效率。从拼接效果可以看出,车载分布式视频监控系统能适应图像的平移、旋转和缩放等特性。图6中的两幅待拼接的图像存在明显的旋转特性,并且拼接完成的图像有一定的缩放效果。从表1中可以看出,车载分布式视频监控系统在视频采集、视频传输和视频显示上总耗时约为257ms,远远小于视频拼接所需时间3264ms.这是由于视频拼接模块使用了许多EMCV和OpenCV库函数,它们在DM3730处理器上还有待进一步被优化。作为SIFT算法的加速版,SURF算法的执行效率要远远大于SIFT算法的执行效率。从本次测试结果看,在DM3730上,SURF算法的执行效率是SIFT算法执行效率的3.68倍左右;而在以Intel Core2 Duo T5870为处理器的PC机上,SURF算法的执行效率是SIFT算法执行效率的1.40倍左右。

  在摄像头相对位置固定情况下,图像之间的透视变化矩阵固定,因此只需计算一次透视变化矩阵,后续的图像拼接只需进行图像配准和融合。表2中列出了DM3730上SURF算法的时间组成,其中SURF算法透视变换矩阵计算时间占95%以上,新万博,实际的图像拼接时间为图像配准和如何时间,平均时间约为66ms.

  本文从视频采集、视频传输、视频拼接和视频显示等四个方面详细阐述了基于Android和DM3730的汽车分布式视频监控系统的设计原理和优势。从测试结果看,车载分布式视频监控系统基本上能达到实时采集、实时传输、新万博实时显示,经过优化后,图像拼接的效率基本能满足实时性要求,但系统整体性能还有待提高,可以采用多核处理器代替单核处理器,进一步提高系统的实时性。