其他分享
首页 > 其他分享> > 详解百度大脑EdgeBoard出色的视频处理技术

详解百度大脑EdgeBoard出色的视频处理技术

作者:互联网

视频处理是人工智能应用中的一个重要方向,对于一款端上部署的AI加速产品,其视频接入能力是产品技术实力的重要体现,同时也直接影响用户的产品体验。端上的嵌入式设备,受制于本身的CPU等硬件资源,同时支持多种视频设备及多种视频格式是极大的挑战。

EdgeBoard是百度基于FPGA打造的嵌入式AI解决方案,能够提供强大的算力,并支持定制化模型,适配各种不同的场景,并大幅提高设备的AI推理能力,具有高性能、高通用、易集成等特点。EdgeBoard作为一款面向各个层次的AI开发者的硬件平台,兼顾了多种视频输入,包括MIPI、BT1120、USB摄像头、IPC(IP Camera,网络摄像头)、GigE工业摄像头,这极大地体现出EdgeBoard在视频处理上出色的技术实力,而同时支持如此多的视频接入设备在一般的AI端产品上也是不常见的。

本文将详细介绍EdgeBoard上的视频处理方案,如何兼顾效率和通用性,在二者之间取得平衡,最大程度上满足用户的需求。

Linux V4L2结构

内核V4L2模块

Linux系统发展至今,以其优越的跨平台特性和扩展移植性在嵌入式操作系统领域占据很大的份额,EdgeBoard采用的是Xilinx PetaLinux工具打造的Linux内核,操作系统采用的是RootFS,如果用户需要Ubuntu操作系统,可以直接在Xilinx论坛上获得arm64 Ubuntu操作系统。

Video4Linux2(简称V4L2)是Linux下关于视频采集相关设备的驱动框架,为驱动和应用程序提供了一套统一的接口规范。支持三类设备,分别会在/dev目录下产生不同的设备节点:

V4L2在Linux系统中的结构图如下:

在这里插入图片描述
从图中可以看出,驱动的框架层次分明,最上层通过字符设备提供video和media两种控制接口,分别从视频流控制(video)和媒体子设备控制(media)两种不同的角度抽象出操作接口。中间内核驱动层通过三层设备驱动分别从视频抽象,V4L2设备功能定义,子设备功能定义三个层面展开,模块化的设计提供了非常完善的扩展性。最下方是硬件层,除了提供常用摄像头传感器的功能外,对于常用的视频转换也有很好的支持。

在应用层的软件支持也非常丰富,比如广泛使用的FFmpeg、Gstreamer、LiVes、MPlayer等对本地视频设备的支持也都是通过V4L2提供的接口实现的。

Xilinx V4L2驱动结构

深入理解V4L2框架对于FPGA视频方案的灵活配置有很大的帮助作用,也方便FPGA开发人员快速验证视频功能。本节以Xilinx视频处理子系统为例,介绍一套完整的V4L2内核功能的实现,如下图。
在这里插入图片描述

结合上一节提到的V4L2结构图可以看出V4 L2内核对应了全部视频框架的内容。中间部分,xilinx通过xvip_dma结构实现了整体的video_device功能,给用户层提供必要的控制设备接口(右侧用户层接口);左侧部分,是内核将所有的xilinx视频相关设备组合成xvip_composite_device,即v4l2_device,通过该模块可以扩展具体的子设备功能,即v4l2_subdev,包括TPG、VTC、RGB2YUV、scaler等等;右侧部分,是用户层的接口,用户层调用接口实现对视频设备的操作;顶层部分,为了提高数据搬运的效率使用了DMA设备功能,即xilinx_dma_device。下层部分,对于内部数据的管理,使用了v4l2统一抽象提供的vb2_queue、vb2_buffer等模块实现。

V4L2结构应用实例解析

这里以在EdgeBoard上使用的MIPI摄像头(MIPI开发介绍见https://www.csdn.net/article/a/2019-08-21/15979781)为例介绍V4L2的具体应用。

MIPI摄像头视频通路

对MIPI摄像头的支持采用了xilinx video框架,符合标准的驱动以及和硬件结合的流程。具体的实现为:硬件上采用FPGA的IP实现视频通路上的各种视频预处理,内核驱动模块使用vipp对应的功能,应用层通过/dev/media节点将这些子设备之间的连接关系进行关联,通过/dev/video控制视频的传输及视频抓取。
在这里插入图片描述
V4L2子设备驱动(摄像头驱动)的编写方法

从上文可以看出,虽然利用已有的IP和驱动资源,可以快速搭建MIPI摄像头的数据接入功能,但还缺少对于摄像头本身的参数控制功能等,这部分功能的实现是在驱动模块完成。本节将介绍一下此类驱动的结构和开发流程。

相对于实现一个完整的V4L2驱动功能比较庞大,针对摄像头驱动的实现相对简单了许多,只需要实现V4L2的子设备驱动即可,因为大部分功能已经在video_device里实现了。详细的子设备驱动结构图如下
在这里插入图片描述
结合前文的整体结构图,这里的核心是实现一个v4l2_subdev结构,即填充其内部各操作接口结构体,其中核心是v4l2_subdev_ops,通过该接口实现从用户层对其配置各种参数,以对视频流的控制。media_entity目地是实现各个v4l2_subdev之间的连接通路。用户层对mediaX设备的操作都需要这个结构的支持。

基于V4L2的软件开发

应用层的软件开发,推荐使用gstreamer或者opencv videocapture,opencv的底层实现可能依赖gstreamer,如果这些不能满足读者的要求,需要更详细的参数控制,或者软件环境不具备这两种支持,可以考虑直接操作v4l2设备。如下将介绍V4L2 软件层面的具体方法。
V4L2通常支持三种不同IO访问方式(其他内核里支持的方式暂不讨论),包括

用户层工具介绍(技术小福利)

上文介绍完EdgeBoard中视频处理的完整方案,现介绍V4L2开发中常用的调试工具,有助于提升开发效率。

得益于Linux丰富的开源资源,操作v4l2设备的应用层工具也非常多。默认的EdgeBoard PetaLinux系统已经配置好常用的几个工具,特此介绍给大家。v4l-utils是专门控制v4l设备的一系列命令工具集,包含以下实用程序:

gstreamer是Linux平台广泛应用的视频流工具,特别是嵌入式平台,良好的软件架构及衍生出其丰富的扩展插件对不同硬件平台都具有良好的支持。

这里给出一个命令行示例,就可以了解它的独特之处了,如下:

gst-launch-1.0 v4l2src device=/dev/video4 ! video/x-raw,width=1280,height=720 ! 
videorate ! image/jpeg,framerate=1/4 ! multifilesink location="frame%d.jpg" index=100

这条命令的意思是打开v4l2视频源即/dev/video4这个USB视频设备,抓取其1280x720宽度的原始jpeg图片流按照4秒1帧的速度保存到本地文件,命名格式为frame100.jpg开始

总结

本文以MIPI摄像头为例介绍了在EdgeBoard中采用V4L2结构的视频处理方案,得益于V4L2结构的灵活性和可扩展性,像BT1120、USB摄像头等也采用类似的方案,实现了对多视频接入方案的支持。对于需要视频接入方案的用户,直接点击购买EgdeBoard产品 ,实现视频接入的即插即用。据小编观察,此款正在打折中,历史最低价,降价1000元,有需要的抓紧购买哦!

标签:视频,v4l2,EdgeBoard,详解,摄像头,驱动,V4L2,百度,设备
来源: https://blog.csdn.net/weixin_45449540/article/details/105957370