其他分享
首页 > 其他分享> > 学习笔记(10):英特尔® OpenVINO™工具套件初级课程-总结

学习笔记(10):英特尔® OpenVINO™工具套件初级课程-总结

作者:互联网

文章目录

1、简介


OpenVINO的全称是:Open Visual inference and Neural network Optimization,开放视觉推理和神经网络优化工具集,它是一整套面向AI应用的Intel软件解决方案。


2、OpenVINO工具套件的构成。


在这里插入图片描述

2.1、Traditional Computer Vision


2.2、Tools & Libraries

在这里插入图片描述

2.3、 DLDT

Intel为加速神经网络的计算推出了DLDT(Deep Learning Deployment Toolkit,深度学习部署套件),它是OpenVINO的一个组成部分

在这里插入图片描述
DLDT运行的基本步骤:

模型优化器是一种跨平台的命令行工具,可促进训练和部署环境之间的转换,执行静态模型分析,并将深度学习模型调整为中间表示 (IR) ,通过推理引擎实现最佳执行。

模型优化器会生成模型的中间表示 (IR) 文件,可以使用推理引擎对其进行读取、加载和推理。中间表示包括一个描述网络拓扑的 .xml 文件和一个包含权重数据的 .bin 文件。一般用XML文件作为读入模型的文件,应用程序会通过前缀寻找到相同文件目录下的.BIN文件自动读入。

3、从模型到系统的完整流程


在这里插入图片描述

4、流程详解


4.1、Model:获取模型

有3种方法获取模型

1、使用模型下载器下载在这里插入图片描述


2、从0开始自己训练模型

  1. (Collect)尽可能收集与推理环境相同的数据
  2. (Prepare)使用CV技术对这些数据进行清洗、裁剪、分离,拿到真正有用的数据,
  3. (Annotate)对这些分离的数据进行信息标注,这样的数据集作为我们训练的输入数据集
  4. (Train)训练
    在这里插入图片描述

3、从Model Zoo中下载

许多model zoo模型都包含了原始的训练格式,包括支持使用自己的数据集进行重新训练的所有格式以及特定数据进行集体训练时,准确性与性能显著提升。

因此可以复制整个训练项目,从0开始或者从设置的检查点开始,直接用自己的数据集来替换原始的数据集。
在这里插入图片描述
在这里插入图片描述

4.2、Prepare Inference:用推理转换模型

可以将各种模型转化为ONNX格式,再使用模型优化器转化成中间的IR格式,最后使用推理引擎执行IR推理。

模型优化器可以将其转化为正确的库函数或内核,以及校准为INT8的流程。
在这里插入图片描述

4.3、Benchmark:性能调试

4.4、Decode Density:解码与编码能力

在这里插入图片描述

4.5、Full Pipeline:完整测试

4.6、AI Application:AI应用

提供了许多相关的插件与应用
在这里插入图片描述

标签:10,OpenVINO,AI,模型,IR,套件,推理,解码
来源: https://blog.csdn.net/weixin_44112993/article/details/119323090