亮相百度WAVE SUMMIT+2021,Intel OpenVINO带来新气象
作者:互联网
北京时间12月12日,百度WAVE SUMMIT+2021深度学习开发者峰会在上海举办。这场属于AI的科技盛会之上,英特尔OpenVINO联手百度PaddlePaddle为开发者带来了一系列的技术内容,为开源生态构建持续合作,为产业进步提供新的动力。
OpenVINO是英特尔公司一款开源的工具包,它可以很好的对包括PaddlePaddle在内的一些深度学习框架训练出来的深度学习模型来进行很好的模型的优化,包括一些引擎的推理和加速,从而方便大家部署到更多多样的硬件平台上面去,方便大家在熟悉的场景里去落地使用。
OpenVINO的使用一般只有三个步骤:搭建、优化、部署。搭建时,OpenVINO提供了Open Model Zoo开源模型库,其可以支持市场上主流的深度学习框架训练深度学习模型,如TensorFlow、PyTorch、PaddlePaddle等。在该开源模型库中,其提供了超过300个验证、优化之后的预训练模型,可以覆盖计算机视觉中绝大部分的任务。
当然,OpenVINO其所面向的不仅是计算机视觉领域,还包括了自然语言处理等领域的很多模型提供支持、优化以及推理引擎的加速。搭建好模型之后,提供了模型优化器Post-Training Optimization tool,并通过大量的优化工具对得到深度模型进行一系列的优化,优化后的模型可以在部署时进行推理引擎的加速。在部署时,OpenVINO也会提供部署管理工具,支持多硬件平台部署,让更多用户提升AI效率。
OpenVINO和PaddlePaddle的深度合作便主要在这三个步骤中展开。PaddlePaddle已经开源了超过400个工业级的预训练模型,在搭建时,再结合Intel的开源模型库OpenVINO Open Model Zoo里超过300个预训练模型,这为大家提供了更为广阔的预训练模型库,方便选择使用解决实际场景中的问题。
在优化部分,英特尔和PaddlePaddle的开发团队经过深入的讨论和合作,使得OpenVINO可对PaddlePaddle的很多算子直接支持,通过推理引擎能够直接读取PaddlePaddle的模型。其可以避免进行中间格式的模型转换,直接用IE扩容推理引擎就可以读取模型。并且在PaddlePaddle的模型部署工具基础上,OpenVINO可以帮助开发者在模型部署阶段对模型进行加速,从而实现方便的部署在多个硬件平台上。
同时,大会上英特尔还带来了AI产品AI-box,其预装了英特尔i5的CPU芯片,OpenVINO和PaddlePaddle都可以部署在这一盒子上,用户无需任何中间步骤的转换,直接可以进行读取模型,加快推理速度,可以支持每秒30帧的视频实时OCR文字提取。双方通过在这三个步骤的合作,达到了使用OpenVINO对PaddlePaddle的模型读取的目的,加速推理过程,方便开发者部署在多个硬件环境中,实现对深度学习模型的场景化落地和使用。
在今年WAVE SUMMIT+2021的大舞台上,英特尔与百度飞桨共同打造的黑客马拉松大赛也成功发掘了一大批的AI产业后起之秀,为AI人才储备提供了新途径。
英特尔公司高级首席工程师、物联网视频事业部全球首席技术官、物联网事业部中国区首席技术官张宇博士表示,在这次大赛中,他能够真切的感受到开发者的热情及创造力。而对于英特尔来说,开发者的创造力值得鼓励,英特尔也希望能够通过产品与开发者一道,共同打造更好的产品以及解决方案。
当前,对于AI产业而言,优秀的人才往往可遇而不可求。人才培养是一个漫长的过程,张宇博士认为,人工智能的发展可能需要从娃娃抓起。所以在去年,英特尔已经在疫情期间贯彻落实停课不停学方针,基于人工智能的解决方案开展推广,帮助学校利用人工智能的方式去进行编程教学,辅助老师收集学生在上课过程当中的反馈,给予教学改进意见。
当然,AI的发展不仅需要学校的支持,需要技术研究人员的辛勤,也依赖于行业的专家。英特尔公司物联网事业部中国区边缘智能开发工具产品营销总监王珅表示,OpenVINO的技术和工具套件便参考了诸多行业专家的建议,将其做的更加简捷易用,方便更多人上手。与OpenVINO类似,百度PaddlePaddle在这方面也做了相关的工作,而这也为此次大赛的成功奠定了基础。当编程不再是复杂的命令行体验,有了更多可视化的工具、功能后,这就可以帮助开发人员不断提升他们的算法精度和使用场景。
我针对院校和企业开发者对开源工具包有哪些共同诉求来说一下,我主要从院校的角度来谈。因为我现在是一名在读研究生,我主要首先来探讨一下目前开源框架有哪些?
目前我了解到的开源框架有PaddlePaddle、PyTorch、TensorFlow、MXNet、Caffe等。目前在学术界,就以目前我们在学校进行科研来说,目前大多数是采用的PyTorch框架,因为它是一些动态的机制,编辑、调试都是非常友好的。从2018、2019年的时候,从顶会的一些论文开源的代码来看,都是使用PyTorch的代码。
对于工业界来说,他们主要是围绕有关部署的内容,他们选择框架的时候要选择一些方便部署的,比如说是TensorFlow的一些部署的操作,比如说Tensorflow Serving,他也会有一些导出的一些静态图进行部署的操作。
飞桨黑客松大赛获奖者,华东理工大学计算机研三学生余军表示,当前,他在学校和各种资料上能够解到的推理的部署框架有很多,比如说TensorRT、ONNX和OpenVINO。之前做过的一个有关图像的项目中,在进行目标检测、目标追踪时,也曾经使用过PyTorch进行训练,然后需要导出成TensorRT的格式,才能进行部署。当时没有了解过OpenVINO,所以主要使用传统方式进行部署。如今通过黑客松活动,了解到OpenVINO部署框架后,未来会继续使用OpenVINO框架进行一些推理部署,无论是有关文本还是有关图像的内容,都想做更多尝试。
标签:OpenVINO,Intel,部署,模型,PaddlePaddle,WAVE,AI,开源 来源: https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/121993744