其他分享
首页 > 其他分享> > 【商汤实习总结】深度学习模型压缩

【商汤实习总结】深度学习模型压缩

作者:互联网

 温故而知新,参考mentor睿昊学长(xhplus)和主管锋伟(forwil)的专栏,记录在商汤实习内容的总结和反思。希望商汤工具人组越来越nb!


 

经过了仔细的思考,以及结合业务进行一些实验探索,觉得不同的量化模型生产策略应该辩证的来看待:

通过分类和对比,系统化的理解了模型量化研究领域如何bridge to 工业界,也由此打开了新的研究思路。

学术界和工业界的鸿沟

由于学术研究和工业落地的视角和关注点有所不同,很多量化研究工作都不能直接在工业落地中用起来。识别出学术界与工业界的鸿沟,成为打破僵局的关键一步。经过了大量的落地实战发现,几类问题最为常见:

现有框架的特点和能力

TensorRT官方提出的在PyTorch层面做量化支持的工具,支持量化参数的导出以写入TensorRT engine中。不禁想起了当年的TensorRT对齐经历,做PyTorch模拟量化在不确定很多硬件底层实现细节的情况下,是非常非常难做到对齐的。包括后来的NNIE量化对齐,让我养成了对齐虐我千百遍,我待对齐如初恋的良好工具人意识。

Distiller是比较早开源的模型压缩项目,由Intel Habana实验室开发。其最早相对是没有那么贴近部署的,不过发展过程中逐渐扩展了merge BN,quantize onnx export支持,还贴心的添加了与PyTorch quantize onnx的相互转化。其中支持了DoReFa、PACT、自家研究员发明的LAPQ等算法。整体上相比兄弟单位的NNCF在落地和设计上略逊一筹。

Reference

模型压缩:模型量化打怪升级之路

标签:工业界,压缩,Quantization,硬件,商汤,对齐,实习,量化,模型
来源: https://www.cnblogs.com/Ryan0v0/p/14604563.html