其他分享
首页 > 其他分享> > 深度辨析Curriculum Learning 与 Knowledge Distillation

深度辨析Curriculum Learning 与 Knowledge Distillation

作者:互联网

一、对比Curriculum Learning 与 Knowledge Distillation

1.从结果上看

Curriculum Learning

Knowledge Distillation

2.从目的上看

Curriculum Learning

Knowledge Distillation

3.从实现上看

Curriculum Learning

Knowledge Distillation

总的来说,Curriculum Learning 所做的是改变模型的训练方法(或者说训练顺序)以达到加速机器学习模型的训练,使模型获得更好的泛化性能,即能让模型训练到更好的局部最优值状态。而 Knowledge Distillation 则是通过改变模型训练的样本标签(暗知识)来达到更快地达到更好的泛化能力,或者轻量级模型向重量级模型靠拢的目的。两种方法的思考最大的不同处就是在于为了进一步提高训练效率,样本数据的使用从顺序与精度两个方面去思考。

二、论文阅读

1.CurricularFace: Adaptive Curriculum Learning Loss for Deep Face Recognition

在这里插入图片描述

标签:Knowledge,训练,模型,Curriculum,Distillation,Learning
来源: https://blog.csdn.net/weixin_44767531/article/details/116265934