其他分享
首页 > 其他分享> > KD论文阅读:A Gift from Knowledge Distillation: Fast Optimization, Network Minimization and Transfer

KD论文阅读:A Gift from Knowledge Distillation: Fast Optimization, Network Minimization and Transfer

作者:互联网

主要思想

优势

贡献

相关工作

方法

实验设定

实验一:证明 fast optimization

对比思路:

一方面

另一方面

cifar10 上实验设置 + 表现:

在这里插入图片描述

在这里插入图片描述

cifar100 设置和表现

实验二:证明对小网络蒸馏效果好

cifar10
在这里插入图片描述
cifar100
在这里插入图片描述

实验三:Transfer Learning

标签:初始化,iterations,蒸馏,Gift,KD,FSP,student,teacher,Knowledge
来源: https://blog.csdn.net/qq_42902997/article/details/120195053