其他分享
首页 > 其他分享> > 【网课笔记】fast.ai-2019-Week2

【网课笔记】fast.ai-2019-Week2

作者:互联网

2019/6/25 【CV_deeper_application】


Important topics on the forums:
FAQ, resources, and official course updates!

配置环境时,如果遇到难易解决的问题,全部推倒,按照教程重来可能是最好的选择!

成果展示

1、Deep Convolutional neural network and data augmentation for environmental sound classification 论文复现,提高到80.5%
turning sounds into pictures.

2、识别卫星地图:不同国家!链接

学习建议

1、知识不断反复,CV和NLP会相互间隔反复,不断深入!
it`s much better for learning if you see things multiple times!
2. you are not expected to remember everything or understand everything yet. So just push on! 不要停在第一课,知道你能完全懂,往下走!
3. most of the people who have done the course successfully watch the videos at least 3 times. 至少三遍!
在这里插入图片描述


part I : Creating your own dataset from Google Images

at the beginning of the Jupyter notebook, there is a link to a Tutorial!

  1. download URL in a text file(use javascript)
  2. download images on the server
    下载时是在多线程下进行的,如果出现问题,尝试用下一行中注释掉的另一种版本。
  3. 随机划分train 和 valid
    注意设置seed为固定值,这样每次划分的validation set都是固定的,这样便于你调参,否则结果的变化有可能是验证集改变导致的
  4. 清洗数据
    (使用一个内嵌的程序FileDeleter)查看模型标记错误的图片,决定是否删除它
    ??FileDeleter可以查看Python3源码
    Google:ipywidgets,可以查看更多关于Python3的内嵌GUI,

然而,大多数情况下,清洗数据对结果提升不大,模型对一定的噪音有很好的泛化能力,除非你的数据not randomly noisy but biased noisy

  1. Putting your model in production
    学习所用的工具包和python多线程
  2. 调参
    learning rate、epochs
    valid_loss 特别大:leaning rate 太大
    train_loss比valid_loss还大:训练不够,leaning_rate太小或epochs太少
    error_rate先变小又变大:overfitting
    unbalanced data set: it works! try it!

推荐课程:可汗学院 (学习任何遗忘的数学课程)


part II : SGD

标签:loss,tensor,ai,一次函数,网课,rate,valid,fast,函数
来源: https://blog.csdn.net/qq_26398495/article/details/93641271