迁移学习与fine-tuning的区别
2016-12-20 10:47
253 查看
迁移学习是一个idea,把一个预先训练好的模型的部分挪到一个类似的任务上使用。一方面这节省了训练的时间;另一方面对于某些任务我们可能有很大的dataset而对于另一些相似的任务并没有那么大的dataset,那么我们就可以拿在前者上训练好的模型抽掉最后几层(抽掉多少视后者有多大而定),在后者上只另外train最后几层。举个例子,在语音识别里我们有很多英语的数据,但却没有多少的葡萄牙语的数据,考虑到两者都深受拉丁语影响,我可以先拿英语的语音数据训练一个模型,在基于这个模型在葡萄牙语上训练模型的最后几层对最后几层参数进行微调。
fine-tuning 是一个trick,在迁移学习中有所涉及,但不仅仅出现在迁移学习中,指对参数进行微调。
fine-tuning 是一个trick,在迁移学习中有所涉及,但不仅仅出现在迁移学习中,指对参数进行微调。
相关文章推荐
- 迁移学习与fine-tuning有什么区别
- Deep learning系列(十三)Transfer learning 和 caffe Fine-tuning
- Linux Tips 之 Post-Installation Fine Tuning
- 使用pycaffe进行的fine-tuning的过程
- finetuning caffe
- 深度网络 Fine-tuning方法简介
- 【CV知识学习】early stop、regularation、fine-tuning and some other trick to be known
- 14.4.3.6 Fine-tuning InnoDB Buffer Pool Flushing 微调 InnoDB Buffer Pool 刷新:
- Caffe fine-tuning 学习
- 阅读小结:CNN Image Retrieval Learns from BoW:Unsupervised Fine-Tuning with Hard Example:CNN Image Retrie
- good nice fine well区别
- caffe 教程 Fine-tuning CaffeNet for Style Recognition on “Flickr Style” Data 遇到的问题及解决方案
- caffe学习笔记10.1--Fine-tuning a Pretrained Network for Style Recognition(new)
- caffe学习笔记2:Fine-tuning一个类别识别的预处理的网
- Caffe fine-tuning 微调网络
- 采用caffe的model在自己的数据上面进行 fine-tuning
- 20140502-识别的微调阶段 (Fine-tuning for discrimination )
- Caffe fine-tuning 微调网络
- 14.4.3.6 Fine-tuning InnoDB Buffer Pool Flushing 微调 InnoDB Buffer Pool 刷新:
- Caffe fine-tuning 微调网络 (记录加学习下)