深度学习实验记录
2017-10-03 11:46
288 查看
#**IMPORTANT**
#Pleasenotethatthislearningratescheduleisheavilydependentonthe
#hardwarearchitecture,batchsizeandanychangestothemodelarchitecture
#specification.Selectingafinelytunedlearningratescheduleisan
#empiricalprocessthatrequiressomeexperimentation.PleaseseeREADME.md
#moreguidanceanddiscussion.
#
#With8TeslaK40'sandabatchsize=256,thefollowingsetupachieves
#precision@1=73.5%after100hoursand100Ksteps(20epochs).
#Learningratedecayfactorselectedfromhttp://arxiv.org/abs/1404.5997.
打开TensorBoard:tensorboard--logdir=/tmp/imagenet_train
imagenet训练数据1000k,Inceptionv3network在1060上训练batch_size=32,32examples/sec,
20小时跑了70kstep后共训练数据32*70k=2100k,2epochs的训练数据,loss从13降到8,并且降低的趋势走平了。
55小时跑了204kstep后共训练数据32*204k=6400k,6epochs的训练数据,loss从13降到7,从120k开始趋势接近平了。
4天1小时(97H)跑了360kstep后共训练数据32*360k=10000k,10epochs的训练数据,loss还是7左右,loss从120k开始趋势接近平了。
Eval:precision@1=0.5584recall@5=0.8052[50016examples]
类似的问题:https://stackoverflow.com/questions/38259166/training-tensorflow-inception-v3-imagenet-on-modest-hardware-setup他也没达到最优:
Onasmallhardwaresetuplikeyours,itwillbedifficulttoachievemaximumperformance.GenerallyspeakingforCNN's,thebestperformanceiswiththelargestbatchsizespossible.ThismeansthatforCNN'sthetrainingprocedureisoftenlimitedbythemaximumbatchsizethatcanfitinGPUmemory.
#Pleasenotethatthislearningratescheduleisheavilydependentonthe
#hardwarearchitecture,batchsizeandanychangestothemodelarchitecture
#specification.Selectingafinelytunedlearningratescheduleisan
#empiricalprocessthatrequiressomeexperimentation.PleaseseeREADME.md
#moreguidanceanddiscussion.
#
#With8TeslaK40'sandabatchsize=256,thefollowingsetupachieves
#precision@1=73.5%after100hoursand100Ksteps(20epochs).
#Learningratedecayfactorselectedfrom
打开TensorBoard:tensorboard--logdir=/tmp/imagenet_train
imagenet训练数据1000k,Inceptionv3network在1060上训练batch_size=32,32examples/sec,
20小时跑了70kstep后共训练数据32*70k=2100k,2epochs的训练数据,loss从13降到8,并且降低的趋势走平了。
55小时跑了204kstep后共训练数据32*204k=6400k,6epochs的训练数据,loss从13降到7,从120k开始趋势接近平了。
4天1小时(97H)跑了360kstep后共训练数据32*360k=10000k,10epochs的训练数据,loss还是7左右,loss从120k开始趋势接近平了。
Eval:precision@1=0.5584recall@5=0.8052[50016examples]
类似的问题:
2016-06-0612:07:52.245005:precision@1=0.5767recall@5=0.8143[50016examples] 2016-06-0922:35:10.118852:precision@1=0.5957recall@5=0.8294[50016examples] 2016-06-1415:30:59.532629:precision@1=0.6112recall@5=0.8396[50016examples] 2016-06-2013:57:14.025797:precision@1=0.6136recall@5=0.8423[50016examples]
Onasmallhardwaresetuplikeyours,itwillbedifficulttoachievemaximumperformance.GenerallyspeakingforCNN's,thebestperformanceiswiththelargestbatchsizespossible.ThismeansthatforCNN'sthetrainingprocedureisoftenlimitedbythemaximumbatchsizethatcanfitinGPUmemory.
相关文章推荐
- 新闻上的文本分类:机器学习大乱斗 王岳王院长 王岳王院长 5 个月前 目标 从头开始实践中文短文本分类,记录一下实验流程与遇到的坑 运用多种机器学习(深度学习 + 传统机器学习)方法比较短文本分类处
- 机器学习实验(七):用特征值衰减正则化方法进行深度学习实验_2
- 深度学习知识记录
- 人脸检测识别深度学习记录
- 数据库上机实验学习记录最新Day1117
- 深度学习记录第一天--神经网络
- 深度学习记录1
- 机器学习实验(八):用特征值衰减正则化方法进行深度学习实验_3
- 徐海蛟:深度学习与计算机视觉理论与实验4
- 实验四 深度学习算法及应用
- 【干货】深度学习实验流程及 PyTorch 提供的解决方案
- 机器学习实验(十二):深度学习之图像分类模型AlexNet结构分析和tensorflow实现
- 用实验证明深度学习中梯度消失的存在与LSTM的有效性
- 深度学习入门教程UFLDL学习实验笔记一:稀疏自编码器
- 深度学习(六十一)NNPACK 移植与实验
- 深度纸质学习与实验(三)-将TensorFlow加入kubernetes初试
- 深度纸质学习与实验(四)-将TensorFlow加入kubernetes完成与minist数据集初试
- [置顶] 深度学习框架之keras安装记录
- 深度学习路线记录
- 深度学习聊天记录