深度学习术语
2017-12-14 13:44
218 查看
一些名词:
depth/depthcolumn/fibre——K:叠加的卷积核的个数。每个卷积核对一层图像I1进行处理得到I2(activationmap),下一个卷积核在I2基础上进行处理得到I3(activationmap),…,得到In,n-1就是depth。
stride——S:步长,即进行卷积后该filter窗口往右/下移动的步长(像素个数)
pad/padding——P:边界宽度(像素个数)。
ParameterSharing:参数共享,即用同一个卷积核来对一幅图像进行卷积。否则,每个输出图像像素有自己单独的卷积核,那么所有卷积核的参数将非常庞大。这样做的正面支持理由是,同一个卷积核对同一特殊的结构有着强刺激反应,比如某些卷积核对边,有的对blob,….Dilatedconvolution:w[0]*x[0]+w[1]*x[1]+w[2]*x[2].Thisisdilationof0.Fordilation1thefilterwouldinsteadcomputew[0]*x[0]+w[1]*x[2]+w[2]*x[4].
epoch:1个epoch等于使用训练集中的全部样本训练一次;实际过程中我们会不断迭代地训练我们的网络,所以如果用整个样本进行一次训练就是epoch,迭代N次就是N epoch.
wiggle/kinks: 指代非线性函数.
effective receptive field:
depth/depthcolumn/fibre——K:叠加的卷积核的个数。每个卷积核对一层图像I1进行处理得到I2(activationmap),下一个卷积核在I2基础上进行处理得到I3(activationmap),…,得到In,n-1就是depth。
stride——S:步长,即进行卷积后该filter窗口往右/下移动的步长(像素个数)
pad/padding——P:边界宽度(像素个数)。
ParameterSharing:参数共享,即用同一个卷积核来对一幅图像进行卷积。否则,每个输出图像像素有自己单独的卷积核,那么所有卷积核的参数将非常庞大。这样做的正面支持理由是,同一个卷积核对同一特殊的结构有着强刺激反应,比如某些卷积核对边,有的对blob,….Dilatedconvolution:w[0]*x[0]+w[1]*x[1]+w[2]*x[2].Thisisdilationof0.Fordilation1thefilterwouldinsteadcomputew[0]*x[0]+w[1]*x[2]+w[2]*x[4].
epoch:1个epoch等于使用训练集中的全部样本训练一次;实际过程中我们会不断迭代地训练我们的网络,所以如果用整个样本进行一次训练就是epoch,迭代N次就是N epoch.
wiggle/kinks: 指代非线性函数.
effective receptive field:
相关文章推荐
- 深度学习有关的术语
- 深度学习(二)——深度学习常用术语解释, Neural Network Zoo, CNN, Autoencoder
- 干货 | 深度学习名词表:57个专业术语加相关资料解析(附论文)
- 深度学习的关键术语
- [置顶] 【DL--21】深度学习57个专业术语
- 深度学习相关术语
- 深度学习初学者不可不知的25个术语和概念
- 深度学习的57个专业术语
- 机器学习、深度学习概念术语的理解
- 深度学习的关键术语
- 从神经网络说起:深度学习初学者不可不知的25个术语和概念
- 深度学习笔记之一些基本术语
- 深度学习初学者不可不知的25个术语和概念
- 深度学习 word2vec (二)
- 深度学习笔记01-概览
- 【深度学习】环境搭建出现“无法定位程序输入点于动态链接库mkl.dll上“问题
- 深度学习开发环境搭建教程(Mac篇)
- 深度学习动手入门:GitHub上四个超棒的TensorFlow开源项目
- 神经网络与深度学习 1.5 使用梯度下降算法进行学习
- 深度学习总结(2016.9--2016.10)