关于CNN网络中1X1卷积核降维或升维的理解
2017-12-26 23:11
281 查看
网上都说1X1的卷积核可以降维或升维。我的理解是,如果输入层x * y * z, 深度z(通道)大于1时(如果是第一层,即要求 图像像素为多 个分量,如RGB,相当于深度为3;如果是中间层,即为feature map 是多个 )可以通过1X1的卷积实现 输出层上降低通道数,也就是所谓的降维。当然前提是该1X1层设计的输出特征个数 feature map 数 < x * y * z。 如果 feature map 数 > x * y * z ,则会升维。 不知道理解的是否正确
相关文章推荐
- 关于CNN的卷积理解
- cnn:深入理解卷积网络
- CNN卷积网络设计的理解点
- 【机器学习】关于CNN中1×1卷积核和Network in Network的理解
- 详谈对CNN卷积网络的理解
- 关于残差网络Resnet的理解
- 深度卷积网络CNN与图像语义分割
- CNN 中, 1X1卷积核到底有什么作用呢?
- 关于EPON网络中路由选择的一些理解
- CNN学习笔记(二)卷积神经网络经典结构
- CNN 中, 1X1卷积核到底有什么作用呢?
- 关于CNN的一点理解
- 网络---关于HTTP 304状态码的理解
- faster rcnn 中核心部分RPN网络的整理与理解
- 关于网络爬虫及ip代理服务的理解
- 关于卷积网络的模型融合---使用softmax实现
- CNN 中, 1X1卷积核到底有什么作用呢
- 关于tensorflow conv2d卷积备忘的一点理解
- 关于cnn的一点理解
- faster rcnn源码理解(三)之proposal_layer(网络中的proposal)