论文笔记之Spectral Networks and Deep Locally Connected Networks on Graphs
2016-12-01 20:17
441 查看
这是2014 nips上的一篇论文。
主要的贡献就是设计了在irregular grid上的cnn的应用。
**
deep locally connect network(spatial construction从空间角度去建立)
locally 体现在 只取每个节点前k个neighborhoods。
connect 体现在,每层与每层之间的神经元数目是通过聚类而成,将上一层的聚类结果对应为下一层的神经元。如下图所示:
这里xi作为每层的输入。Ω表示第几层,灰色的为第一层节点12个,聚类后生成第二层节点6个,最后一层节点3个。其中Ω0只有一个feature,
Ω1有4个feature,Ω2有6个feature。
然后层与层之间的函数关系如下:
F为每一层的每一个特征的权值向量,总共fk-1个特征。Lk是一个矩阵,是一个pooling操作,pooling的方式对应于上文提到的聚类。h是一个激活函数。(文章中所有的激活函数均为relu)
第二个模型
Spectral Construction(从谱域角度建立)
引入图谱轮的知识,来构建卷积操作。
在卷积操作时,需要使结果的变化更加frequency和smoothness。【1,2】介绍了spactral上如何进行操作。
简单来说就是通过Laplacian矩阵:
一般进行标准化:
然后通过计算出L的特征向量v组成特征向量矩阵V,利用矩阵V,对参数进行对角化操作,来达到frenquency和smoothness的目的,并且可以将参数从m**2个降到m个,这些操作都可以在傅里叶领域找到相关的对应。
于是,卷积操作如下:
F为权重的对角矩阵m个参数,V是L的特征向量矩阵,h为激活函数。
优化:
1)经常情况下,V只有前d个特征向量起作用,因此取前d个特征向量,以减少参数。
2)通过样条差值的方法,近似的求出这个操作的解,而使权值参数减少到O(1)
**
文中的baseline 是knn,
数据集是mnist,(当然首先要转化成一张graph)
共做了两组实验,
实验一:
分别对spatial和spectral两种construction进行实验,结果如图,fc是全连接层,LRF是spatial架构,MP是max-pooling,sp是spectral。
实验二
将mnist数据集映射到3-d上进行训练实验,实验结果如下
主要的贡献就是设计了在irregular grid上的cnn的应用。
**
文中有两个并列的模型:
第一个模型deep locally connect network(spatial construction从空间角度去建立)
locally 体现在 只取每个节点前k个neighborhoods。
connect 体现在,每层与每层之间的神经元数目是通过聚类而成,将上一层的聚类结果对应为下一层的神经元。如下图所示:
这里xi作为每层的输入。Ω表示第几层,灰色的为第一层节点12个,聚类后生成第二层节点6个,最后一层节点3个。其中Ω0只有一个feature,
Ω1有4个feature,Ω2有6个feature。
然后层与层之间的函数关系如下:
F为每一层的每一个特征的权值向量,总共fk-1个特征。Lk是一个矩阵,是一个pooling操作,pooling的方式对应于上文提到的聚类。h是一个激活函数。(文章中所有的激活函数均为relu)
第二个模型
Spectral Construction(从谱域角度建立)
引入图谱轮的知识,来构建卷积操作。
在卷积操作时,需要使结果的变化更加frequency和smoothness。【1,2】介绍了spactral上如何进行操作。
简单来说就是通过Laplacian矩阵:
一般进行标准化:
然后通过计算出L的特征向量v组成特征向量矩阵V,利用矩阵V,对参数进行对角化操作,来达到frenquency和smoothness的目的,并且可以将参数从m**2个降到m个,这些操作都可以在傅里叶领域找到相关的对应。
于是,卷积操作如下:
F为权重的对角矩阵m个参数,V是L的特征向量矩阵,h为激活函数。
优化:
1)经常情况下,V只有前d个特征向量起作用,因此取前d个特征向量,以减少参数。
2)通过样条差值的方法,近似的求出这个操作的解,而使权值参数减少到O(1)
**
实验:
**文中的baseline 是knn,
数据集是mnist,(当然首先要转化成一张graph)
共做了两组实验,
实验一:
分别对spatial和spectral两种construction进行实验,结果如图,fc是全连接层,LRF是spatial架构,MP是max-pooling,sp是spectral。
实验二
将mnist数据集映射到3-d上进行训练实验,实验结果如下
相关文章推荐
- 论文笔记《A Survey of Model Compression and Acceleration for Deep Neural Networks》
- 论文笔记:Mastering the game of Go with deep neural networks and tree search
- 论文笔记之Deep Convolutional Networks on Graph-Structured Data
- 论文笔记:Analyzing Classifiers: Fisher Vectors and Deep Neural Networks
- PredNet --- Deep Predictive coding networks for video prediction and unsupervised learning --- 论文笔记
- 笔记-论文-OverFeat Integrated Recognition, Localization and Detection using Convolutional Networks
- 论文笔记 Visualizing and understanding convolutional networks
- 论文笔记 | OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks
- [论文笔记] Evaluation on crowdsourcing research: Current status and future direction (Information Systems Frontiers, 2012) (第一部分)
- 论文笔记 | Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
- 深度学习论文笔记-Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
- Neural Networks and Deep Learning 学习笔记(四)
- Region-based Convolutional Networks for Accurate Object Detection and Segmentation----R-CNN论文笔记
- 论文笔记|Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
- 论文笔记 《Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition》
- Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition--SPP-net论文笔记
- Deep learning论文笔记一:ImageNet Classification with Deep Convolutional Neural Networks
- AlphaGo论文的译文,用深度神经网络和树搜索征服围棋:Mastering the game of Go with deep neural networks and tree search
- 【Notes on Neural Networks and Deep Learning】(to be continued)
- [论文笔记] Money, glory and cheap talk: analyzing strategic behavior of contestants in simultaneous crowdsourcing contests on TopCoder.com (WWW, 2010)