您的位置:首页 > 其它

论文笔记之Spectral Networks and Deep Locally Connected Networks on Graphs

2016-12-01 20:17 441 查看
这是2014 nips上的一篇论文。

主要的贡献就是设计了在irregular grid上的cnn的应用。

**

文中有两个并列的模型:

第一个模型

deep locally connect network(spatial construction从空间角度去建立)

locally 体现在 只取每个节点前k个neighborhoods。

connect 体现在,每层与每层之间的神经元数目是通过聚类而成,将上一层的聚类结果对应为下一层的神经元。如下图所示:



这里xi作为每层的输入。Ω表示第几层,灰色的为第一层节点12个,聚类后生成第二层节点6个,最后一层节点3个。其中Ω0只有一个feature,

Ω1有4个feature,Ω2有6个feature。

然后层与层之间的函数关系如下:



F为每一层的每一个特征的权值向量,总共fk-1个特征。Lk是一个矩阵,是一个pooling操作,pooling的方式对应于上文提到的聚类。h是一个激活函数。(文章中所有的激活函数均为relu)

第二个模型

Spectral Construction(从谱域角度建立)

引入图谱轮的知识,来构建卷积操作。

在卷积操作时,需要使结果的变化更加frequency和smoothness。【1,2】介绍了spactral上如何进行操作。

简单来说就是通过Laplacian矩阵:

一般进行标准化:


然后通过计算出L的特征向量v组成特征向量矩阵V,利用矩阵V,对参数进行对角化操作,来达到frenquency和smoothness的目的,并且可以将参数从m**2个降到m个,这些操作都可以在傅里叶领域找到相关的对应。

于是,卷积操作如下:



F为权重的对角矩阵m个参数,V是L的特征向量矩阵,h为激活函数。

优化:

1)经常情况下,V只有前d个特征向量起作用,因此取前d个特征向量,以减少参数。

2)通过样条差值的方法,近似的求出这个操作的解,而使权值参数减少到O(1)

**

实验:

**

文中的baseline 是knn,

数据集是mnist,(当然首先要转化成一张graph)

共做了两组实验,

实验一:

分别对spatial和spectral两种construction进行实验,结果如图,fc是全连接层,LRF是spatial架构,MP是max-pooling,sp是spectral。



实验二

将mnist数据集映射到3-d上进行训练实验,实验结果如下

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐