神经网络 拓扑
2017-07-25 13:56
169 查看
描述
https://vijos.org/p/1105
神经网络就是一张有向图,图中的节点称为神经元,而且两个神经
元之间至多有一条边相连,下图是一个神经元的例子:
图片
神经元〔编号为1)
图中,X1—X3是信息输入渠道,Y1-Y2是信息输出渠道,C1表示神经元目前的状态,
Ui是阈值,可视为神经元的一个内在参数。
神经元按一定的顺序排列,构成整个神经网络。在兰兰的模型之中,神经网络中的神
经无分为几层;称为输入层、输出层,和若干个中间层。每层神经元只向下一层的神经元
输出信息,只从上一层神经元接受信息。下图是一个简单的三层神经网络的例子。
图片
兰兰规定,Ci服从公式:(其中n是网络中所有神经元的数目)
图片
公式中的Wji(可能为负值)表示连接j号神经元和 i号神经元的边的权值。当 Ci大于0时,该神经元处于兴奋状态,否则就处于平静状态。当神经元处于兴奋状态时,下一秒它会向其他神经元传送信号,信号的强度为Ci。
如此.在输入层神经元被激发之后,整个网络系统就在信息传输的推动下进行运作。现在,给定一个神经网络,及当前输入层神经元的状态(Ci),要求你的程序运算出最后网络输出层的状态。
格式
输入格式
输入第一行是两个整数n(1≤n≤200)和p。接下来n行,每行两个整数,第i+1行是神经元i最初状态和其阈值(Ui),非输入层的神经元开始时状态必然为0。再下面P行,每行由两个整数i,j及一个整数Wij,表示连接神经元i、j的边权值为Wij。
输出格式
输出包含若干行,每行有两个整数,分别对应一个神经元的编号,及其最后的状态,两个整数间以空格分隔。仅输出最后状态非零的输出层神经元状态,并且按照编号由小到大顺序输出!
若输出层的神经元最后状态均为 0,则输出 NULL。
样例1
样例输入1
5 6
1 0
1 0
0 1
0 1
0 1
1 3 1
1 4 1
1 5 1
2 3 1
2 4 1
2 5 1
Copy
样例输出1
3 1
4 1
5 1
读懂题意很关键。。。
https://vijos.org/p/1105
神经网络就是一张有向图,图中的节点称为神经元,而且两个神经
元之间至多有一条边相连,下图是一个神经元的例子:
图片
神经元〔编号为1)
图中,X1—X3是信息输入渠道,Y1-Y2是信息输出渠道,C1表示神经元目前的状态,
Ui是阈值,可视为神经元的一个内在参数。
神经元按一定的顺序排列,构成整个神经网络。在兰兰的模型之中,神经网络中的神
经无分为几层;称为输入层、输出层,和若干个中间层。每层神经元只向下一层的神经元
输出信息,只从上一层神经元接受信息。下图是一个简单的三层神经网络的例子。
图片
兰兰规定,Ci服从公式:(其中n是网络中所有神经元的数目)
图片
公式中的Wji(可能为负值)表示连接j号神经元和 i号神经元的边的权值。当 Ci大于0时,该神经元处于兴奋状态,否则就处于平静状态。当神经元处于兴奋状态时,下一秒它会向其他神经元传送信号,信号的强度为Ci。
如此.在输入层神经元被激发之后,整个网络系统就在信息传输的推动下进行运作。现在,给定一个神经网络,及当前输入层神经元的状态(Ci),要求你的程序运算出最后网络输出层的状态。
格式
输入格式
输入第一行是两个整数n(1≤n≤200)和p。接下来n行,每行两个整数,第i+1行是神经元i最初状态和其阈值(Ui),非输入层的神经元开始时状态必然为0。再下面P行,每行由两个整数i,j及一个整数Wij,表示连接神经元i、j的边权值为Wij。
输出格式
输出包含若干行,每行有两个整数,分别对应一个神经元的编号,及其最后的状态,两个整数间以空格分隔。仅输出最后状态非零的输出层神经元状态,并且按照编号由小到大顺序输出!
若输出层的神经元最后状态均为 0,则输出 NULL。
样例1
样例输入1
5 6
1 0
1 0
0 1
0 1
0 1
1 3 1
1 4 1
1 5 1
2 3 1
2 4 1
2 5 1
Copy
样例输出1
3 1
4 1
5 1
读懂题意很关键。。。
#include <bits/stdc++.h> using namespace std; const int INF = 0x3f3f3f3f; const int maxn = 1100; const int Mod = 99999997; #define ll long long #define ull unsigned int #define mem(x,y) memset(x,y,sizeof(x)) #define IO ios_base::sync_with_stdio(0), cin.tie(0), cout.tie(0); struct node { int c,u; } nd[maxn]; int mp[maxn][maxn],in[maxn],out[maxn]; std::vector<int> v[maxn]; int main(){ int n,p; cin >> n >> p; for(int i = 1; i <= n; i++) { cin >> nd[i].c >> nd[i].u; } int a,b,len; for(int i = 1; i <= p; i++) { cin >> a >> b >> len; out[a]++; in[b]++; v[a].push_back(b); mp[a][b] = len; } queue<int> Q; for(int i = 1; i <= n; i++) if(in[i] == 0) Q.push(i); while(!Q.empty()) { int u = Q.front (); Q.pop(); if(nd[u].c <= 0) continue; for(int i = 0; i < v[u].size(); i++) { int t = v[u][i]; nd[t].c += nd[u].c * mp[u][t]; in[t]--; if(in[t] == 0) { nd[t].c -= nd[t].u; Q.push(t); } } } bool flag = 0; for(int i = 1; i <= n; i++) { if(out[i] == 0 && nd[i].c > 0) { flag = 1; printf("%d %d\n",i,nd[i].c); } } if(!flag) cout << "NULL" << endl; }
相关文章推荐
- 神经网络深入(连载4)拓扑扩张
- NOIP2013 神经网络(拓扑)
- [置顶] 一种人工智能学习--兼谈基于微分几何与拓扑的神经网络
- 神经网络深入(连载1)神经网络的拓扑
- 神经网络、 流形和拓扑介绍
- 一种人工智能学习--兼谈基于微分几何与拓扑的神经网络
- 神经网络,流形和拓扑
- 深度学习方法(十):卷积神经网络结构变化——Maxout Networks,Network In Network,Global Average Pooling
- 神经网络超参之权重初始化的方法
- 基于lmbp神经网络的效能评估
- 机器学习笔记——神经网络入门篇
- 神经网络基础
- 常用神经网络模型及其应用评述
- Tensorlayer学习笔记——多层神经网络
- 神经网络
- Neural Networks(神经网络)
- 深入理解LSTM神经网络
- 机器学习公开课笔记(5):神经网络(Neural Network)——学习
- 深度学习与神经网络习题(1)
- TensorFlow实战系列14--循环神经网络简介