神经网络与机器学习 第一讲(3)——一些简单的神经元模型
2012-11-30 22:54
399 查看
一、理想化神经元
1. 对事物建模,我们需要理想化它
1) 理想化会移除掉对理解主要原则并不必要的一些细节
2) 易于加入数学或迁移对其他事物建模的知识
3) 一旦理解了基本原则,也就容易在上面增加一些复杂的特征来完善模型
2. 理解一些“错误”的模型是有必要的,但是我们不能忘记它是错的
1) 比如神经元传输的是连续值,而不是离散值
二、一些简单的神经元模型
1. Linear neurons
2. Binary threshold neurons
3. Rectified Linear Neurons
4. Sigmoid neurons
5. Stochastic binary neurons
三、泊松过程
1. 计数过程:一个随机过程{N(t), t≥0}称为计数过程,如果N(t)表示到时间t为止发生的事件的总数。
1) N(t)≥0.
2) N(t)取整数值。
3) 若s<t,则N(s)≤N(t).
4) 对于s<t,N(t)-N(s)表示在区间(s,t]中发生的事件的个数
2. 泊松过程
1) N(0)=0.
2) 过程有独立增量,即发生在不相交的时间区间中事件的个数彼此独立。
3) 在长度为t的任意时间区间中的事件个数服从均值为λt的泊松分布(泊松分布期望方差相等)
4) 由3知,在长度为t的任意时间区间中的事件个数的期望为λt,故称速率为λ
3. Rectified Linear Neurons( y=max(0,x) ) 大于0的部分,我们可以把它看作速率为1*t的泊松过程
1. 对事物建模,我们需要理想化它
1) 理想化会移除掉对理解主要原则并不必要的一些细节
2) 易于加入数学或迁移对其他事物建模的知识
3) 一旦理解了基本原则,也就容易在上面增加一些复杂的特征来完善模型
2. 理解一些“错误”的模型是有必要的,但是我们不能忘记它是错的
1) 比如神经元传输的是连续值,而不是离散值
二、一些简单的神经元模型
1. Linear neurons
2. Binary threshold neurons
3. Rectified Linear Neurons
4. Sigmoid neurons
5. Stochastic binary neurons
三、泊松过程
1. 计数过程:一个随机过程{N(t), t≥0}称为计数过程,如果N(t)表示到时间t为止发生的事件的总数。
1) N(t)≥0.
2) N(t)取整数值。
3) 若s<t,则N(s)≤N(t).
4) 对于s<t,N(t)-N(s)表示在区间(s,t]中发生的事件的个数
2. 泊松过程
1) N(0)=0.
2) 过程有独立增量,即发生在不相交的时间区间中事件的个数彼此独立。
3) 在长度为t的任意时间区间中的事件个数服从均值为λt的泊松分布(泊松分布期望方差相等)
4) 由3知,在长度为t的任意时间区间中的事件个数的期望为λt,故称速率为λ
3. Rectified Linear Neurons( y=max(0,x) ) 大于0的部分,我们可以把它看作速率为1*t的泊松过程
相关文章推荐
- 神经网络与机器学习导言——神经元的统计模型和被看作有向图的神经网络
- 小白学习机器学习---第五章:神经网络简单模型python实现
- 机器学习之神经网络模型-上(Neural Networks: Representation)
- 机器学习笔记--实现简单的神经网络
- 机器学习与神经网络(三):自适应线性神经元的介绍和Python代码实现
- 自学笔记:一个简单的神经网络,机器学习数字图片,可以显示错误的数字的图片
- 机器学习之神经网络模型-上(Neural Networks: Representation)
- 神经网络与机器学习 第一讲(2)——什么是神经网络
- 机器学习--简单神经网络
- 机器学习之神经网络模型-下(Neural Networks: Representation)
- 机器学习之实现简单的神经网络
- 机器学习-实现简单神经网络+自适应神经网络
- Stanford大学机器学习公开课(六):朴素贝叶斯多项式模型、神经网络、SVM初步
- 机器学习-Ng-week4-简单的神经网络
- 神经网络模型之AlexNet的一些总结
- 【R的机器学习】模型性能提升探索:神经网络
- 机器学习笔记(XVII)神经网络(IV)BP算法和BP神经网络的一些问题
- 简单的神经网络模型java版本
- 机器学习笔记六 - 朴素贝叶斯的多项式事件模型、神经网络、支持向量机的函数间隔与几何间隔
- 机器学习:神经网络的模型构建