您的位置:首页 > 理论基础 > 计算机网络

UFLDL Tutorial深度学习基础——学习总结:稀疏自编码器(一)神经网络(neural networks)

2018-03-13 13:53 751 查看
1、神经元:

输入:x1 x2 x3 和截距+1输出:

激活函数(activation function):f(·)        主要作用是提供网络的非线性建模能力,使深度神经网络具备分层的非线性映射学习能力。
        常见的激活函数有:sigmoid函数:

                                       双曲正切函数(tanh)(hyperbolic tangent):

                                       ReLU函数:


                                       Leaky-ReLU函数:

                                       P-ReLU(Parametric ReLU)函数:

                                       R-ReLU(Randomized ReLU)函数:

                                       Maxout函数:


                                       (激活函数参考:http://blog.csdn.net/cyh_24/article/details/50593400)        一个神经元的输入输出映射关系其实就是一个逻辑回归(logistic regression)(实际是一种分类方法,主要用于分类问题。)2、神经网络模型


       圆圈代表输入;+1圆圈代表偏置节点(截距项)(bias units);最左边的一层为输入层;最右边的一层为输出层;中间的所有节点组成隐藏层(不能在训练样本中观测到他们的值)。上图有三个输入单元,一个输出单元,三个隐藏单元,一个偏置单元。       

为第l层第i单元的激活值(输出值)(activation)。本神经网络的计算步骤:         

           

表示第l层第i单元的输入加权和(包括偏执单元)。

           前向传播(forward propagation):


内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: