您的位置:首页 > 其它

【学习笔记】WEEK3_Shallow Neural Network_Random Initialization

2018-04-08 16:03 453 查看
1、权重参数向量b初始化为全0可以,然而权重参数矩阵w初始化为全0可以
    权重参数矩阵w初始化为全0,无论训练多久,同一隐藏层的所有单元都仍然在进行相同的运算,这样就没有多个隐藏单元存在的意义了

2、随机初始化



    这里乘以0.01的原因是希望w小一点儿、从而使z小一点、从而使sigmoid或tanh激活函数在z处的梯度(斜率)大一些、从而使神经网络的学习速度快一些

    如果神经网络中不使用sigmoid或tanh激活函数,不随机初始化也不是什么大问题
3、(无随堂测验)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐