DAY1:神经网络基础和深度学习笔记整理
2018-01-18 19:41
796 查看
一、Binary Classfication
符号表示:
二、logistic regression
其中w,b为待确定的参数,^y为y(training labels)=1的概率值,所以为了使其落在0~1之间,对y的结果作 sigmoid处理
三、损失函数
损失函数:loss = -(lnlog^y+(1-y)lnlog(1-^y))在单个训练样本上定义的,衡量在单个训练样本上的表现
成本函数:衡量在全体样本上参数w和b的表现(in logistic regression)
四、Gradient Descent
五、计算图
前向传播:
反向传播:
logistic中的反向传播(求导):
m个样本上的梯度下降法:
vectorization(向量化):
vectorization can faster than for loop about 300 times.And if there are other possibility ,don't use for loop.
符号表示:
二、logistic regression
其中w,b为待确定的参数,^y为y(training labels)=1的概率值,所以为了使其落在0~1之间,对y的结果作 sigmoid处理
三、损失函数
损失函数:loss = -(lnlog^y+(1-y)lnlog(1-^y))在单个训练样本上定义的,衡量在单个训练样本上的表现
成本函数:衡量在全体样本上参数w和b的表现(in logistic regression)
四、Gradient Descent
五、计算图
前向传播:
反向传播:
logistic中的反向传播(求导):
m个样本上的梯度下降法:
vectorization(向量化):
vectorization can faster than for loop about 300 times.And if there are other possibility ,don't use for loop.
相关文章推荐
- DAY2:神经网络基础和深度学习笔记整理
- [DeeplearningAI笔记]神经网络与深度学习2.11_2.16神经网络基础(向量化)
- 吴恩达神经网络和深度学习课程自学笔记(二)之神经网络基础
- 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(1-2)-- 神经网络基础
- 神经网络与深度学习学习笔记:numpy基础
- 机器学习基础知识-神经网络与深度学习学习笔记(二)
- [DeeplearningAI笔记]神经网络与深度学习2.1-2.4神经网络基础
- Coursera深度学习课程 DeepLearning.ai 提炼笔记(1-2)-- 神经网络基础
- 吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)
- 吴恩达深度学习课程笔记之神经网络基础
- 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(1-2)-- 神经网络基础(转载)
- 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(1-2)-- 神经网络基础
- 吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)
- 深度学习笔记1--神经网络
- 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(1-4)-- 深层神经网络
- 神经网络和深度学习-第二周神经网络基础-第四节:梯度下降法
- 神经网络六:深度学习斯坦福cs231n 课程笔记
- 零基础入门深度学习(3) - 神经网络和反向传播算法
- 深度学习数学基础笔记整理(一)
- 吴恩达深度学习笔记 (补)1.1~1.5 神经网络概述