CS231n课程笔记翻译系列之目录汇总
2018-03-13 18:51
323 查看
原文链接: //blog.csdn.net/NNNNNNNNNNNNY/article/details/54577123
知乎上CS231n课程翻译系列 翻译的笔记非常好,为了方便查看,这里把所有目录列于此,并给出链接。Python Numpy教程(全篇)
Python
基本数据类型
容器(列表, 字典, 集合, 元组)
函数
类
Numpy
数组
访问数组
数据类型
数组计算
广播
SciPy
图像操作
MATLAB文件
点之间的距离
Matplotlib
绘制图形
绘制多个图形
图像
图像分类笔记
图像分类、数据驱动方法和流程(上篇)
Nearest Neighbor分类器
k-Nearest Neighbor
验证集、交叉验证集和超参数调参(下篇)
Nearest Neighbor的优劣
小结
小结:应用kNN实践
拓展阅读
线性分类笔记
线性分类器简介(上篇)
线性评分函数
阐明线性分类器
损失函数(中篇)
多类SVM
Softmax分类器(下篇)
SVM和Softmax的比较
基于Web的可交互线性分类器原型
小结
最优化笔记
简介(上篇)
损失函数可视化
最优化
策略#1:随机搜索
策略#2:随机局部搜索
策略#3:跟随梯度
梯度计算(下篇)
使用有限差值进行数值计算
微分计算梯度
梯度下降
小结
反向传播笔记 (全篇)
简介
简单表达式和理解梯度
复合表达式,链式法则,反向传播
直观理解反向传播
模块:Sigmoid例子
反向传播实践:分段计算
回传流中的模式
用户向量化操作的梯度
小结
神经网络笔记1
不用大脑做类比的快速简介(上篇)
单个神经元建模
生物动机和连接
作为线性分类器的单个神经元
常用的激活函数
神经网络结构(下篇)
层组织
前向传播计算例子
表达能力
设置层的数量和尺寸
小节
参考文献
神经网络笔记2(全篇)
设置数据和模型
数据预处理
权重初始化
批量归一化(Batch Normalization)
正则化(L2/L1/Maxnorm/Dropout)
损失函数
小结
神经网络笔记3
梯度检查(上篇)
合理性(Sanity)检查
检查学习过程
损失函数
训练集与验证集准确率
权重:更新比例
每层的激活数据与梯度分布
可视化
参数更新(下篇)
一阶(随机梯度下降)方法,动量方法,Nesterov动量方法
学习率退火
二阶方法
逐参数适应学习率方法(Adagrad,RMSProp)
超参数调优
评价
模型集成
总结
拓展引用
卷积神经网络笔记 (全篇)
结构概述
用来构建卷积神经网络的各种层
卷积层
汇聚层
归一化层
全连接层
将全连接层转化成卷积层
卷积神经网络的结构
层的排列规律
层的尺寸设置规律
案例学习(LeNet / AlexNet / ZFNet / GoogLeNet / VGGNet)
计算上的考量
拓展资源
知乎上CS231n课程翻译系列 翻译的笔记非常好,为了方便查看,这里把所有目录列于此,并给出链接。Python Numpy教程(全篇)
Python
基本数据类型
容器(列表, 字典, 集合, 元组)
函数
类
Numpy
数组
访问数组
数据类型
数组计算
广播
SciPy
图像操作
MATLAB文件
点之间的距离
Matplotlib
绘制图形
绘制多个图形
图像
图像分类笔记
图像分类、数据驱动方法和流程(上篇)
Nearest Neighbor分类器
k-Nearest Neighbor
验证集、交叉验证集和超参数调参(下篇)
Nearest Neighbor的优劣
小结
小结:应用kNN实践
拓展阅读
线性分类笔记
线性分类器简介(上篇)
线性评分函数
阐明线性分类器
损失函数(中篇)
多类SVM
Softmax分类器(下篇)
SVM和Softmax的比较
基于Web的可交互线性分类器原型
小结
最优化笔记
简介(上篇)
损失函数可视化
最优化
策略#1:随机搜索
策略#2:随机局部搜索
策略#3:跟随梯度
梯度计算(下篇)
使用有限差值进行数值计算
微分计算梯度
梯度下降
小结
反向传播笔记 (全篇)
简介
简单表达式和理解梯度
复合表达式,链式法则,反向传播
直观理解反向传播
模块:Sigmoid例子
反向传播实践:分段计算
回传流中的模式
用户向量化操作的梯度
小结
神经网络笔记1
不用大脑做类比的快速简介(上篇)
单个神经元建模
生物动机和连接
作为线性分类器的单个神经元
常用的激活函数
神经网络结构(下篇)
层组织
前向传播计算例子
表达能力
设置层的数量和尺寸
小节
参考文献
神经网络笔记2(全篇)
设置数据和模型
数据预处理
权重初始化
批量归一化(Batch Normalization)
正则化(L2/L1/Maxnorm/Dropout)
损失函数
小结
神经网络笔记3
梯度检查(上篇)
合理性(Sanity)检查
检查学习过程
损失函数
训练集与验证集准确率
权重:更新比例
每层的激活数据与梯度分布
可视化
参数更新(下篇)
一阶(随机梯度下降)方法,动量方法,Nesterov动量方法
学习率退火
二阶方法
逐参数适应学习率方法(Adagrad,RMSProp)
超参数调优
评价
模型集成
总结
拓展引用
卷积神经网络笔记 (全篇)
结构概述
用来构建卷积神经网络的各种层
卷积层
汇聚层
归一化层
全连接层
将全连接层转化成卷积层
卷积神经网络的结构
层的排列规律
层的尺寸设置规律
案例学习(LeNet / AlexNet / ZFNet / GoogLeNet / VGGNet)
计算上的考量
拓展资源
相关文章推荐
- CS231n课程笔记翻译系列之目录汇总
- CS231n课程笔记翻译系列之目录汇总
- CS231n课程笔记翻译系列之目录汇总
- 李飞飞CS231n课程-中文笔记(包括课后作业要求)翻译汇总
- 李飞飞CS231n课程-中文笔记(包括课后作业要求)翻译汇总
- CS231n课程笔记翻译:卷积神经网络笔记
- CS231n课程笔记翻译:神经网络笔记1
- CS231n课程笔记翻译:图像分类笔记(上)
- CS231n课程笔记翻译:神经网络笔记2
- CS231n课程笔记翻译:神经网络笔记1(下)
- CS231n课程笔记翻译(一):Python Numpy教程
- CS231n课程笔记翻译:图像分类笔记(下)
- CS231n课程笔记翻译4:最优化笔记
- CS231n课程笔记翻译:神经网络笔记3
- CS231n 课程笔记翻译:最优化笔记
- CS231n课程笔记翻译(二):图像分类笔记(上)
- CS231n课程翻译系列
- CS231n课程笔记翻译5:反向传播笔记
- CS231n课程笔记翻译
- CS231n课程笔记翻译(三):图像分类笔记(下)