您的位置:首页 > 其它

CS231n课程笔记翻译系列之目录汇总

2017-01-16 20:20 330 查看
知乎上CS231n课程翻译系列 翻译的笔记非常好,为了方便查看,这里把所有目录列于此,并给出链接。

Python Numpy教程(全篇

Python

基本数据类型

容器(列表, 字典, 集合, 元组)

函数



Numpy

数组

访问数组

数据类型

数组计算

广播

SciPy

图像操作

MATLAB文件

点之间的距离

Matplotlib

绘制图形

绘制多个图形

图像

图像分类笔记

图像分类、数据驱动方法和流程(上篇

Nearest Neighbor分类器

k-Nearest Neighbor

验证集、交叉验证集和超参数调参(下篇

Nearest Neighbor的优劣

小结

小结:应用kNN实践

拓展阅读

线性分类笔记

线性分类器简介(上篇

线性评分函数

阐明线性分类器

损失函数(中篇

多类SVM

Softmax分类器(下篇

SVM和Softmax的比较

基于Web的可交互线性分类器原型

小结

最优化笔记

简介(上篇

损失函数可视化

最优化

策略#1:随机搜索

策略#2:随机局部搜索

策略#3:跟随梯度

梯度计算(下篇

使用有限差值进行数值计算

微分计算梯度

梯度下降

小结

反向传播笔记 (全篇

简介

简单表达式和理解梯度

复合表达式,链式法则,反向传播

直观理解反向传播

模块:Sigmoid例子

反向传播实践:分段计算

回传流中的模式

用户向量化操作的梯度

小结

神经网络笔记1

不用大脑做类比的快速简介(上篇

单个神经元建模

生物动机和连接

作为线性分类器的单个神经元

常用的激活函数

神经网络结构(下篇

层组织

前向传播计算例子

表达能力

设置层的数量和尺寸

小节

参考文献

神经网络笔记2(全篇

设置数据和模型

数据预处理

权重初始化

批量归一化(Batch Normalization)

正则化(L2/L1/Maxnorm/Dropout)

损失函数

小结

神经网络笔记3

梯度检查(上篇

合理性(Sanity)检查

检查学习过程

损失函数

训练集与验证集准确率

权重:更新比例

每层的激活数据与梯度分布

可视化

参数更新(下篇

一阶(随机梯度下降)方法,动量方法,Nesterov动量方法

学习率退火

二阶方法

逐参数适应学习率方法(Adagrad,RMSProp)

超参数调优

评价

模型集成

总结

拓展引用

卷积神经网络笔记 (全篇)

结构概述

用来构建卷积神经网络的各种层

卷积层

汇聚层

归一化层

全连接层

将全连接层转化成卷积层

卷积神经网络的结构

层的排列规律

层的尺寸设置规律

案例学习(LeNet / AlexNet / ZFNet / GoogLeNet / VGGNet)

计算上的考量

拓展资源
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: