【知识之心】深度学习精华汇总
2017-03-24 16:21
295 查看
【知识之心】汇集精华内容, 带你领略技术的历史、思想、公司、核心技术点
深度学习
从技术发展的意义上
大家谈论它的热衷程度,已超乎想象
Google、Facebook、微软以及其它创业公司
通过深度学习做到顶级智能识别实用精度
深度学习的广泛应用
让它载入史册
![](https://img-blog.csdn.net/20170324162536249)
CSDN知识库深度学习图谱
作为人工智能研究中一个新的领域
其动机在于建立可以模拟人脑进行去分析学习
模仿人脑的逻辑去解释数据的神经网络
1943年
神经元M-P模型,开启人工神经网络
心理学家Warren Mcculloch和数理逻辑学家Walter Pitts在合作的论文中提出并给出了人工神经网络的概念及人工神神经元的数学模型,从而开创了人类神经网络研究的时代。
1949年
Hebb提出学习规则,神经网络研究演进
心理学家Donald Hebb在论文中提出了神经心理学理论,Hebb认为神经网络的学习过程最终是发生在神经元之间的突触部位,突触的联结强度随着突触前后神经元的活动而变化,变化的量与两个神经元的活性之和成正比。
1958年
两层神经网络,神经网络研究热潮
心理学家Frank Rosenblatt受到这种思想的启发,认为这个简单想法足以创造一个可以学习识别物体的机器,并设计了算法和硬件。直到1957年,Frank Rosenblatt在《New York Times》上发表文章《Electronic ‘Brain’ Teaches Itself》,首次提出了可以模型人类感知能力的机器,并称之为感知机(Perceptron)。
1969年
感知器的研究和神经网络的冰河期
感知机被证明不能处理诸多的模式识别问题,Marvin Minsky和Seymour Paper仔细分析了以感知机为代表的单层感知机在计算能力上的局限性,证明感知机不能解决简单的异或(XOR)等线性不可分问题,但Rosenblatt和Minsky及Papery等人在当时已经了解到多层神经网络能够解决线性不可分的问题。
1986年
反向传播B-M算法,解决两层神经网络的复杂性
反向传播用来训练人工神经网络(Artificial Neural Network,ANN)的最常用且最有效的算法。
2000年
深度学习(多层神经网络)开启
深度学习极大地促进了机器学习,人工智能领域的发展,收到世界各国相关领域研究人员和高科技公司的重视。Deep Instinct,Lunit,Nnaisense,TeraDeep,Vuno等深度学习公司风起云涌,开启了深度学习的疯狂模式。
深度学习算法应用最广泛的三个领域
语音识别
图像识别
自然语言处理
深度学习重点知识点
强化学习
无监督学习
卷积神经网络
递归神经网络
神经元神经网络
caffe开源库
tensorflow开源库
theano开源库
torch开源库
mxnet开源库
人物
阿里孙佰贵:深度学习十问十答
深度学习
从技术发展的意义上
大家谈论它的热衷程度,已超乎想象
Google、Facebook、微软以及其它创业公司
通过深度学习做到顶级智能识别实用精度
深度学习的广泛应用
让它载入史册
CSDN知识库深度学习图谱
作为人工智能研究中一个新的领域
其动机在于建立可以模拟人脑进行去分析学习
模仿人脑的逻辑去解释数据的神经网络
![](https://img-blog.csdn.net/20170324160619255?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvYmFpeXV6aG9uZzIwMTI=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
知识故事
![](https://img-blog.csdn.net/20170324160558740?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvYmFpeXV6aG9uZzIwMTI=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
1943年神经元M-P模型,开启人工神经网络
心理学家Warren Mcculloch和数理逻辑学家Walter Pitts在合作的论文中提出并给出了人工神经网络的概念及人工神神经元的数学模型,从而开创了人类神经网络研究的时代。
1949年
Hebb提出学习规则,神经网络研究演进
心理学家Donald Hebb在论文中提出了神经心理学理论,Hebb认为神经网络的学习过程最终是发生在神经元之间的突触部位,突触的联结强度随着突触前后神经元的活动而变化,变化的量与两个神经元的活性之和成正比。
1958年
两层神经网络,神经网络研究热潮
心理学家Frank Rosenblatt受到这种思想的启发,认为这个简单想法足以创造一个可以学习识别物体的机器,并设计了算法和硬件。直到1957年,Frank Rosenblatt在《New York Times》上发表文章《Electronic ‘Brain’ Teaches Itself》,首次提出了可以模型人类感知能力的机器,并称之为感知机(Perceptron)。
1969年
感知器的研究和神经网络的冰河期
感知机被证明不能处理诸多的模式识别问题,Marvin Minsky和Seymour Paper仔细分析了以感知机为代表的单层感知机在计算能力上的局限性,证明感知机不能解决简单的异或(XOR)等线性不可分问题,但Rosenblatt和Minsky及Papery等人在当时已经了解到多层神经网络能够解决线性不可分的问题。
1986年
反向传播B-M算法,解决两层神经网络的复杂性
反向传播用来训练人工神经网络(Artificial Neural Network,ANN)的最常用且最有效的算法。
2000年
深度学习(多层神经网络)开启
深度学习极大地促进了机器学习,人工智能领域的发展,收到世界各国相关领域研究人员和高科技公司的重视。Deep Instinct,Lunit,Nnaisense,TeraDeep,Vuno等深度学习公司风起云涌,开启了深度学习的疯狂模式。
![](https://img-blog.csdn.net/20170324160619255?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvYmFpeXV6aG9uZzIwMTI=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
研究领域
![](https://img-blog.csdn.net/20170324160558740?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvYmFpeXV6aG9uZzIwMTI=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
深度学习算法应用最广泛的三个领域语音识别
图像识别
自然语言处理
深度学习重点知识点
强化学习
无监督学习
卷积神经网络
递归神经网络
神经元神经网络
caffe开源库
tensorflow开源库
theano开源库
torch开源库
mxnet开源库
人物
阿里孙佰贵:深度学习十问十答
相关文章推荐
- 深度学习 知识汇总
- 深度学习入门知识汇总
- 路由器基础知识点汇总学习
- TD-SCDMA原理学习知识汇总
- 【Eclipse】【学习笔记】常用知识汇总
- 机器学习算法汇总:人工神经网络、深度学习及其它
- Flex 学习笔记 小知识汇总
- 机器学习算法汇总:人工神经网络、深度学习及其它
- 【iOS知识学习】_iOS开源项目汇总
- 黑马程序员Java基础知识学习部分汇总
- IOS学习之知识大汇总
- 准备工作,flash学习知识汇总
- js基础知识学习站点汇总
- opencv学习笔记——中文论坛上相关知识汇总
- 【iOS知识学习】_iOS面试题汇总
- TD-SCDMA原理学习知识汇总
- 转:socket 知识汇总学习
- 【iOS知识学习】_iOS面试题汇总(二)
- 机器学习算法汇总:人工神经网络、深度学习及其它
- Python学习(三)——————基础知识汇总(二)