您的位置:首页 > 理论基础 > 计算机网络

海量增量学习神经网络 lsnn,the finaly nn

2016-01-26 22:36 411 查看
无限增量学习,能实现无限增量学习,是强人工智能的基础。当然其他各种上层的东西: 自我、自举学习, 情感,这样的东西,目前还不到深入研究的地步。但是各种高级一些的智慧体具备的功能特征,其最基础的支撑算法,必须是无限增量学习。(20年以后回来看,这个必定已经成立,不知道这个提法能申请专利不? 呵呵,穷的我没办法研究下去了,疯了。)下面说说突破的地方:

这两年,做了视频浓缩摘要算法,人车分类等机器学习算法。包括:svm,knn,lsh, ann,dl,cmac,rbf, 等主要的机器学习算法。其中svm,knn,dl 是应用中比较成功的分类算法。但是目前来看,没办法实现增量无限学习。这就注定只是一个限定数据范围的,有点smart的机器。 能无限增量学习,才能像人出生之后一样,不断学习成长。360的首席科学家提出 baby learning, 貌似就是这个思路。不谋而合啊。但是不知道其实现思路。我这样层次的人,也联系不到这样的大家。

实现办法:用 lsh 结合 ann 实现局部敏感神经网络, 就是这么简单。 lsh ,这我已经算法上改进实现了(exp-lsh)。无限学习,局部敏感。比其他传统 lsh,有本质飞跃,不再是 1% 千分之一的运算量提升,而是达到 O(1)级别的复杂度。 同时,knn召回率达到99.9%以上(相对于knn的100%),实际分类召回率超过knn。 这样保证了局部样本的有效性。进一步通过 局部连接Ann神经网络,dl神经网络模型,并使用局部连接改进当前全链接的ANN,可以达到彻底彻底的局部敏感。从而可以增量学习,海量学习。下一步算法实验。

原创算法,侵权必究。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: