#Paper Reading# Active Task Selection for Lifelong Machine Learning
2017-01-07 17:54
621 查看
论文题目:Active Task Selection for Lifelong Machine Learning
论文地址:http://www.cis.upenn.edu/~eeaton/papers/Ruvolo2013Active.pdf
论文发表于:AAAI 2013(A类会议)
论文大体内容:
本文针对ELLA[1][2]算法,提出一种主动选择下一个要学习的task的策略,通过主动的选择,已达到更好的整体效果。本文motivation主要在active task selection + lifelong machine learning。
1、根据我们常用的做法,lifelong machine learning主要的工作就是使用以前task学习到的东西构造成知识,并用该知识作为监督信息,指导下一个task的学习。对于task队列,使用FIFO(First In First Out)的策略,是最普遍的做法,但是本文考虑到,假如我们能够重新排列task队列的task顺序,那么是否能够提升整体的性能呢?
![](https://oscdn.geek-share.com/Uploads/Images/Content/201701/f953f3b20bf4806bbd9b1c38dc6c7768)
2、其实结合LTM(Lifelong Topic Model)[3][4]的实验可以知道,连续多批同样label下的语料,使用knowledge base指导学习的效果会比间杂label的语料提高明显。这是因为knowledge是有适用性的,同样label下的多批语料,整体的knowledge环境类似,所以topic coherence的效果能取得明显提升,但对于间杂label的语料,knowledge的环境可能完全不一样,这样就导致knowledge的指导并不一定是合理的。
3、本文的主要研究目标是改进现有的LML模型(ELLA),使之能够主动选择下一个要学习的task,使得能够使用尽量少的task来最大化未来的学习任务的表现。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201701/68789e54cd40140cb0237ee3d5a6168e)
4、针对这一目标,作者提出了3种方法进行active task selection:
①考虑information maximization:选择的下一个task需要达到最大化信息增益;
![](https://oscdn.geek-share.com/Uploads/Images/Content/201701/c5b42e9cf735d7cdf23014c9e9a1a68d)
②考虑model performance:选择的下一个task需要最小化worse case,这里称为Diversity methods,即要使得知识能够适应于更多种类别的task;
![](https://oscdn.geek-share.com/Uploads/Images/Content/201701/a5a80e49dc1a74fb6b284b9cdd23077d)
③random base:从task队列中随机选一个,实际是按照队列,直接选择下一个task,与普通的LML方法一样,以此作baseline;
5、本文还考虑到一种情况,针对某一目标task选择其它task来学习,积累出知识再指导该目标task学习。针对这一情况,使用information maximization策略,提出了Targeted Information Maximization的方法。
![](https://oscdn.geek-share.com/Uploads/Images/Content/201701/1141314078df9dd908b0c3951212c506)
实验
6、Dataset:(与ELLA算法使用的Dataset一样)
①synthetic regression tasks:自定义的tasks,Tmax = 100 random tasks with d = 13 features and nt = 100 instances per task;
②land mine detection: 通过雷达图片找地雷;
③facial expression recognition:identification of three different facial movements from photographs of a subject;
④predicting student exam scores:from 15,362 students in 139 schools in London;
7、实验步骤如下图:
![](https://oscdn.geek-share.com/Uploads/Images/Content/201701/1cbdb21719ffe16858a55c3e6a268c86)
8、评测标准
①分类实验:AUC曲线;
②回归实验:rMSE;
9、实验结果:
①在同等的performance下,大部分情况下Diversity方法能取得最好的结果,即使用更少的tasks;
②对于targeted knowledge acquisition,Targeted Information Maximization的方法表现出更好的结果;
![](https://oscdn.geek-share.com/Uploads/Images/Content/201701/38f7976167e9d0bbe0ed60a27be584ea)
参考资料:
[1]、http://blog.csdn.net/john159151/article/details/53467013
[2]、http://www.jmlr.org/proceedings/papers/v28/ruvolo13.pdf
[3]、http://blog.csdn.net/john159151/article/details/52498396
[4]、http://www.jmlr.org/proceedings/papers/v32/chenf14.pdf
以上均为个人见解,因本人水平有限,如发现有所错漏,敬请指出,谢谢!
论文地址:http://www.cis.upenn.edu/~eeaton/papers/Ruvolo2013Active.pdf
论文发表于:AAAI 2013(A类会议)
论文大体内容:
本文针对ELLA[1][2]算法,提出一种主动选择下一个要学习的task的策略,通过主动的选择,已达到更好的整体效果。本文motivation主要在active task selection + lifelong machine learning。
1、根据我们常用的做法,lifelong machine learning主要的工作就是使用以前task学习到的东西构造成知识,并用该知识作为监督信息,指导下一个task的学习。对于task队列,使用FIFO(First In First Out)的策略,是最普遍的做法,但是本文考虑到,假如我们能够重新排列task队列的task顺序,那么是否能够提升整体的性能呢?
2、其实结合LTM(Lifelong Topic Model)[3][4]的实验可以知道,连续多批同样label下的语料,使用knowledge base指导学习的效果会比间杂label的语料提高明显。这是因为knowledge是有适用性的,同样label下的多批语料,整体的knowledge环境类似,所以topic coherence的效果能取得明显提升,但对于间杂label的语料,knowledge的环境可能完全不一样,这样就导致knowledge的指导并不一定是合理的。
3、本文的主要研究目标是改进现有的LML模型(ELLA),使之能够主动选择下一个要学习的task,使得能够使用尽量少的task来最大化未来的学习任务的表现。
4、针对这一目标,作者提出了3种方法进行active task selection:
①考虑information maximization:选择的下一个task需要达到最大化信息增益;
②考虑model performance:选择的下一个task需要最小化worse case,这里称为Diversity methods,即要使得知识能够适应于更多种类别的task;
③random base:从task队列中随机选一个,实际是按照队列,直接选择下一个task,与普通的LML方法一样,以此作baseline;
5、本文还考虑到一种情况,针对某一目标task选择其它task来学习,积累出知识再指导该目标task学习。针对这一情况,使用information maximization策略,提出了Targeted Information Maximization的方法。
实验
6、Dataset:(与ELLA算法使用的Dataset一样)
①synthetic regression tasks:自定义的tasks,Tmax = 100 random tasks with d = 13 features and nt = 100 instances per task;
②land mine detection: 通过雷达图片找地雷;
③facial expression recognition:identification of three different facial movements from photographs of a subject;
④predicting student exam scores:from 15,362 students in 139 schools in London;
7、实验步骤如下图:
8、评测标准
①分类实验:AUC曲线;
②回归实验:rMSE;
9、实验结果:
①在同等的performance下,大部分情况下Diversity方法能取得最好的结果,即使用更少的tasks;
②对于targeted knowledge acquisition,Targeted Information Maximization的方法表现出更好的结果;
参考资料:
[1]、http://blog.csdn.net/john159151/article/details/53467013
[2]、http://www.jmlr.org/proceedings/papers/v28/ruvolo13.pdf
[3]、http://blog.csdn.net/john159151/article/details/52498396
[4]、http://www.jmlr.org/proceedings/papers/v32/chenf14.pdf
以上均为个人见解,因本人水平有限,如发现有所错漏,敬请指出,谢谢!
相关文章推荐
- 用Python从零实现贝叶斯分类器的机器学习的教程
- My Machine Learning
- 机器学习---学习首页 3ff0
- Spark机器学习(一) -- Machine Learning Library (MLlib)
- 反向传播(Backpropagation)算法的数学原理
- 关于SVM的那点破事
- 也谈 机器学习到底有没有用 ?
- #ML-SDN
- TensorFlow人工智能引擎入门教程之九 RNN/LSTM循环神经网络长短期记忆网络使用
- TensorFlow人工智能引擎入门教程之十 最强网络 RSNN深度残差网络 平均准确率96-99%
- TensorFlow人工智能引擎入门教程所有目录
- Tensorflow 杂记
- 如何用70行代码实现深度神经网络算法
- 机器学习算法比较
- 机器学习Python识别图片验证码原理
- 量子计算机编程原理简介 和 机器学习
- EM算法 - 2 - EM算法在高斯混合模型学习中的应用
- 近200篇机器学习&深度学习资料分享(含各种文档,视频,源码等)
- 已经证实提高机器学习模型准确率的八大方法