您的位置:首页 > Web前端

#Paper Reading# Active Task Selection for Lifelong Machine Learning

2017-01-07 17:54 621 查看
论文题目:Active Task Selection for Lifelong Machine Learning

论文地址:http://www.cis.upenn.edu/~eeaton/papers/Ruvolo2013Active.pdf

论文发表于:AAAI 2013(A类会议)

论文大体内容:

本文针对ELLA[1][2]算法,提出一种主动选择下一个要学习的task的策略,通过主动的选择,已达到更好的整体效果。本文motivation主要在active task selection + lifelong machine learning。

1、根据我们常用的做法,lifelong machine learning主要的工作就是使用以前task学习到的东西构造成知识,并用该知识作为监督信息,指导下一个task的学习。对于task队列,使用FIFO(First In First Out)的策略,是最普遍的做法,但是本文考虑到,假如我们能够重新排列task队列的task顺序,那么是否能够提升整体的性能呢?



2、其实结合LTM(Lifelong Topic Model)[3][4]的实验可以知道,连续多批同样label下的语料,使用knowledge base指导学习的效果会比间杂label的语料提高明显。这是因为knowledge是有适用性的,同样label下的多批语料,整体的knowledge环境类似,所以topic coherence的效果能取得明显提升,但对于间杂label的语料,knowledge的环境可能完全不一样,这样就导致knowledge的指导并不一定是合理的。

3、本文的主要研究目标是改进现有的LML模型(ELLA),使之能够主动选择下一个要学习的task,使得能够使用尽量少的task来最大化未来的学习任务的表现。



4、针对这一目标,作者提出了3种方法进行active task selection:

①考虑information maximization:选择的下一个task需要达到最大化信息增益;



②考虑model performance:选择的下一个task需要最小化worse case,这里称为Diversity methods,即要使得知识能够适应于更多种类别的task;



③random base:从task队列中随机选一个,实际是按照队列,直接选择下一个task,与普通的LML方法一样,以此作baseline;

5、本文还考虑到一种情况,针对某一目标task选择其它task来学习,积累出知识再指导该目标task学习。针对这一情况,使用information maximization策略,提出了Targeted Information Maximization的方法。



实验

6、Dataset:(与ELLA算法使用的Dataset一样)

①synthetic regression tasks:自定义的tasks,Tmax = 100 random tasks with d = 13 features and nt = 100 instances per task;

②land mine detection: 通过雷达图片找地雷;

③facial expression recognition:identification of three different facial movements from photographs of a subject;

④predicting student exam scores:from 15,362 students in 139 schools in London;

7、实验步骤如下图:



8、评测标准

①分类实验:AUC曲线;

②回归实验:rMSE;

9、实验结果:

①在同等的performance下,大部分情况下Diversity方法能取得最好的结果,即使用更少的tasks;

②对于targeted knowledge acquisition,Targeted Information Maximization的方法表现出更好的结果;



参考资料:

[1]、http://blog.csdn.net/john159151/article/details/53467013

[2]、http://www.jmlr.org/proceedings/papers/v28/ruvolo13.pdf

[3]、http://blog.csdn.net/john159151/article/details/52498396

[4]、http://www.jmlr.org/proceedings/papers/v32/chenf14.pdf

以上均为个人见解,因本人水平有限,如发现有所错漏,敬请指出,谢谢!
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  机器学习 LML