EMI Music Data Science Hackathon冠军团队的技术报告
2016-06-08 14:03
197 查看
摘要
引言
预处理方法
wordscsv
用户
生成测试数据集
模型
分解模型
模型学习方法
线性回归
集成
后处理
本文使用了Factorization Machine和线性回归的方法。我们从训练数据中抽取了不同的特征融合到模型中。在对不同的特征预处理,使用一种基于随机梯度下降的训练框架来优化模型。我们构建了两种模型分别不同的特征的重要性,还使用了一种线性组合的方法集成这两个模型,使用后处理的策略以获得更高的精度。
本文结构如下:第二节介绍了我们使用的预处理方法,如何生成测试数据集;第三节提出了最终的模型;第四节和第五节提出了集成方法和后处理方法。
首先合并“Good lyrics”栏目。
将“Like_Artist”栏映射到[0,1]区间内(除以100),删除所有缺失值。
“Heard_of”和“Own_artitist_music”栏目转换为离散值:如果用户给某个答案给了对应答案,将其转换为1。
对于音乐习惯问题,我们报了所有有效的评价,并将它们转换为[0,1]区间内。
对于年龄栏,保留所有有效值。
对于剩下的栏目,如“性别”,“工作”等将这些值转为离散值。
r^ui=bui+qTipu(1)
其中pu是一个d维的用户特征向量,qi是一个产品特征向量。d是预先设置的参数。偏差特征bui定义如下:
bui=μ+bu+bi(2)
在该公式中,参数μ大表整体评分均值,bu和bi分别表示用户和产品的评分偏差。这些参数可以通过求解下式得到:
minp∗,q∗,b∗∑(u,i)∈K(rui−bui−qTipu)2+λ1∥pu∥2+λ2∥qi∥2+λ3b2u+λ4b2i(3)
bu←bu+η(eui−λ1bu)bi←bi+η(eui−λ2bi)qi←qi+η(euipu−λ3qi)pu←pu+η(euiqi−λ4pu)
这里我们使用线性回归方法整合用户信息和用户对音乐家的描述,然后我们可以将矩阵分解模型的预测值和线性回归的预测值进行结合以更好地建模。
r^ui=bui+yui+qTipu(4)
$y_{ui}用下式定义:
yui=∑kβk×Xkui(5)
其中{Xkui}是words.csv和users.csv转换而来的特征值。
对于离散值,Xkui要么为0,要么为1,如”性别”,”工作”;对于连续值如”like artist”和很多用户的习惯问题,Xkui将被转换为0-1之间的连续值。对于年龄这一特征,我们将”age”属性上对应的值x转为一个新的值
ageu={36floor(x/2)if x>=72,if 0<x<72.
将等于36 的Xkui的值设为1。
参数βi通过调整SGD更新过程学习(3.2)得到,对于每步,我们加上:
βk←βk+η(euiXkui−λ5βk),∀βk
对于每个用户,我们要减少预测评分与训练数据的评分分布的偏差。对于用户u,我们发现训练数据中最小评分为su,最大评分为lu。那么预测评分rui转换为
r′^ui=⎧⎩⎨⎪⎪r^ui∗0.7+su∗0.3r^ui∗0.7+lu∗0.3r^uiif r^ui<su−5if r^ui>lu+5otherwise
引言
预处理方法
wordscsv
用户
生成测试数据集
模型
分解模型
模型学习方法
线性回归
集成
后处理
摘要
这篇报告描述了2012EMI音乐数据科学Hackathon中排名第一的盛大创新院的音乐推荐算法思路。他们使用了分解机器(大致看了下好像就是矩阵分解模型)和线性回归来融合大量特征。他们使用了用户的年龄,性别,工作状态,地区等其他用户资料来对用户兴趣进行建模。他们还融合了用户对EMI音乐家的描述来提升预测精度。此外,他们使用了一种简单的集成方法和后处理策略来合成两个不同的预测器,以生成最终的结果。引言
与传统推荐问题如Netflix竞赛相比,EMI的数据竞赛的复杂程度表现在两个方面:(1)用户和产品(音乐家)都有更为丰富的特征。例如在Words.csv中,用户对一些问题的回答表明了他们对EMI音乐家的熟悉度;此外用户还可以选择一些词来描述这些音乐家(类似于标签)(2)用户资料更为丰富,如年龄,性别,地区(这里选择的是英国的数据),工作的状态,听歌习惯(一些答案可以)。因此我们需要可以有效融合不同特征的模型,同样需要对这些特征进行有效的预处理。本文使用了Factorization Machine和线性回归的方法。我们从训练数据中抽取了不同的特征融合到模型中。在对不同的特征预处理,使用一种基于随机梯度下降的训练框架来优化模型。我们构建了两种模型分别不同的特征的重要性,还使用了一种线性组合的方法集成这两个模型,使用后处理的策略以获得更高的精度。
本文结构如下:第二节介绍了我们使用的预处理方法,如何生成测试数据集;第三节提出了最终的模型;第四节和第五节提出了集成方法和后处理方法。
预处理方法
words.csv
这个表主要描述用户对音乐家的看法。团队用预处理手段将表征用户偏好转到[0,1]区间上。首先合并“Good lyrics”栏目。
将“Like_Artist”栏映射到[0,1]区间内(除以100),删除所有缺失值。
“Heard_of”和“Own_artitist_music”栏目转换为离散值:如果用户给某个答案给了对应答案,将其转换为1。
用户
这个表是用户的个人文档,包括他们对音乐的态度。对于音乐习惯问题,我们报了所有有效的评价,并将它们转换为[0,1]区间内。
对于年龄栏,保留所有有效值。
对于剩下的栏目,如“性别”,“工作”等将这些值转为离散值。
生成测试数据集
将train.csv按照75/25的比例随机分成训练集和测试集。在训练集上训练模型,在测试集上测试。模型
符号 我们用U表示用户集合,I表示音乐集合(下文称之为产品)。用户数量和产品分别用|U|和|I|表示。用户和产品分别用u和i表示,rui表示用户u对产品i的偏好。所有评分构成一个|U|×|I|的评分矩阵R。评分矩阵所有用户-产品评分集合数量为K。分解模型
有用户偏差和产品偏差的基准SVD模型定义如下:r^ui=bui+qTipu(1)
其中pu是一个d维的用户特征向量,qi是一个产品特征向量。d是预先设置的参数。偏差特征bui定义如下:
bui=μ+bu+bi(2)
在该公式中,参数μ大表整体评分均值,bu和bi分别表示用户和产品的评分偏差。这些参数可以通过求解下式得到:
minp∗,q∗,b∗∑(u,i)∈K(rui−bui−qTipu)2+λ1∥pu∥2+λ2∥qi∥2+λ3b2u+λ4b2i(3)
模型学习方法
随机梯度下降(SGD)是求解优化问题的有效方法。我们将预测误差表示为eui。SGD基于下列方程更新参数:bu←bu+η(eui−λ1bu)bi←bi+η(eui−λ2bi)qi←qi+η(euipu−λ3qi)pu←pu+η(euiqi−λ4pu)
线性回归
在统计学中,线性回归是对自变量X和因变量Y进行建模的方法。在线性回归中,我们使用线性预测函数对数据进行建模,从数据中估计出未知的模型参数。这里我们使用线性回归方法整合用户信息和用户对音乐家的描述,然后我们可以将矩阵分解模型的预测值和线性回归的预测值进行结合以更好地建模。
r^ui=bui+yui+qTipu(4)
$y_{ui}用下式定义:
yui=∑kβk×Xkui(5)
其中{Xkui}是words.csv和users.csv转换而来的特征值。
对于离散值,Xkui要么为0,要么为1,如”性别”,”工作”;对于连续值如”like artist”和很多用户的习惯问题,Xkui将被转换为0-1之间的连续值。对于年龄这一特征,我们将”age”属性上对应的值x转为一个新的值
ageu={36floor(x/2)if x>=72,if 0<x<72.
将等于36 的Xkui的值设为1。
参数βi通过调整SGD更新过程学习(3.2)得到,对于每步,我们加上:
βk←βk+η(euiXkui−λ5βk),∀βk
集成
我们对两个模型的预测结果进行简单的求和平均。后处理
该任务是预测用户有多大可能喜欢一首音乐。评分范围在[0,100]之间,所以如果我们的模型少于0或者大于100应该将其重新放到0-100之间。对于每个用户,我们要减少预测评分与训练数据的评分分布的偏差。对于用户u,我们发现训练数据中最小评分为su,最大评分为lu。那么预测评分rui转换为
r′^ui=⎧⎩⎨⎪⎪r^ui∗0.7+su∗0.3r^ui∗0.7+lu∗0.3r^uiif r^ui<su−5if r^ui>lu+5otherwise
相关文章推荐
- 网易云音乐8亿用户背后的伤疤
- 2 个给使用 Fedora 工作站的音乐爱好者的新应用
- Linux 上最好的五款音乐播放器
- 在 Linux 中使用 SoundConverter 轻松转换音频文件格式
- 5 个很酷的音乐播放器
- js实现可兼容IE、FF、Chrome、Opera及Safari的音乐播放器
- PHP实现微信公众平台音乐点播
- Android扫描本地音乐文件开发案例分享
- Android编程开发音乐播放器实例
- Android编程实现使用SoundPool播放音乐的方法
- Python实现提取谷歌音乐搜索结果的方法
- iOS App中实现播放音效和音乐功能的简单示例
- 实例解析iOS中音乐播放器应用开发的基本要点
- pygame播放音乐的方法
- HTML代码大全
- Sony Sony开发在线音乐订阅服务
- 欧美专题--经典音乐下载
- 推荐序:《音乐达人秀:Adobe Audition实战200例》
- 让媒体播放器实现列表播放
- 请你不要再逃避