您的位置:首页 > 大数据 > 人工智能

Mahout Naive Bayes中文新闻分类示例

2016-07-10 14:28 411 查看
转载原文:http://www.cnblogs.com/panweishadow/p/4320720.html

一、简介

关于Mahout的介绍,请看这里:http://mahout.apache.org/
关于Naive Bayes的资料,请戳这里:
Mahout实现了Naive Bayes分类算法,这里我用它来进行中文的新闻文本分类。
官方有一组分类例子,使用20 newsgroups data (http://people.csail.mit.edu/jrennie/20Newsgroups/20news-bydate.tar.gz)
总大小约为85MB。
对于中文文本,相比英文文本,只多一步切词的步骤,使用搜狗实验室的语料库,总大小约为300M。请戳这里:http://www.sogou.com/labs/resources.html?v=1

 

 

二、详细步骤

1.写切词小程序,工具包为IK,用空格分开,将所有新闻集中到一个文本中,一行代表一篇新闻~
2.上传数据到hdfs,数据量大小,亲测数小时~~~
     user@hadoop:~/workspace$hadoop dfs -cp /share/data/Mahout_examples_Data_Set/20news-all
.
3.从20newsgroups data创建序列文件(sequence files)

 

user@hadoop:~/workspace$mahout seqdirectory -i 20news-all -o 20news-seq
4.将序列文件转化为向量
user@hadoop:~/workspace$mahout seq2sparse -i ./20news-seq -o ./20news-vectors  -lnorm -nv  -wt tfidf 
5.将向量数据集分为训练数据和检测数据,以随机40-60拆分
user@hadoop:~/workspace$mahout split -i ./20news-vectors/tfidf-vectors --trainingOutput ./20news-train-vectors --testOutput ./20news-test-vectors --randomSelectionPct 40 --overwrite --sequenceFiles
-xm sequential
6.训练朴素贝叶斯模型
user@hadoop:~/workspace$mahout trainnb -i  ./20news-train-vectors -el -o ./model -li ./labelindex -ow -c 
7.检验朴素贝叶斯模型
user@hadoop:~/workspace$mahout testnb -i ./20news-train-vectors -m ./model -l ./labelindex -ow -o 20news-testing –c

 

8.检测模型分类效果
user@hadoop:~/workspace$mahout testnb -i ./20news-test-vectors -m ./model -l ./labelindex -ow -o ./20news-testing -c

 
参考资料:http://openresearch.baidu.com/activitybulletin/448.jhtml;jsessionid=28BD4187550DCA6F8AD6FEA4DCCA2480
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  Mahout JAVA