ictclas,ansj,结巴分词,StanfordNLP中文分词以及所用词性标注集
2015-10-25 10:32
549 查看
NLPIR(ICTCLAS),参见java实现NLPIR(ICTCLAS)分词:http://www.bubuko.com/infodetail-665665.html,词性标注使用北大词性标注集。在Linux系统中的使用方法:http://jingyan.baidu.com/article/9158e0004251b4a2541228e5.html
ansj分词,非常好用,ansj-seg把分词、词性标注、新词发现、关键词提取这些功能的接口,都抽取出来了,方便我们选择其中一部分使用,这点尤其在处理大数据量的时候至关重要。使用新版的北大词性标注集,略有不同。ansj的源码地
址:http://nlpchina.github.io/ansj_seg/。ansj分词器的配置:http://blog.csdn.net/zhongkeli/article/details/17722065(可直接在eclipse中使用)。
StanfordNLP中文分词使用CTB(Chinese Tree Bank)中文树库标注词性;结巴分词用北大词性标注集
ansj分词,非常好用,ansj-seg把分词、词性标注、新词发现、关键词提取这些功能的接口,都抽取出来了,方便我们选择其中一部分使用,这点尤其在处理大数据量的时候至关重要。使用新版的北大词性标注集,略有不同。ansj的源码地
址:http://nlpchina.github.io/ansj_seg/。ansj分词器的配置:http://blog.csdn.net/zhongkeli/article/details/17722065(可直接在eclipse中使用)。
StanfordNLP中文分词使用CTB(Chinese Tree Bank)中文树库标注词性;结巴分词用北大词性标注集
相关文章推荐
- PHPAnalysis中文分词类详解
- 几款开源的中文分词系统
- 中文搜索引擎关键技术:中文分词技术
- lucene集成IK实现中文分词检索
- MySQL中文索引插件mysqlcft安装及使用
- CRF中文分词开源版发布啦
- MMSEG中文分词算法
- mapreduce计算分词权重
- Windows 7 x64系统安装CRFsuite给Python使用
- 配置solr4.10.0和中文分词IKAnalyzer
- IKAnalyzer分词单独使用例
- IKAnalyzer中文分词
- 正向最大匹配中文分词算法
- Error : loadNamespace()里算'rJava'时.onLoad失败了
- 中文分词基础原则及正向最大匹配法、逆向最大匹配法、双向最大匹配法的分析
- Apache Solr4 on Windows Tomcat7及中文分词安装
- 中文分词类
- 非常简单的分词程序
- ElasticSearch增加ik中文分词插件
- 简易智能自动问答机器人