IKAnalyzer 分词工具的使用与问题
2013-11-26 15:11
274 查看
IKAnalyzer 用来对一段文集进行分词
IKAnalyzer.cfg.xml 文件必须放在classpath的根目录下,可以在源码中修改这个配置文件的位置,但是没有必要去修改。
至于调用是很简单的:
这里需要注意的是,在使用中发现类似这样的拓展字典是无法识别的
这类的有标点,或者特殊字符的字典项是不能识别的。
而且如果你下载的不是ik最新版本可能还会出现英文数字汉字在一起的时候无法识别问题,如:天台年123123abc,分成“天”,“台”,“年”,“123123”,“abc”,而不能分成分成“天”,“台”,“年”,“123123”,“abc”,“天台年123123abc”:。
main方法执行和发布到服务器执行效果不同,这里没找到原因,不过建议大家在服务器中看分割的结果。
IKAnalyzer.cfg.xml 文件必须放在classpath的根目录下,可以在源码中修改这个配置文件的位置,但是没有必要去修改。
<?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd"> <properties> <comment>IK Analyzer 扩展配置</comment> <entry key="ext_dict">/ikdic/ext_keyword.dic;</entry>//在classpath根目录下的ikdic包下的ext_keyword.dic,为扩展字典 <entry key="ext_stopwords">/ikdic/ext_stopword.dic</entry> //在classpath根目录下的ikdic包下的ext_stopword.dic,为停止字典 </properties>
至于调用是很简单的:
package org.bdp.util; import java.io.ByteArrayInputStream; import java.io.IOException; import java.io.InputStream; import java.io.InputStreamReader; import java.io.Reader; import java.util.ArrayList; import java.util.List; import org.wltea.analyzer.core.IKSegmenter; import org.wltea.analyzer.core.Lexeme; public class CZIKAnaUtil { public static void main(String[] args) { String str = "文嘉(1501-1583)"; IKAnalysis(str); } public static List<String> IKAnalysis(String str) { List<String> keywordList = new ArrayList<String>(); try { byte[] bt = str.getBytes(); InputStream ip = new ByteArrayInputStream(bt); Reader read = new InputStreamReader(ip); IKSegmenter iks = new IKSegmenter(read,true);//true开启只能分词模式,如果不设置默认为false,也就是细粒度分割 Lexeme t; while ((t = iks.next()) != null) { keywordList.add(t.getLexemeText()); } } catch (IOException e) { e.printStackTrace(); } /* for (int i = 0; i < keyWordList.size() - 1; i++) { for (int j = keyWordList.size() - 1; j > i; j--) { if (keyWordList.get(j).equals(keyWordList.get(i))) { keyWordList.remove(j); } } } Collections.sort(keyWordList, new Comparator<String>() { @Override public int compare(String o1, String o2) { return o2.length() - o1.length(); } })*/ System.out.println(keywordList); return keywordList; } }
这里需要注意的是,在使用中发现类似这样的拓展字典是无法识别的
文嘉(1501-1583)你和我,和你
这类的有标点,或者特殊字符的字典项是不能识别的。
而且如果你下载的不是ik最新版本可能还会出现英文数字汉字在一起的时候无法识别问题,如:天台年123123abc,分成“天”,“台”,“年”,“123123”,“abc”,而不能分成分成“天”,“台”,“年”,“123123”,“abc”,“天台年123123abc”:。
main方法执行和发布到服务器执行效果不同,这里没找到原因,不过建议大家在服务器中看分割的结果。
相关文章推荐
- 关于使用中文分词工具ICTCLAS2013 Java版本乱码的问题
- 中文分词工具-IKAnalyzer下载及使用
- 中文分词工具-IKAnalyzer下载及使用
- 使用nlpir分词工具时字符编码问题
- Python结巴中文分词工具使用过程中遇到的问题及解决方法
- 关于使用中文分词工具ICTCLAS2013 Java版本乱码的问题
- 使用AR工具管理库文件需要注意的问题
- VC++控制台程序使用Mysql,以及和MFC程序的兼容问题,工具VS2010ultimate
- 今天使用VS2012遇到一个问题:"链接器工具错误 LNK2026 XXX模块对于 SAFESEH 映像是不安全的"
- 解决MTK平台开关机问题可能需要使用的工具集介绍
- gsoap编译工具的安装与使用(二)----工具的使用及问题的解决
- 使用virtualbox安装VBoxGuestAdditions增强工具 共享文件夹失败问题
- Python 中文分词工具 ——结巴分词的使用方法总结
- IPOPT工具解决非线性规划最优化问题使用案例
- 【工具使用】secureCRT中的中文乱码问题
- IntelliJ IDEA 使用Javadoc工具生成注释文档时提示错误和乱码问题
- 【python】使用中科院NLPIR分词工具进行mysql数据分词
- WINCE6.0 远程工具,不能使用ActiveSync连接的问题
- 微信小程序常见问题-为什么可以在微信开发者工具中使用http
- 使用Reflector工具时注意的一些问题