您的位置:首页 > 其它

深度解析中文分词器算法(最大正向/逆向匹配)

2015-02-07 20:05 288 查看
中文分词算法概述:

1:非基于词典的分词(人工智能领域)

相当于人工智能领域计算。一般用于机器学习,特定领域等方法,这种在特定领域的分词可以让计算机在现有的规则模型中,

推理如何分词。在某个领域(垂直领域)分词精度较高。但是实现比较复杂。

例:比较流行的语义网:基于本体的语义检索。

大致实现:用protege工具构建一个本体(在哲学中也叫概念,在80年代开始被人工智能),通过jena的推理机制和实现方法。

实现对Ontology的语义检索。

Ontology语义检索这块自己和一朋友也还在琢磨,目前也只处于初级阶段。这一块有兴趣的朋友可以留言

一起共享资源。

2:基于词典的分词(最为常见)

这类分词算法比较常见,比如正向/逆向匹配。例如: mmseg分词器 就是一种基于词典的分词算法。以最大正向匹配为主,多

种 消除歧义算法为辅。但是不管怎么分。该类分词方法,分词精度不高。由于中文比较复杂,不推荐采用正向最大匹配算法的中文

分词器。。逆向最大匹配算法在处理中文往往会比正向要准确。

接下来分析第2种:基于词典的分词算法(最长的词优先匹配)。 先分析最大正向匹配算法

一: 具体流程图如下:



一:以下代码片段为最大正向匹配算法:

package hhc.forwardAlgorithm;

import java.net.URL;
import java.nio.charset.Charset;
import java.nio.file.Files;
import java.nio.file.Path;
import java.nio.file.Paths;
import java.util.ArrayList;
import java.util.List;
import java.util.Stack;

/**
* @Description:
* @Date: 2015-2-7上午02:00:51
* @Author 胡慧超
* @Version 1.0
*/
@SuppressWarnings("unchecked")
public class TokenizerAlgorithm {
private static final List<String> DIC=new ArrayList<String>();
private static int MAX_LENGTH;

/**
* 把词库词典转化成dic对象,并解析词典信息
*/
static {
try {
System.out.println("开始初始化字典...");
int max=1;
int count=0;
//读取词典中的每一个词
URL url=TokenizerAlgorithm.class.getClassLoader().getResource("hhc/dic.txt");
Path path=Paths.get(url.toString().replaceAll("file:/", ""));
List<String> list=Files.readAllLines(path, Charset.forName("UTF-8"));
System.out.println("读取词典文件结束,词总数为:"+list.size());
for(String line:list){
DIC.add(line);
count++;
//获取词库中 ,最大长度的词的长度
if(line.length()>max){
max=line.length();
}
}
MAX_LENGTH=max;
System.out.println("初始化词典结束,最大分词长度为:"+max+"  !!");
System.out.println("------------------------------------------------------------------------");
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}

/**
* 正向分词算法
* @param text
* @return
*/
public static List forwardSeg(String text){
List result=new ArrayList();
while(text.length()>0){
int len=MAX_LENGTH;
if(text.length()<MAX_LENGTH){
len=text.length();
}
//取指定的最大长度 文本去字典中匹配
String tryWord=text.substring(0, len);
while(!DIC.contains(tryWord)){//如果词典中不包含该段文本
//如果长度为1 的话,且没有在字典中匹配,返回
if(tryWord.length()==1){
break;
}
//如果匹配不到,则长度减1,继续匹配
/**
* --这里就是最关键的地方,把最右边的词去掉一个,继续循环
*/
tryWord=tryWord.substring(0, tryWord.length()-1);
}
result.add(tryWord);
//移除该次tryWord,继续循环
text=text.substring(tryWord.length());
}
return result;
}

public static void main(String[] args) {
// TODO Auto-generated method stub
List<String> lst=new ArrayList();
lst.add("研究生命起源");
lst.add("食物和服装");
lst.add("乒乓球拍卖完了");
for(String str:lst){
List<String> list=forwardSeg(str);
String word="";
for(String s:list){
s+="/";
word+=s;
}
System.out.println(word);
}
}


执行正向分词结果:



二:最大逆向分词算法

考虑到逆向,为了 区分分词的数据的连贯性。我们采用Stack(栈对象,数据结果,后进先出,不同于Queue和ArrayList有顺序的先进先出) 这个对象来存储分词结果。。

/**
* 逆向分词算法
* @param text
* @return
*/
public static List reverseSeg(String text){
Stack<String> result=new Stack();
while(text.length()>0){
int len=MAX_LENGTH;
if(text.length()<MAX_LENGTH){
len=text.length();
}
//取指定的最大长度 文本去字典中匹配
String tryWord=text.substring(text.length()-len);
while(!DIC.contains(tryWord)){//如果词典中不包含该段文本
//如果长度为1 的话,且没有在字典中匹配,返回
if(tryWord.length()==1){
break;
}
//如果匹配不到,则长度减1,继续匹配
/**
* --这里就是最关键的地方,把最左边的词去掉一个,继续循环
*/
tryWord=tryWord.substring(1);
}
result.add(tryWord);
//移除该次tryWord,继续循环
text=text.substring(0,text.length()-tryWord.length());
}
int size=result.size();
List list =new ArrayList(size);
for(int i=0;i<size;i++){
list.add(result.pop());
}
return list;
}


执行逆向分词结果



以上代码实现了两种正向和逆向的算法,可以很明显的比较中文分词结果。

但是效率,,呵呵!确实不咋的。欢迎打脸。

比如:数据结构就先不提。text.substring(0, 0+len)会导致产生大量的新的字符串的产生,消耗CPU的同时还会促发垃圾回收频繁

发生导致性能下降。随着最大长度的增加,性能会严重下降。

像之前介绍的采取正向最大匹配算法的mmseg分词器,内部设置了4个消除歧义的过滤算法,这四个歧义解析规则表明是相当有效率

的。总体来讲。mmseg的分词精度还是值得推荐的。。。下篇博客解析 最小正向/逆向匹配算法。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: