NLP笔记(二)
2017-05-02 15:47
197 查看
来源:Cousera哥大自然语言处理课程
Contextual:根据上下文语法结构进行标记
KEY:Balance Local & Contextual
导致
P(x1,x2,...,xn,y1,y2,...,yn+1)=0
因此无法确定argmaxy1,y2,...,yn+1P.
1. 将词汇分为两块
第一块为常见词汇,times≥num(eg:5)
第二块为低频率词汇
2. 将低频率词汇映射到小的有限集(根据前缀、后缀等等)
例子
循环定义
得到序列
其中算法复杂度为O(n|S|3)
标注问题
标记例子
Local VS Contextual
Local:根据经验进行标记Contextual:根据上下文语法结构进行标记
KEY:Balance Local & Contextual
三元隐马尔科夫模型 (Trigram HMMs)
例子
参数估计
q(yi|yi−1,yi−2)
e(xi|yi)
低频率词汇问题
e(base,Vt)=0导致
P(x1,x2,...,xn,y1,y2,...,yn+1)=0
因此无法确定argmaxy1,y2,...,yn+1P.
解决办法
初步1. 将词汇分为两块
第一块为常见词汇,times≥num(eg:5)
第二块为低频率词汇
2. 将低频率词汇映射到小的有限集(根据前缀、后缀等等)
例子
Viterbi算法
循环定义
得到序列
其中算法复杂度为O(n|S|3)
相关文章推荐
- 模型参数NLP 学习笔记 05 (Log-linear Models)
- NLP with python 笔记 前言
- 斯坦福NLP笔记48 —— Using Patterns to Extract Relations 3ff0
- Language Modeling---NLP学习笔记(原创)
- standford NLP课程笔记二 分词
- Tagging Problems & Hidden Markov Models---NLP学习笔记(原创)
- 斯坦福NLP笔记70 —— Introduction to Information Retrieva
- 斯坦福NLP笔记 —— Semantics
- [nlp笔记]最大熵模型
- NLP 学习笔记 01
- coursera NLP学习笔记之week1课程介绍&基础的文本处理
- coursera NLP学习笔记之week3 文本分类和朴素贝叶斯
- NLP学习笔记
- coursera NLP学习笔记之week1最小编辑距离计算
- NLP 学习笔记 02 (Tagging Problems, and Hidden Markov Models)
- NLP 学习笔记 04 (Machine Translation)
- 类模型NLP 学习笔记 05 (Brown Clustering && Global Linear Models)
- 斯坦福NLP笔记71 —— Term-Document Incidence Matrices 4000
- standford NLP课程笔记一 正则表达式
- standford NLP课程笔记三 句子切分