中文词频统计及词云制作
2017-09-25 21:16
686 查看
ZJQ-013
中文词频统计及词云制作
1.中软国际华南区技术总监曾老师还会来上两次课,同学们希望曾老师讲些什么内容?(认真想一想回答)python的实际应用,Python的实际操作案例
2.中文分词
A.下载一中文长篇小说,并转换成UTF-8编码
《三体》中的第一章节
B.使用jieba库,进行中文词频统计,输出TOP20的词及出现次数
import jieba txt = open('三体01.txt','r').read() words = list(jieba.cut(txt)) dic= {} keys = set(words) for i in keys: dic[i] = words.count(i) wc = list(dic.items()) wc.sort(key=lambda x:x[1],reverse=True) print("20个出现次数最多的词语:") for i in range(20): print(wc[i])
C.**排除一些无意义词、合并同一词
import jieba txt = open('三体01.txt','r').read() exc = {'','\n\n','叶','当','孩儿','最','就','泰','他们','地','对','卫兵','绍','洁','后','们','将','女孩儿','人','已','又','为','的','了','在','她','是','你','他','那','中','都','和','这','也','着','不','但','上','被','说','我','有','一个','没有'} words = list(jieba.cut(txt,cut_all=True)) dic= {} keys = set(words) for i in exc: keys.remove(i) for i in keys: dic[i] = words.count(i) wc = list(dic.items()) wc.sort(key=lambda x:x[1],reverse=True) print("20个出现次数最多的词语:") for i in range(20): print(wc[i])
D.**使用wordcloud库绘制一个词云
相关文章推荐
- 中文词频统计及词云制作
- 中文分词,词频统计,词云图制作
- 中文词频统计及词云制作
- 中文词频统计及词云制作
- Hadoop的改进实验(中文分词词频统计及英文词频统计)(1/4)
- Hadoop的改进实验(中文分词词频统计及英文词频统计)(2/4)
- Hadoop的改进实验(中文分词词频统计及英文词频统计)(3/4)
- 【中文分词】使用IKAnalyzer分词统计词频
- Python jieba 中文分词与词频统计
- Hadoop的改进实验(中文分词词频统计及英文词频统计)(4/4)
- 使用python对中文文档进行词频统计
- PYTHON3.6对中文文本分词、去停用词以及词频统计
- Pig + Ansj 统计中文文本词频
- 【python 编程】网页中文过滤分词及词频统计
- python实现简单中文词频统计示例
- 使用Lucene词频统计与d3.cloud展示的中文英文词云系统
- 使用ES对中文文章进行分词,并进行词频统计排序
- hadoop中文分词、词频统计及排序
- 词频统计英文和统计中文的区别
- 用小猫统计制作运动员评价管理系统:修改一下主表的中文名称