中文词频统计及词云制作
2017-09-25 17:28
183 查看
1.中软国际华南区技术总监曾老师还会来上两次课,同学们希望曾老师讲些什么内容?(认真想一想回答)
python的实际应用,Python的实际操作案例
2.中文分词
A.下载一中文长篇小说,并转换成UTF-8编码
《三体》中的第一章节
B.使用jieba库,进行中文词频统计,输出TOP20的词及出现次数
C.**排除一些无意义词、合并同一词
D.**使用wordcloud库绘制一个词云
python的实际应用,Python的实际操作案例
2.中文分词
A.下载一中文长篇小说,并转换成UTF-8编码
《三体》中的第一章节
B.使用jieba库,进行中文词频统计,输出TOP20的词及出现次数
import jieba txt = open('三体01.txt','r').read() words = list(jieba.cut(txt)) dic= {} keys = set(words) for i in keys: dic[i] = words.count(i) wc = list(dic.items()) wc.sort(key=lambda x:x[1],reverse=True) print("20个出现次数最多的词语:") for i in range(20): print(wc[i])
C.**排除一些无意义词、合并同一词
import jieba txt = open('三体01.txt','r').read() exc = {'','\n\n','叶','当','孩儿','最','就','泰','他们','地','对','卫兵','绍','洁','后','们','将','女孩儿','人','已','又','为','的','了','在','她','是','你','他','那','中','都','和','这','也','着','不','但','上','被','说','我','有','一个','没有'} words = list(jieba.cut(txt,cut_all=True)) dic= {} keys = set(words) for i in exc: keys.remove(i) for i in keys: dic[i] = words.count(i) wc = list(dic.items()) wc.sort(key=lambda x:x[1],reverse=True) print("20个出现次数最多的词语:") for i in range(20): print(wc[i])
D.**使用wordcloud库绘制一个词云
from wordcloud import WordCloud import matplotlib.pyplot as plt txt = open('三体01.txt','r').read() words = WordCloud().generate(txt) plt.imshow(words) plt.axis('off') plt.show()
相关文章推荐
- 中文词频统计及词云制作
- 中文词频统计及词云制作
- 中文分词,词频统计,词云图制作
- 中文词频统计及词云制作
- PYTHON3.6对中文文本分词、去停用词以及词频统计
- python实现简单中文词频统计示例
- Pig + Ansj 统计中文文本词频
- 【python 编程】网页中文过滤分词及词频统计
- Python实现中文小说词频统计
- hadoop中文分词、词频统计及排序
- 使用Lucene词频统计与d3.cloud展示的中文英文词云系统
- 用小猫统计制作运动员评价管理系统:修改一下主表的中文名称
- py库: jieba (中文词频统计) 、collections (字频统计)、WordCloud (词云)
- 实验二-3 Hadoop&Paoding 中文词频统计
- python 中自然语言处理(中文)——统计词频
- 统计中文RSS博客中的词频
- 使用python对中文文档进行词频统计
- 【实战】词频统计及词云图制作
- python进行中文分词、词性标注、词频统计
- 初学Hadoop之中文词频统计