中文词频统计及词云制作
2017-09-25 19:21
204 查看
1.中软国际华南区技术总监曾老师还会来上两次课,同学们希望曾老师讲些什么内容?(认真想一想回答)
大数据具体的生活应用(具体到某个领域,以及其中起到的作用)
2.中文分词
下载一中文长篇小说,并转换成UTF-8编码。
使用jieba库,进行中文词频统计,输出TOP20的词及出现次数。
**排除一些无意义词、合并同一词。
大数据具体的生活应用(具体到某个领域,以及其中起到的作用)
2.中文分词
下载一中文长篇小说,并转换成UTF-8编码。
使用jieba库,进行中文词频统计,输出TOP20的词及出现次数。
**排除一些无意义词、合并同一词。
import jieba fr=open("傲慢与偏见.txt",'r',encoding='utf-8') s=list(jieba.cut(fr.read())) exp={',','\n','.','。','”','“',':','…',' ','?'} key=set(s)-exp dic={} for i in key: dic[i]=s.count(i) wc=list(dic.items()) wc.sort(key=lambda x:x[1],reverse=True) for i in range(20): print(wc[i]) fr.close()
import jieba fr=open("傲慢与偏见.txt",'r',encoding='utf-8') s=list(jieba.cut(fr.read())) key=set(s) dic={} for i in key: if len(i)>1: dic[i]=s.count(i) wc=list(dic.items()) wc.sort(key=lambda x:x[1],reverse=True) for i in range(20): print(wc[i]) fr.close()
相关文章推荐
- 中文词频统计及词云制作
- 中文词频统计及词云制作
- 中文词频统计及词云制作
- 中文分词,词频统计,词云图制作
- Python实现中文小说词频统计
- python实战,中文自然语言处理,应用jieba库来统计文本词频
- 【中文分词】使用IKAnalyzer分词统计词频
- python 中自然语言处理(中文)——统计词频
- 词频统计英文和统计中文的区别
- 实验二-3 Hadoop&Paoding 中文词频统计
- python实现简单中文词频统计示例
- PYTHON3.6对中文文本分词、去停用词以及词频统计
- Hadoop的改进实验(中文分词词频统计及英文词频统计) 博文目录结构
- Pig + Ansj 统计中文文本词频
- Hadoop中文词频统计
- 基于boost正则表达式:对目录下所有文本文件的中文词频统计
- Hadoop的改进实验(中文分词词频统计及英文词频统计)(1/4)
- 使用Lucene词频统计与d3.cloud展示的中文英文词云系统
- Hadoop的改进实验(中文分词词频统计及英文词频统计)(2/4)
- py库: jieba (中文词频统计) 、collections (字频统计)、WordCloud (词云)