使用python进行简单的分词与词云
2017-08-22 10:45
260 查看
目标:
导入一个文本文件使用jieba对文本进行分词
使用wordcloud包绘制词云
环境:
Python 3.6.0 |Anaconda 4.3.1 (64-bit)
工具:
jupyter notebook从网上下载了一篇小说《老九门》,以下对这篇小说进行分词,并绘制词云图。
分词使用最流行的分词包jieba,参考:https://github.com/fxsjy/jieba
词云使用wordcloud包,参考:https://github.com/amueller/word_cloud
这两个包都不是anaconda自带的,需要按官网的步骤安装。
In [1]:
import wordcloud as wc import jieba import matplotlib.pyplot as plt from scipy.misc import imread %matplotlib inline plt.rc('figure', figsize=(15, 15))
首先读取文件,保存到一个字符串对象中。
In [2]:
all_text = open(file='老九门.txt', encoding='utf-8').read()
查看一下字符串的内容,发现其中有很多多余的字符:'\n'、'\u3000'。
In [3]:
all_text
Out[3]:
'\ufeff《盗墓笔记》中,一段与二月红有关的故事。\n《老九门》壹:二月红①\n丝帐许久没有换过了。\n\u3000\u3000她半夜入不了眠,睁开眼睛,便看到床边垂下的帐面,在月光下看着有一死暗淡。原来可是丝丝的带着光亮,好像最白的银拉出来的丝一般。\n\u3000\u3000果然再好的东西,也总是由好往坏了去。\n\u3000\u3000以往一过立秋,... ...<以下省略>
4000
在分词之前先把这些多余字符剔除掉。
In [4]:
all_text = all_text.replace('\n', '' ) all_text = all_text.replace('\u3000', '')
下面先尝试做一次分词,把所有分词用空格分开,输出看一下分词的结果:
In [6]:
seg_list = jieba.cut(all_text, cut_all=False) words =' ' for seg in seg_list: words = words + seg + ' ' print(words)
Out[6]:
《 盗墓 笔记 》 中 , 一段 与 二月 红 有关 的 故事 。 《 老 九门 》 壹 : 二月 红 ① 丝帐 许久 没有 换过 了 。 她 半夜 入 不了 眠 , 睁开眼睛 , 便 看到 床边 垂下 的 帐面 , 在 月光 下 看着 有 一死 暗淡 。 原来 可是 丝丝 的 带 着 光亮 , 好像 最白 的 银拉 出来 的 丝 一般 。 果然 再 好 的 东西 , 也 总是 由 好 往坏 了 去 。 以往 一过 立秋 , 她 就 会 亲自 拆 下 这块 帐头 , 亲自 去 漂洗 , 她 知道 这 东西 的 脾气 , 得 小心 伺候 着 , 一寸 一寸 地过 水 。 如今 不让 她 下床 , 这 东西 没 人 伺候 了 , 倒 也 显得 越来越 不值 当 被 这么 细心 对待 起来 。 也许 , 下 一个 立秋 的 时候 , 才 有人 敢动 这个 东西 , 但 那个 人 , 必然 不是 自己 了 。 中午 大夫 和 他 说 的 那些 话 , 虽然 是 在 屋外 , 但是 她 还是 听到 了 几分 , 自己 的 病 , 不 知道 还有 多少 日子 可熬 。 她 舒 了 口气 , 胸中 的 那丝 痛楚 似乎 好 了 一些 。 多少 日
... ...<以下省略>
从分词结果里可以发现,有一些固定词语,例如“盗墓笔记”、“老九门”、“二月红”、“张大佛爷”、“齐铁嘴”等书名、人名被分开了。在这篇小说的环境下,这些才成为固定词语,而默认的分词策略根据通常的认识来分词的。
针对这个情况,jieba有一个“用户词典”的机制,把用户认为应该成为整词的,放到词典里,在分词的时遇到它们,就会当作一个整体。
在目录下新建一个文本文件dick.txt,输入以下词语:
老九门
二月红
盗墓笔记
张大佛爷
解九爷
解九
狗五
以下为jieba引入这个词典文件,再做一次分词:
In [7]:
jieba.load_userdict('dict.txt') all_seg = jieba.cut(all_text, cut_all=False) all_word =' ' for seg in all_seg: all_word = all_word + seg + ' ' print(all_word)
《 盗墓笔记 》 中 , 一段 与 二月红 有关 的 故事 。 《 老九门 》 壹 : 二月红 ① 丝帐 许久 没有 换过 了 。 她 半夜 入 不了 眠 , 睁开眼睛 , 便 看到 床边 垂下 的 帐面 , 在 月光 下 看着 有 一死 暗淡 。 原来 可是 丝丝 的 带 着 光亮 , 好像 最白 的 银拉 出来 的 丝 一般 。 果然 再 好 的 东西 , 也 总是 由 好 往坏 了 去 。 以往 一过 立秋 , 她 就 会 亲自 拆 下 这块 帐头 , 亲自 去 漂洗 , 她 知道 这 东西 的 脾气 , 得 小心 伺候 着 , 一寸 一寸 地过 水 。 如今 不让 她 下床 , 这 东西 没 人 伺候 了 , 倒 也 显得 越来越 不值 当 被 这么 细心 对待 起来 。 也许 , 下 一个 立秋 的 时候 , 才 有人 敢动 这个 东西 , 但 那个 人 , 必然 不是 自己 了 。 中午 大夫 和 他 说 的 那些 话 , 虽然 是 在 屋外 , 但是 她 还是 听到 了 几分 , 自己 的 病 , 不 知道 还有 多少 日子 可熬 。 她 舒 了 口气 , 胸中 的 那丝 痛楚 似乎 好 了 一些 。 多少 日子 了 ?
... ...<以下省略>
从这个结果来看,就不会再把人名、书名分开了。
以下开始制作词云。
制作词云,使用的是wordcloud包,由两个参数需要特别注意,一个是字体,一个是背景图片。字体好理解,就不解释了。背景图片,是词云显示的背景形状。这里选用了一个心形图案。
以下是词云制作过程:
In [8]:
# 引入字体 font=r"C:\WINDOWS\Fonts\simhei.ttf" #读取背景图片,生成矩阵 color_mask = imread("love.jpg") # 生成词云对象,设置参数 cloud = wc.WordCloud( font_path=font,#设置字体 background_color="black", #背景颜色 max_words=2000,# 词云显示的最大词数 mask=color_mask,#设置背景图片 max_font_size=100, #字体最大值 random_state=42) # 绘制词云图 mywc = cloud.generate(all_word)
In [9]:
plt.imshow(mywc)
Out[9]:
<matplotlib.image.AxesImage at 0x1ecebf5e588>
In [10]:
# 把词云图保存到磁盘文件中 mywc.to_file('老九门wordcloud.png')
Out[10]:
<wordcloud.wordcloud.WordCloud at 0x1ece4b9bc88>
以上就是使用python进行分词,并绘制词云图的简单操作。对于jieba和wordcloud的更高级的使用方法,还需要进一步研究和学习。
相关文章推荐
- 使用Python下的XSLT API进行web开发的简单教程
- 目前大家对Python都有一个共识,就是他对测试非常有用,自动化测试里Python用途也很广,但是Python到底怎么进行自动化测试呢?今天就简单的向大家介绍一下怎么使用Python进行自动化测试
- [Python Fabric] [SSH] Mac OS X 10.9 + Vagrant虚拟环境使用Python Fabric进行SSH远程登录的简单实验
- python使用socket进行简单网络连接的方法
- 使用python以及工具包进行简单的验证码识别
- 在Python中使用sort()方法进行排序的简单教程
- 使用python进行简单的猜数字游戏(while循环)
- 使用Python+jieba和java+庖丁分词在Spark集群上进行中文分词统计
- [Python笔记] 使用xlrd和xlwt进行简单的excel表格读写操作
- 使用python jieba库进行中文分词
- 简单数据预测—使用Python训练回归模型并进行预测(转自蓝鲸网站分析博客)
- 使用python 的结巴(jieba)库进行中文分词
- 使用Python+jieba和java+庖丁分词在Spark集群上进行中文分词统计
- Python中使用OpenCV库来进行简单的气象学遥感影像计算
- Python 使用pdb进行简单调试
- 【学习笔记】使用Python对文件进行简单操作
- 【转】使用Python中HTTPParser模块进行简单的html解析
- 使用Python进行二进制文件读写的简单方法(推荐)
- 在Python中使用sort()方法进行排序的简单教程
- Python中使用OpenCV库来进行简单的气象学遥感影像计算