几部电影的词云
2017-11-08 21:52
309 查看
前段时间,我们爬取了几部热门的电影,分别是《三生三世》,《战狼》,《二十二》,我们今天 就以这几部为例,进行一个简单的词云的制作。
我们主要以《二十二》为例,来制作一个评论的词云。
首先需要安装几个必要的工具库:
- Pandas 用来实现文件读取和存储,以及必要的数据转换。
- jieba 一个强大的分词工具,用来实现分词,也是我们实现词云的一个最重要的工具。
- wordcloud 词云工具,用来实现最终的词云的制作,也是必要的工具。
下面我们就开始。
首先需要导入相应的库,并读取我们下载的csv文件。
import pandas as pd import numpy as np import matplotlib.pyplot as plt df_ershier = pd.read_csv('ershier.csv', encoding='utf-8') df_ershier.comment.fillna(' ') df_ershier.comment = df_ershier.comment.astype(str)
下面就是实现词云的主要步骤。
import jieba from wordcloud import WordCloud import PIL result = [] # 用来存放切分的词 def parse(raw_text): for word in jieba.cut(raw_text): # raw_text是字符串,也就是我们获取到的全部评论信息 if len(word) > 1: result.append(word) def wordcloudplot(data, file_name): # data 是以空格分隔的字符串 path = 'msyh.ttf' alice_mask = np.array(PIL.Image.open('yuan.jpg')) stopwords = ['nan', '就是', '还是', '但是', '没有','觉得', '三生三世', '三生', '三世', '还有', '演员', '怎么', '这么', '电影', '这部'] wordcloud = WordCloud(font_path=path, background_color="white", margin=5, width=1000, height=800, mask=alice_mask, max_words=1000, max_font_size=100, stopwords = stopwords, random_state=0) wordcloud = wordcloud.generate(data) wordcloud.to_file(file_name) plt.imshow(wordcloud) plt.axis("off") plt.show()
下面是执行部分
raw_text = ' '.join(list(df_ershier.comment)) parse(raw_text) text = ' '.join(result) wordcloudplot(text, 'ershier_.jpg')
最后生成如下的词云
同样的道理,生成如下的《战狼》,《三生三世》