您的位置:首页 > 其它

几部电影的词云

2017-11-08 21:52 309 查看

前段时间,我们爬取了几部热门的电影,分别是《三生三世》,《战狼》,《二十二》,我们今天 就以这几部为例,进行一个简单的词云的制作。

我们主要以《二十二》为例,来制作一个评论的词云。

首先需要安装几个必要的工具库:

  • Pandas 用来实现文件读取和存储,以及必要的数据转换。
  • jieba 一个强大的分词工具,用来实现分词,也是我们实现词云的一个最重要的工具。
  • wordcloud 词云工具,用来实现最终的词云的制作,也是必要的工具。

下面我们就开始。

首先需要导入相应的库,并读取我们下载的csv文件。

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt

df_ershier = pd.read_csv('ershier.csv', encoding='utf-8')
df_ershier.comment.fillna(' ')
df_ershier.comment = df_ershier.comment.astype(str)

下面就是实现词云的主要步骤。

import jieba
from wordcloud import WordCloud
import PIL

result = []  # 用来存放切分的词

def parse(raw_text):
for word in jieba.cut(raw_text):  # raw_text是字符串,也就是我们获取到的全部评论信息
if len(word) > 1:
result.append(word)

def wordcloudplot(data, file_name):   # data 是以空格分隔的字符串
path = 'msyh.ttf'
alice_mask = np.array(PIL.Image.open('yuan.jpg'))
stopwords = ['nan', '就是', '还是', '但是', '没有','觉得', '三生三世', '三生', '三世',
'还有', '演员', '怎么', '这么', '电影', '这部']

wordcloud = WordCloud(font_path=path, background_color="white",
margin=5,
width=1000, height=800,
mask=alice_mask, max_words=1000, max_font_size=100,
stopwords = stopwords, random_state=0)

wordcloud = wordcloud.generate(data)
wordcloud.to_file(file_name)
plt.imshow(wordcloud)
plt.axis("off")
plt.show()

下面是执行部分

raw_text = ' '.join(list(df_ershier.comment))
parse(raw_text)
text = ' '.join(result)
wordcloudplot(text, 'ershier_.jpg')

最后生成如下的词云

同样的道理,生成如下的《战狼》,《三生三世》

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: