您的位置:首页 > 产品设计 > UI/UE

2.2 urllib和requests库书写代码以及完整豆瓣当页影评爬取代码

2018-01-31 01:07 375 查看
import urllib.request
#导入urllib.request包和库

f = urllib.request.urlopen('http://www.baidu.com')
#打开网址,返回一个类文件对象

f.read(500)
#打印前500字符

print(f.read(500).decode('utf-8'))
#打印前500字符,并修改编码为utf-8

import requests #导入requests库

r1 = requests.get('http://www.baidu.com') #使用requests.get方法获取网页信息
r1.encoding='utf-8' #修改编码
print(r1.text) #打印结果

完整豆瓣当页影评爬取代码

import requests
import pandas as pd
from bs4 import BeautifulSoup

url = requests.get('https://movie.douban.com/subject/6874741/comments?status=P').text

soup = BeautifulSoup(url,'lxml') #网页解析,用的lxml解析
pattern = soup.find_all('p','') #p标签加引号,class属性为comment
for item in pattern:  #循环打印所有评论
print(item.string)

#pandas存储数据
comments = [] #创建空list
for item in pattern:
comments.append(item.string) #循环存入list中
df = pd.DataFrame(comments) #列表循环以pandas dataframe格式存入
df.to_csv('comments.csv') #再存入csv中
#提示:报存csv时原来的csv不能同时打开不然报错

代码运行结果示例:
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐