scrapy采集数据时为每个请求随机分配user-agent
2014-03-19 17:09
483 查看
通过这个方法可以每次请求更换不同的user-agent,防止网站根据user-agent屏蔽scrapy的蜘蛛
首先将下面的代码添加到settings.py文件,替换默认的user-agent处理模块
自定义useragent处理模块
view
source
print?
首先将下面的代码添加到settings.py文件,替换默认的user-agent处理模块
DOWNLOADER_MIDDLEWARES = { |
'scraper.random_user_agent.RandomUserAgentMiddleware' : 400 , |
'scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware' : None , |
} |
view
source
from scraper.settings import USER_AGENT_LIST |
import random |
from scrapy import log |
class RandomUserAgentMiddleware( object ): |
def process_request( self , |
ua = random.choice(USER_AGENT_LIST) |
if ua: |
request.headers.setdefault( 'User-Agent' , ua) |
#log.msg('>>>> |
#该代码片段来自于: |
相关文章推荐
- Python使用scrapy采集数据时为每个请求随机分配user-agent的方法
- scrapy在采集网页时使用随机user-agent的方法
- Scrapy在采集网页时使用随机user-agent
- Scrapy增加随机请求头user_agent
- Scrapy 增加随机请求头 user_agent
- scrapy在爬取网页时使用随机user-agent方法
- scrapy进阶:防ban策略之随机user-agent,from_crawler等小技巧
- Scrapy 通过中间件实现随机User-Agent
- Scrapy学习篇(十一)之设置随机User-Agent
- 在scrapy简单使用代理池和随机的User-Agent
- python scrapy 之 随机选择user-agent
- Python爬虫从入门到放弃(二十三)之 Scrapy的中间件Downloader Middleware实现User-Agent随机切换
- scrapy,添加随机代理ip和user-agent
- scrapy_随机user-agent
- 第三百四十七节,Python分布式爬虫打造搜索引擎Scrapy精讲—通过downloadmiddleware中间件全局随机更换user-agent浏览器用户代理
- scrapy随机更改User-Agent方法
- Scrapy请求对象参数 & 给callback函数传附加数据 & Form请求 & Scrapy Resonse对象
- 使用ScrapySharp快速从网页中采集数据
- Python使用scrapy采集数据过程中放回下载过大页面的方法
- Scrapy爬虫框架之使用第三方库fake_useragent实现随机请求头