Python(四)IP代理
一、
import urllib2
if __name__ == '__main__' :
url = 'http://www.baidu.com'
proxy = {'http':'124.235.181.175:80'}
proxy_support = urllib2.ProxyHandler(proxy)
opener = urllib2.build_opener(proxy_support)
opener.addheaders = [('User-Agent','Mozilla/5.0 (Linux; Android 4.0.4; Galaxy Nexus Build/IMM76B) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.133 Mobile Safari/535.19')]
urllib2.install_opener(opener) # 用install_opener将配置好的opener安装到全局环境中,这样所有的urllib2.urlopen都会自动使用代理
response = urllib2.urlopen(url)
html = response.read().decode('GBK')
print html
二、
import urllib2
if __name__ == '__main__' :
url = 'http://www.baidu.com'
proxy = {'http':'124.235.181.175:80'}
proxy_handler = urllib2.ProxyHandler(proxy)
opener = urllib2.build_opener(proxy_handler)
req = opener.open(url) # 只有使用opener.open()方法发送请求才使用自定义的代理,而urlopen()则不使用自定义代理
html = req.read().decode('utf-8')
print html
三、
import urllib2
import random
if __name__ == '__main__' :
url = 'http://www.baidu.com/'
proxy_list = [
{'http' : '124.88.67.81:80'},
{'http' : '124.235.181.175:80'},
{'http' : '123.53.134.254:8010'},
{'http' : '61.135.217.7:80'},
{'http' : '116.77.204.2:80'}
]
proxy = random.choice(proxy_list) # 随机选择一个代理
proxy_handler = urllib2.ProxyHandler(proxy) # 使用选择的代理构建代理处理器对象
opener = urllib2.build_opener(proxy_handler)
opener.addheaders = [('User-Agent','Mozilla/5.0 (Linux; Android 4.0.4; Galaxy Nexus Build/IMM76B) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.133 Mobile Safari/535.19')]
urllib2.install_opener(opener)
req = urllib2.Request(url)
response = urllib2.urlopen(req)
html = response.read().decode('utf-8')
print html
- Python2.*爬虫获取免费有效IP代理
- scrapy怎么设置带有密码的代理ip base64.encodestring不能用 python3.5,base64库里面的encodestring()被换成了什么?
- python3爬虫伪装代理IP
- 通过Python爬虫代理IP快速增加博客阅读量
- Python采集代理ip并判断是否可用和定时更新
- 【Python3.6爬虫学习记录】(十一)使用代理IP及用多线程测试IP可用性--刷访问量
- python requests 测试代理ip是否生效
- python使用代理ip访问网站的实例
- Python 抓取可用代理IP
- Python3 爬虫使用User Agent和代理IP隐藏身份
- 我用Python写自动刷代理服务IP的经过
- Python爬取西刺国内高匿代理ip并验证
- Python 设置 IP 代理 访问网页 ( 用户名密码验证代理 )
- 使用python验证代理ip是否可用的实现方法
- python 网络爬虫——请求头,ip代理
- python3实现网络爬虫(7)-- 使用ip代理抓取网页
- Python爬虫常用小技巧之设置代理IP
- python获取代理IP
- python扫描proxy并获取可用代理ip的实例
- Python http请求(读取代理ip列表)