python 代理池
2016-07-13 17:18
197 查看
#coding=utf-8 import requests import re import Queue import MySQLdb import gevent from gevent.threadpool import ThreadPool #def conn_sql(): #conn=MySQLdb.connect( #host='localhost', #port=3306, #user='root', #passwd='1234', # db='zhihu', # charset='uft8' # ) #cur=conn.cursor() # return conn,cur def get_ip(text): '''针对西刺代理网页编码建立的规则,此规则只爬取HTTPS类型的代理地址。返回的格式 (ip,端口)''' rex=r'''<td class="country"><img src=.*?/></td>\s*?<td>(.*?)</td>\s*?<td>(.*?)</td>\s*?<td>\s*.*\s*</td>\s*?.*\s*?<td>HTTPS</td>''' ip=re.findall(rex,text) return ip url=[ 'http://www.xicidaili.com/nn/1', 'http://www.xicidaili.com/nn/2', 'http://www.xicidaili.com/nt/1', 'http://www.xicidaili.com/nt/2', 'http://www.xicidaili.com/wn/1', 'http://www.xicidaili.com/wn/2', 'http://www.xicidaili.com/wt/1', 'http://www.xicidaili.com/wt/2', ] ##爬取西刺代理各分类前两页 def create_pool(url): '''创建代理池,说白了就是代理列表.起初是打算用队列的,后来考虑到要验证每个代理,取出还要再插回去麻烦''' headers={ 'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Accept-Language':'zh-CN,zh;q=0.8', 'Cache-Control':'max-age=0', 'Connection':'keep-alive', 'Cookie':'_free_proxy_session=BAh7B0kiD3Nlc3Npb25faWQGOgZFVEkiJWIxYjAwZDkxMDE1NWRiYjAwMTBjZTFjZGY3YjJjMjE4BjsAVEkiEF9jc3JmX3Rva2VuBjsARkkiMXE5aGt6cDdPU2tyajI4RjB2dENmZS9aT0RMTDVTK1R2d1hTMDVjUGYxT0E9BjsARg%3D%3D--a913aa7825c13fec2fdfd583519c69b3345ab87b; CNZZDATA1256960793=284076470-1468134027-null%7C1468307148', 'DNT':'1', 'Host':'www.xicidaili.com', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.75 Safari/537.36' } ##自定义头,找个浏览器开发者模式复制一下 data=[] #用来存储抓取的原始数据 proxy_pool=[] #初始化代理列表 #p={'http':'81.139.247.236:80'} ##p是一个http代理,有时爬多了西刺代理就禁止访问了 ###用代理去爬代理挺那啥的。。所以后面实际使用中可视网站更新状况自定义轮询代理网站的时间 for i in url: r=requests.get(i,headers=headers)#如果用代理把代理加进去 text=r.text print r.status_code ip=get_ip(text) data.extend(ip) #用extend是为了格式上方便,方便遍历 for i in data: ip=i[0]+':'+i[1] #组合ip+port proxy_pool.append(ip) #存在表里 return proxy_pool def test_proxy(ip,proxy_pool,headers): '''测试代理是否可用,免费的代理挺不稳定的。使用率较低''' try: r=requests.get('https://www.zhihu.com',proxies={'https':ip},headers=headers) status=r.status_code print if status==200: print ip,'200' #主要根据返回的状态码判断 except: proxy_pool.remove(ip) #这一步是抛弃队列用列表列表的直接原因 #就感觉很省事。另外也可以避免参数在多个函数间传递的问题 pass return proxy_pool headers={ 'Accept':'text/html, application/xhtml+xml, image/jxr, */*', 'Accept-Language':'zh-CN', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko', 'Host':'www.zhihu.com', 'Connection':'Keep-Alive', 'Cookie':'n_c=1; __utmc=51854390; q_c1=6879d12c58854a25a7baa63bd647c17f|1468227004000|1468227004000; l_cap_id="NmIzZDAxM2IyNDA4NDUxYmFiYzRhZjBhYjBiZGIxMGM=|1468227004|d39c2d05c63f5a30ac21b24beb6a48e0648c70bb"; cap_id="OWUyMGVhNTAxNjExNDQ5YWE2M2EyODkwYjdkOWNjOGQ=|1468227004|76ebb55701b78072ac6a2ee080d5f0c5dadc292b"; d_c0="AJBAWDZdNgqPTlKnUijCIex0WCt8K2FtfhM=|1468227005"; _zap=884bd241-ddd0-430a-b8ab-97a026efabd0; __utma=51854390.2013250603.1468227006.1468227006.1468227006.1; __utmb=51854390.11.9.1468227042707; __utmz=51854390.1468227006.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utmv=51854390.000--|3=entry_date=20160711=1; __utmt=1; _xsrf=179e610b488529dd83ffbfb4bc6a6beb; _za=fa119adb-56a9-4213-a9bc-438a300afd85', } #定义一个访问知乎的头 def multi_thread_test(proxy_pool): '''上面那个测试可以直接用但时间太长了。所以用并发来解决。不过总体时间还是挺长的''' n=len(proxy_pool) pool=ThreadPool(n) #最大的线程数等于代理总数,这样就可以所有代理同时跑 for ip in proxy_pool: pool.spawn(test_proxy,ip,proxy_pool,headers) gevent.wait() return proxy_pool def test(): '''测试结果''' from time import * t1=time() proxy_pool=create_pool(url) proxy_pool=multi_thread_test(proxy_pool) print proxy_pool t2=time() print t2-t1 test()
准备是用来爬知乎的,所以测试网站用的是知乎而不是一些ip查询站点。对于这测试点我觉得你要用在哪就用哪个网站测试比较好。
代码在2.7x上课直接运行。对于整体结构性没怎么在意。。
其实一直想考虑写个calss 来结构化一下。。但感觉不到必要性。。。
相关文章推荐
- Python动态类型的学习---引用的理解
- Python3写爬虫(四)多线程实现数据爬取
- 垃圾邮件过滤器 python简单实现
- 下载并遍历 names.txt 文件,输出长度最长的回文人名。
- install and upgrade scrapy
- Scrapy的架构介绍
- Centos6 编译安装Python
- 使用Python生成Excel格式的图片
- 让Python文件也可以当bat文件运行
- [Python]推算数独
- 爬虫笔记
- Python中zip()函数用法举例
- Python中map()函数浅析
- Python将excel导入到mysql中
- Python在CAM软件Genesis2000中的应用
- 使用Shiboken为C++和Qt库创建Python绑定
- python爬虫1