[翻译]<Web Scraping with Python>Chapter 1.你的第一个网络爬虫
2017-02-18 21:02
656 查看
Chapter 1. 你的第一个网络爬虫
本章主要是关于不用浏览器获取数据。从一个最基本的向服务器发送Get请求一个页面开始,读取页面的HTML输出,简单的数据抽取来分离出我们想找寻的数据。本章及下一章则是连续的讲解不使用浏览器格式化和解析数据。我们来看一个例子:
Alice有个web服务器,Bob用台式机去链接Alice的服务器。整个交换过程大概是这样的:
1. Bob的机器发送一条1/0(常用高低电平来代表)组成的数据流。这条数据流是信息的比特格式,含有header和body. Header含有一个Bob所在网络的路由器的MAC直接地址,还含有Alice的最终IP地址。Body含有对Alice服务器的请求。
2. Bob本地的路由器将这条1/0组成的比特流视为从Bob的MAC地址来的,去往Alice IP地址的数据包。路由器将这个数据包封装一下,将路由器它自己的IP地址作为源地址发送给Internet。
3. Bob的数据通过数个中间服务器,这些中间服务器都将上一个来的数据包封装好,将中间服务器自己的IP地址作为源地址,Alice的IP地址作为目的地址发给下一个中间服务器。
4. 直到Alice的服务器收到这个数据包。
5. Alice的服务器读取数据包的Header中的端口地址(端口地址几乎总是80,就如同门牌号一般,而Alice的IP地址就如同街道地址),将其传给对应的程序(这里的对等进程就是Web程序)。
6. Web服务器程序从服务处理器接受了一条数据流,这些数据包括:
- 这是一个GET请求
- 以下文件被请求:index.html
7.Web服务器加载正确的HTML文件,将其打成新的数据包发送给Bob,同样是通过本地路由、网络中间服务器的方式传递给Bob的机器。
Web浏览器就是这样一个非常有用的程序,可以很方便的打包信息、发送数据包和解释所返回给你的包括图像、声音、视频和文字等数据。然而,web浏览器其实就仅仅是代码。既然是代码就可以被分割成基本的组件,被重写和重用,以及用来做任何我们需要完成的工作。
这里有一个scrapetest.py的例子,这个例子可以获取完整的HTML的代码。但是这个例子使用的是静态网页,和我们现在看到的动态网页有一些差别,比如动态网页含有:图像文件、JavaScript文件、CSS文件以及网页上的任何链接。如果含有<
imgsrc=”cuteKitten.jpg”>, 浏览器会自动去再发送关于图片的请求。需要注意,这个python代码还没有逻辑去处理回溯和获取多个文件,而只能获取我们请求的单一HTML文件:
from urllib.request import urlopen html = urlopen("http://pythonscraping.com/pages/page1.html") print(html.read())
python2.x中的urllib2在python3.x中被重命名为urllib(urllib是个标准库)并且分为几个子模块,但是函数名基本还是保持一致的。
- urllib.request for opening and reading URLs
- urllib.error containing the exceptions raised by urllib.request
- urllib.parse for parsing URLs
- urllib.robotparser for parsing robots.txt files
BeautifulSoup库是以Alice梦游仙境中的场景命名的,这个库可以格式化和重组修复html的混乱信息,并且以一种易于遍历的XML结构展示出来。
代码示例:
from urllib.request import urlopen from bs4 import BeautifulSoup html = urlopen("http://pythonscraping.com/pages/page1.html") # print(html.read()) # 注意这里容易出错,html read()一次后再次read()就为空 # print("--------") bsObj = BeautifulSoup(html.read(),"lxml") print(bsObj) print(bsObj.h1)
BeautifulSoup将HTML格式转化成如下结构:
html-><html><head>...</head><body>...</body></html> head-><head><title>A Useful Page</title></head> title-><title>A Useful Page</title> <body>-><body><h1>...</h1><div>...</div></body> h1-><h1>An Interesting Title</h1> div-><div>Lorem ipsum dolor sit amet...</div>
如下的调用得到相同的结果:
print(bsObj.h1)
print(bsObj.html.body.h1)
print(bsObj.html.h1)
print(bsObj.body.h1)
结果:
<h1>An Interesting Title</h1>
在第三章,我们将会用正则表达式结合BeautifulSoup来从HTML中提取信息。
连接可靠性和异常处理
网络上的数据可能存在格式错误,网站/网页不可用,标记确实等各种混乱情况。所以即使你很想诅咒网站开发人员,但是首要的是自己将异常处理考虑进去。写爬虫的时候,很重要的是将所有的情形都考虑进去,这样代码可以很好的处理异常也很容易供开发者阅读。你可能以很喜欢大量重用代码,所以将它们写成通用的函数会使得爬虫更容易,而且也更可靠。本章最后,代码可能以如下方式呈现:from urllib.request import urlopen from urllib.error import * from bs4 import BeautifulSoup def getTitle(url): try: html = urlopen(url) except (HTTPError, URLError) as e: return None try: bsObj = BeautifulSoup(html.read(),"lxml") title=bsObj.body.h1 except AttributeError as e: return None return title title = getTitle("http://pythonscraping.com/pages/page1.html") if title is None: print("Title could not be found.") else: print(title)
相关文章推荐
- [翻译]<Web Scraping with Python>Chapter 3.开始爬行吧
- [翻译]<Web Scraping with Python>Chapter 2.高级HTML解析
- [翻译]<Web Scraping with Python>Chapter 0.前言
- 网络爬虫 HTML的高级解析 <web scraping with python>第二章
- <<python computer vision with opencv>> chapter 2
- Python <Windows 使用Django 搭建第一个web项目 1>
- Python <Windows 使用Django 搭建第一个web项目 2>
- Web Scraping with Python
- <译>Selenium Python Bindings 6 - WebDriver API
- Web.xml配置<taglib>标签报错问题(cvc-complex-type.2.4.a: Invalid content was found starting with element 'tag
- Animated progress view with CAGradientLayer(带翻译)<待更新>
- 《Web Scraping with Python》读书笔记
- Web Scraping with Python 学习笔记9
- Web Scraping with Python读书笔记及思考
- 《web scraping with python》笔记--穿越网页表单与登录窗口进行采集
- 首部讲Python爬虫电子书 Web Scraping with Python
- 基于Flask框架的Python web程序的开发实战 <二> 项目组织结构
- Web Scraping with Python 学习笔记7
- 基于Flask框架的Python web程序的开发实战 <一> 环境搭建
- Web Scraping with Python 学习笔记8