您的位置:首页 > 编程语言 > Python开发

Python简易爬虫以及嵌套数据类型

2015-04-07 13:07 471 查看
一:起因

(0)爬虫就是网络蜘蛛,爬取指定URL的html网页的内容,所以会需要urllib2包,字符串string的操作肯定也是需要的,以及字符串匹配包re。

(1)Python的嵌套类型,一般在基础教程里面很少涉及到的;Python的更高级应用肯定会涉及的,只是个人能力有限,如今没有深入,期待不就将来接触学习一下。

(2)说起嵌套类型,这要从Java 或则 c++的嵌套类型说起,只要你处理数据,增删该查一般都会涉及到嵌套类型,原来的语言中涉及到,自然而然的想到了Python肯定也可以应用嵌套类型。

(3)下面简单的通过实例介绍一下嵌套类型,结合之前的blog,就基本上可以处理文本数据了。

二:代码实战

(1)Python字典嵌套(就是hash嵌套) 以及 list(列表)嵌套类型的示例



[python] view
plaincopy





import itertools  

#encoding = utf-8  

#!/user/bin/python  

  

print "**********test multi_dic_hash (hashtable order by key automatic)********"  

data = {1: {1:'a',2:'b',3:'c'}, 2: {4:'d',5:'e',6:'f'}};  

print data;  

del data[2][4];  

print data;  

data[2][5] = 'w';  

print data;  

  

tjudata = {"cs":{"091":32,"093":34,"092":35},"ccs":{"081":32,"083":34,"082":35},"is":{"071":32,"073":34,"072":35}};  

print tjudata;  

#删除  

del tjudata["cs"]["091"];  

print tjudata;  

#更改 添加  

tjudata["cs"]["091"] = 85;  

tjudata["cs"]["092"] = 101;  

#遍历  

s_keys = tjudata.keys();  

for s_key in s_keys:  

    print s_key,":";  

    s_data = tjudata.get(s_key);  

    #print s_key,"-->",s_data;  

    c_keys = s_data.keys();  

    for c_key in c_keys:  

        c_value = s_data.get(c_key);  

        print c_key,"-->",c_value;  

  

print "**********test multi_list (hashtable order by key automatic)********"  

#当里面的lst_one第一项字母相等时,就把第二项颜色拼接在一起。即最终实现[['A','黄绿白'],['B','黄'],['C','紫蓝']...]  

lst_all = [['A','Blue'],['A','Green'],['A','Yellow'],['B','Red'],['C','Red'],['C','White']];  

collector = [];  

for k, lstgroup in itertools.groupby(sorted(lst_all), lambda x: x[0]):  

    collector.append([k, ','.join([c[1] for c in lstgroup])]);  

print collector;  

#删除  

print lst_all;del lst_all[0][0];  

print lst_all;  

#更改 添加  

lst = lst_all[0];  

lst.insert(0,'D');  

#lst_all.insert[0][0] = 'D';  

lst_all[1][1] = 'RDS';  

#遍历  

for lst in lst_all:  

    for ele in lst:  

        print ele;  

(2)简单的网络爬虫

[python] view
plaincopy





#coding=utf-8  

import urllib  

  

def getHtml(url):  

    page = urllib.urlopen(url)  

    html = page.read()  

    return html  

  

html = getHtml("https://www.baidu.com/")  

  

print html  

(3)urllib*简介 转载自 http://www.cnblogs.com/yuxc/archive/2011/08/01/2123995.html

1). urllib:

官网的一句话描述是:通过url打开任意资源。从官网的简介来看,这个模块最初是模拟文件模块来实现的,只是将本地的文件路径,改为远程的互联网url。常用操作有:

urlopen(url, [,data])——根据url打开一个网页,根据参数区分post或者get

urlretrieve()——将指定url的网页内容复制一份到指定的本地文件

quote()——将url中的特殊字符或汉字encode成指定编码

unquote()——将url中的url编码解码

详情参看:http://docs.python.org/2/library/urllib.html

2). urllib2:

官网的一句话描述很笼统:打开url的拓展库。主要是说,对url打开的一些更复杂的操作,如操作相关的一些认证、重定向和cookie等等。这样来看,更印证了urllib模块是模拟文件操作实现的思路。因为这些“复杂操作”是打开url独有的,文件操作确实不存在的。urllib2中没有quote和unquote的操作,这个只在urllib中有;同时也没有了urlretrieve。常见的操作:

urlopen(url,[,data],[,timeout])——增加了请求响应的超时时间,在urllib中需要借助socket模块来实现,这里更方便了,登场率也就更高了

Request.* ——添加了对Request的支持;也可以方便的操作Header里面的东西了

详情参看:http://docs.python.org/2/library/urllib2.html

3). urllib3:

首先,这个不是一个标准库,是一个拓展库。该模块的介绍重点说它的作用:提供了urllib和urllib2中没有的连接池和文件的post功能。由于不是标准库,因此,需要单独下载和安装,地址参看:https://pypi.python.org/pypi/urllib3。虽然他是针对python2.*版本中的urllib和urllib2的遗漏功能启动的项目,但现在也同样支持python3.3中的开发。由于个人尚无python3的使用经验,也就不多说什么了。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: