【python】获取指定网页上的所有超级链接
2016-09-08 15:59
471 查看
# -*- coding: utf-8 -*- import urllib2 import re #connect to a URL website = urllib2.urlopen("http://www.baidu.com") #read html code html = website.read() #use re.findall to get all the links links = re.findall('"((http|ftp)s?://.*?)"', html) ###".*?"任意匹配 print links
相关文章推荐
- python获取网页上所有链接
- python 抓去指定网页以及该网页上所有链接
- Python 网络爬虫 009 (编程) 通过正则表达式来获取一个网页中的所有的URL链接,并下载这些URL链接的源代码
- python获取指定网页上所有超链接的方法
- Python 网络爬虫 009 (编程) 通过正则表达式来获取一个网页中的所有的URL链接,并下载这些URL链接的源代码
- python获取网页中所有图片并筛选指定分辨率
- python获取网页中所有图片并筛选指定分辨率的方法
- python获取网页所有链接
- 获取网页中的所有超级链接(爬虫专用)
- 获取网页链接中指定参数的值
- C#获取远程网页中的所有链接URL(网络蜘蛛实现原理)
- C#获取远程网页中的所有链接URL
- 手动获取网页上的指定链接地址
- python获取CSDN个人收藏的文章链接和标题,然后发送到指定邮件
- selenium 获取网页所有链接
- C#获取远程网页中的所有链接URL
- python实现批量获取指定文件夹下的所有文件的厂商信息
- python中获取指定目录下所有文件名列表的程序
- python_批量获取指定文件夹下的所有文件的厂商信息
- C#获取远程网页中的所有链接URL(网络蜘蛛实现原理)