[爬虫入门]BeautifulSoup获取标外内容
2018-02-16 14:27
225 查看
写完后再看了下正则,发现有个简单的方法可以获取,只需替换第4步
name_pat = '(<div class="info1">)(.+)(</div>)'
#将div分为三组,中间的第二组即为想要的内容
name_re = re.match(name_pat,str(name_tag))
if name_re is not None:
print name_re.group(2)
-------------------------------------------------------------------------------------------------------------------------------------------------
前几天入门开始学爬虫,把图爬下来了可是图片的名字不在标签内不会如何获取,看百度说用正则
无奈之前没学过就放着了。今天学了正则想来试试,发现虽然tag无法直接切片,但是可以用内建函数
str()转换成字符串再切片,虽然感觉这方法有点呆,不过也达到了目的,等正则学好了再试试正则的方法。
例子:<div class ="cla22">
<form>
<div class="info1">张三</div>
</form>
</div>
1.先获取网页htmlsoup = BeautifulSoup(content, "html5lib") 2.使用find找到包含对应class、id的tag
name_pat = '(<div class="info1">)(.+)(</div>)'
#将div分为三组,中间的第二组即为想要的内容
name_re = re.match(name_pat,str(name_tag))
if name_re is not None:
print name_re.group(2)
-------------------------------------------------------------------------------------------------------------------------------------------------
前几天入门开始学爬虫,把图爬下来了可是图片的名字不在标签内不会如何获取,看百度说用正则
无奈之前没学过就放着了。今天学了正则想来试试,发现虽然tag无法直接切片,但是可以用内建函数
str()转换成字符串再切片,虽然感觉这方法有点呆,不过也达到了目的,等正则学好了再试试正则的方法。
例子:<div class ="cla22">
<form>
<div class="info1">张三</div>
</form>
</div>
1.先获取网页htmlsoup = BeautifulSoup(content, "html5lib") 2.使用find找到包含对应class、id的tag
div_tag = soup.find('div',class_='cla22')3.可以直接先print打印div_tag的内容
print(div_tag)4.下面开始提取div外的内容
name_tag = div_tag.find('div',class_='info1') name = str(name_tag)[19:-6] #名字从第19位开始,去掉后面多余的6个字符
相关文章推荐
- Java爬虫入门(一):单机单程序单线程-手动输入url获取新闻内容
- Python爬虫实战入门五:获取JS动态内容—爬取今日头条
- 爬虫学习之第一次获取网页内容及BeautifulSoup处理
- Python爬虫实战入门五:获取JS动态内容—爬取今日头条
- delphi 入门之《获取网页的内容》
- scrapy爬虫获取网页特定内容
- Python爬虫入门案例:获取百词斩已学单词列表
- php利用simple_html_dom类,获取页面内容,充当爬虫角色
- 基于apache —HttpClient的小爬虫获取网页内容
- Python 爬虫模块 bs4 实战一:获取百度贴吧内容
- Python 爬虫 —— 获取js渲染的内容
- Python爬虫入门之一(获取页面响应)
- [Java]使用爬虫来获取知乎的推荐内容标题
- Python_BeautifulSoup 抓取网页内容入门
- 爬虫入门三(获取各国网址,三种网页抓取方法,下载缓存)
- python 爬虫如何获取js里面的内容
- beautifulsoup通过id获取指定元素内容
- [Java]知乎下巴第2集:使用爬虫来获取知乎的编辑推荐内容
- Python入门:请重新输入并获取最新的一次输入的内容
- 爬虫 Http请求,urllib2获取数据,第三方库requests获取数据,BeautifulSoup处理数据,使用Chrome浏览器开发者工具显示检查网页源代码,json模块的dumps,loads,dump,load方法介绍