Python爬虫:通过关键字爬取百度图片
使用工具:Python2.7 点我下载
scrapy框架
sublime text3
一。搭建python(Windows版本)
1.安装python2.7 ---然后在cmd当中输入python,界面如下则安装成功
2.集成Scrapy框架----输入命令行:pip install Scrapy
安装成功界面如下:
失败的情况很多,举例一种:
解决方案:
其余错误可百度搜索。
二。开始编程。
1.爬取无反爬虫措施的静态网站。例如百度贴吧,豆瓣读书。
例如-《桌面吧》的一个帖子https://tieba.baidu.com/p/2460150866?red_tag=3569129009
python代码如下:
代码注释:引入了两个模块urllib,re。定义两个函数,第一个函数是获取整个目标网页数据,第二个函数是在目标网页中获取目标图片,遍历网页,并且给获取的图片按照0开始排序。
注:re模块知识点:
爬取图片效果图:
图片保存路径默认在建立的.py同目录文件下。
2.爬取有反爬虫措施的百度图片。如百度图片等。
例如关键字搜索“表情包”https://image.baidu.com/search/index?tn=baiduimage&ct=201326592&lm=-1&cl=2&ie=gbk&word=%B1%ED%C7%E9%B0%FC&fr=ala&ori_query=%E8%A1%A8%E6%83%85%E5%8C%85&ala=0&alatpl=sp&pos=0&hs=2&xthttps=111111
图片采用滚动式加载,先爬取最优先的30张。
代码如下:
代码注释:导入4个模块,os模块用于指定保存路径。前两个函数同上。第三个函数使用了if语句,并tryException异常。
爬取过程如下:
爬取结果:
注:编写python代码注重对齐,and不能混用Tab和空格,易报错。
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,同时也希望多多支持脚本之家!
您可能感兴趣的文章:
- 关于Python爬虫之获取海量表情包+存入数据库+搭建网站通过关键字查询表情包
- 使用PYTHON3写了一个简单爬虫, 通过公司代理爬取ppt素材
- 简单的抓取淘宝关键字信息、图片的Python爬虫|Python3中级玩家:淘宝天猫商品搜索爬虫自动化工具(第二篇)
- 第一个python爬虫,爬取百度图片
- python爬虫学习(一)通过urllib2模块获取html,设置用户代理
- 通过Python爬虫代理IP快速增加博客阅读量
- python爬虫 根据关键字在新浪网站查询跟关键字有关的新闻条数(按照时间查询)
- python学习(7):python爬虫之爬取动态加载的图片,以百度图片为例
- Python 网络爬虫 009 (编程) 通过正则表达式来获取一个网页中的所有的URL链接,并下载这些URL链接的源代码
- Python 网络爬虫 009 (编程) 通过正则表达式来获取一个网页中的所有的URL链接,并下载这些URL链接的源代码
- python爬虫(3)五种方法通过黑板客第一关
- 百度图片爬虫-python版-如何爬取百度图片?
- 通过“生产者-消费者模型”理解Python协程和yield关键字
- 百度图片爬虫-python语言
- 通过网络图片小爬虫对比Python中单线程与多线(进)程的效率
- python爬虫(抓取百度图片)
- 百度图片爬虫-python版-如何爬取百度图片?
- 通过Python爬虫爬取知乎某个问题下的图片
- Python爬虫爬取百度图片
- python爬虫(4)四种方法通过黑板客第二关