python+selenium实现自动爬虫的第一步
2018-01-16 14:44
363 查看
首先根据网上各种神帖子配置
下载selenium,我用的谷歌浏览器需要的驱动是chromeDriver,下载我的谷歌浏览器版本号(63)所对应的驱动器版本(2.43好像是zheg).三个步骤
一: 把chromeDriver.exe放到谷歌的目录下,我的如下
二:在我的电脑高级属性里的下半部分点开path,最前边输入C:\Program Files (x86)\Google\Chrome\Application;(注意加'';'')
如果这样就启动的话会出现进不去网页的状况 如下图
所以有三:
在python的界面中复制刚才的chromeDriver.exe
以为这就完了???天真 网上只到这一步.但是我打开画面只有data,并不跳进画面中,并且不提示错误,这个是最恶心的
捣鼓了很久,是代码问题.
错误代码
正确代码
下载selenium,我用的谷歌浏览器需要的驱动是chromeDriver,下载我的谷歌浏览器版本号(63)所对应的驱动器版本(2.43好像是zheg).三个步骤
一: 把chromeDriver.exe放到谷歌的目录下,我的如下
二:在我的电脑高级属性里的下半部分点开path,最前边输入C:\Program Files (x86)\Google\Chrome\Application;(注意加'';'')
如果这样就启动的话会出现进不去网页的状况 如下图
所以有三:
在python的界面中复制刚才的chromeDriver.exe
以为这就完了???天真 网上只到这一步.但是我打开画面只有data,并不跳进画面中,并且不提示错误,这个是最恶心的
捣鼓了很久,是代码问题.
错误代码
brower = webdriver.Chrome() def search(): browser.get('http://www.baidu.com')
正确代码
# coding:utf-8 from selenium import webdriver # 加启动配置 option = webdriver.ChromeOptions() option.add_argument('disable-infobars') # 打开chrome浏览器 driver = webdriver.Chrome(chrome_options=option) driver.get("https://www.taobao.com") print(driver.title)
相关文章推荐
- Python爬虫实战三之实现山东大学无线网络掉线自动重连
- 【转】【Python】Python3爬虫实现自动登录、签到
- [Python爬虫] Selenium实现自动登录163邮箱和Locating Elements介绍
- [Python爬虫] Selenium自动访问Firefox和Chrome并实现搜索截图
- [Python爬虫] Selenium自动访问Firefox和Chrome并实现搜索截图
- 第三百六十八节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)用Django实现搜索的自动补全功能
- python3的爬虫算法(3) 实现自动登陆,签到
- python爬虫日志(13)selenium实现淘宝自动翻页以及在新的标签页中打开网页
- Python爬虫实现百度图片自动下载
- [Python爬虫] Selenium实现自动登录163邮箱和Locating Elements介绍
- python简易爬虫来实现自动图片下载
- Python+selenium实现自动循环扔QQ邮箱漂流瓶
- 如何用Python爬虫实现百度图片自动下载?
- Python爬虫 Selenium实现自动登录163邮箱和Locating Elements介绍
- Python爬虫实现自动登录、签到
- 豆瓣机器人 自动加入/退出小组、自动在小组发帖/删帖、自动回复 Python实现代码 豆瓣爬虫
- python爬虫_实现校园网自动重连脚本的教程
- Editplus借助python实现根据方法参数自动生成php注释
- python实现自动监测目标网站的爬取速度_以及整体网络环境分析
- 简单的网络爬虫的python实现