Python - 刷博客浏览数
2015-10-05 17:53
399 查看
今天我新发表了两篇博文,然后发现才发表没几分钟阅读数就非零了。原来自己通过目录链接打开也是被统计的。今天刚学了Requests几个简单的方法,就尝试了一下可不可以通过请求的方式刷阅读量,还真是可以,哈哈哈,对于一个菜鸟感觉小有成就,在这里记录一下
requests包不在标准库了,所以要在cmd里运行pip install requests就会联网下载安装。安装后运行pip show requests查看包信息。
一开始没有加User-Agent并没有刷成功,后来用chrome打开连接然后通过开发工具查看请求的头,尝试后发现只要有User-Agent(也就是模拟浏览器)就可以刷成功
本来还想用BeautifulSoup通过解析xml的方式把目录里面的url提取出来批量刷,但是以前防御遇到过解释中文编码有问题导致解释不成功的问题,上次没解决,这次就不折腾了。
requests包不在标准库了,所以要在cmd里运行pip install requests就会联网下载安装。安装后运行pip show requests查看包信息。
一开始没有加User-Agent并没有刷成功,后来用chrome打开连接然后通过开发工具查看请求的头,尝试后发现只要有User-Agent(也就是模拟浏览器)就可以刷成功
import requests def get_url(url, headers, times = 1): try: for i in range(times): requests.get(url, headers = headers) print('Request %s %d times'%(url, i)) except: print('error') if __name__ == '__main__': url = 'http://blog.csdn.net/mmozhang/article/details/48914233' headers = dict() headers['User-Agent'] = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36' #headers['Connection'] = 'keep-alive' get_url(url, headers, 5)
本来还想用BeautifulSoup通过解析xml的方式把目录里面的url提取出来批量刷,但是以前防御遇到过解释中文编码有问题导致解释不成功的问题,上次没解决,这次就不折腾了。
相关文章推荐
- python--zeros函数和ones函数
- 【python】抄写大神的百度贴吧代码
- How to learn wxPython
- [Python进阶-1]高阶函数:闭包/装饰器/functools/lambda/map/filter
- Python学习笔记<正则表达式与python>
- Python学习笔记<正则表达式与python>
- Python中用format函数格式化字符串的用法
- Python - Merge Sort
- Python 常见语法错误
- TF-IDF算法-Python实现(附源代码)
- Python 变量类型
- 使用Swig封装的python对象
- python tab键自动补齐命令
- Python - Quick Sort
- python+Eclipse+pydev环境搭建
- Python爬虫判断url链接的是下载文件还是html文件
- NumPy常见函数和使用示例
- 详细记录python的range()函数用法
- Python面向对象编程 - 一个记事本程序范例(二)
- 1.Python补充_序列的方法