网站robots.txt探测工具Parsero
2017-01-21 11:27
183 查看
网站robots.txt探测工具Parsero
robots.txt文件是网站根目录下的一个文本文件。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当搜索引擎访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt。如果存在,搜索引擎就会按照该文件中的内容来确定访问的范围;如果该文件不存在,则会够访问网站上所有没有被口令保护的所有页面。
网站为了防止搜索引擎访问一些重要的页面,会把其所在的目录放入robots.txt文件中。所以,探测该文件,也可以获取网站的重要信息。Kali Linux提供一个小工具Parsero,可以探测指定网站的robots.txt文件,并确认实际可访问性。
PS:该工具需要用户使用apt-get命令手动安装。
robots.txt文件是网站根目录下的一个文本文件。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当搜索引擎访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt。如果存在,搜索引擎就会按照该文件中的内容来确定访问的范围;如果该文件不存在,则会够访问网站上所有没有被口令保护的所有页面。
网站为了防止搜索引擎访问一些重要的页面,会把其所在的目录放入robots.txt文件中。所以,探测该文件,也可以获取网站的重要信息。Kali Linux提供一个小工具Parsero,可以探测指定网站的robots.txt文件,并确认实际可访问性。
PS:该工具需要用户使用apt-get命令手动安装。
相关文章推荐
- 网站robots.txt探测工具Parsero
- 网站优化:robots.txt和Robots META标签
- 如何正确配置网站的robots.txt(转帖)
- robots.txt网站爬虫文件设置
- robots.txt防止向黑客泄露网站的后台和隐私
- 论WordPress网站robots.txt的正确写法
- 网站所用的robots.txt基本使用方法
- 搜索引擎蜘蛛及网站robots.txt文件详解[转载]
- 搜索引擎蜘蛛及网站robots.txt文件详解
- 在线网站探测工具-阿里测
- 网站的robots.txt
- 用robots.txt禁止搜索引擎搜索你的网站内容
- 如何写网站的robots.txt和meta name robots的配置
- 搜索引擎蜘蛛及网站robots.txt文件详解
- 在过去 24 小时内,Googlebot 在尝试访问您的 robots.txt 时遇到了 33 个错误。为确保不会抓取该文件中列出的任何网页,我们推迟了抓取操作。您网站的 robots.txt 总体错
- 如何使用 robots.txt 文件控制对网站的访问
- django+apache配置网站的robots.txt和sitemaps等理静态文件
- robots.txt 如何屏蔽网站动态url
- 关于网站根目录下面robots.txt文件的作用
- Web网站敏感目录/内容探测工具 : Cansina