Nginx禁止访问robots.txt防泄漏web目录
2014-06-13 11:47
337 查看
关于robots.txt文件:搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信 息。您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot 访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。访问www.linuxidc.com/ robots.txt,可以得知我们网站中存在/admin和/bbs,其中/admin是关于后台管理的目录,把这个路径轻易的暴漏显然是不***全的,下面我们可以通过禁止访问.txt类型的文件来,增加网站的安全性。
![](http://www.linuxidc.com/upload/2013_04/130408080744381.jpg)
修改nginx.conf文件,vim /usr/local/nginx/conf/nginx.conflocation ~* \.(txt|doc)$ {
root /usr/local/nginx/html;
deny all;
}指定403.html文件的配置信息error_page 403 /403.html;
location = /403.html {
root html;
}重新加载配置文件/usr/local/nginx/sbin/nginx -s reload 再次访问www.linuxidc.com/ robots.txt,发现提示无法访问该文件了。
![](http://www.linuxidc.com/upload/2013_04/130408080744382.jpg)
通过这种方法可以在某种程度上保护网站安全,避免黑客通过访问robots.txt猜到我们网站的目录结构或者说有哪些真实存在的目录和文件。当然还可以禁止其他指定类型的文件比如.doc、.xsl等等,方法是同样的。原文地址: http://www.linuxidc.com/Linux/2013-04/82365.htm
![](http://www.linuxidc.com/upload/2013_04/130408080744381.jpg)
修改nginx.conf文件,vim /usr/local/nginx/conf/nginx.conflocation ~* \.(txt|doc)$ {
root /usr/local/nginx/html;
deny all;
}指定403.html文件的配置信息error_page 403 /403.html;
location = /403.html {
root html;
}重新加载配置文件/usr/local/nginx/sbin/nginx -s reload 再次访问www.linuxidc.com/ robots.txt,发现提示无法访问该文件了。
![](http://www.linuxidc.com/upload/2013_04/130408080744382.jpg)
通过这种方法可以在某种程度上保护网站安全,避免黑客通过访问robots.txt猜到我们网站的目录结构或者说有哪些真实存在的目录和文件。当然还可以禁止其他指定类型的文件比如.doc、.xsl等等,方法是同样的。原文地址: http://www.linuxidc.com/Linux/2013-04/82365.htm
相关文章推荐
- [nginx]Nginx禁止访问robots.txt防泄漏web目录
- nginx禁止访问robots.txt防泄漏web目录
- nginx下禁止访问robots.txt的设置方法
- nginx下禁止访问robots.txt的设置方法
- apache nginx禁止跨目录访问
- nginx&apache中禁止指定文件或目录访问的方法
- nginx 配置禁止访问目录或文件
- Nginx禁止直接通过IP地址访问网站以及限制IP登陆某目录(关闭默认站点或空主机头)
- 禁止访问web目录方法
- Apache和Nginx下禁止访问特定的目录或文件
- nginx 禁止访问某个目录
- Nginx服务器中设置禁止访问文件或目录的方法
- Apache和Nginx下文件和目录禁止访问安全设置
- Apache+Tomcat整合后 禁止访问 WEB-INF目录
- Apache+Tomcat整合后 禁止访问 WEB-INF目录
- 通过apache/nginx禁止访问.svn目录
- nginx 配置禁止访问目录或文件
- nginx 禁止svn目录访问的脚本
- web服务器安全之 禁止访问含有特定字符的目录
- Nginx 禁止访问某个目录或文件的设置方法