如何禁止搜狗蜘蛛爬行你的网站
2013-04-23 13:52
656 查看
方法1:
禁止方法,建立robots.txt文件,文件内这样写:
User-agent: Sogou web spider
Disallow: /
User-agent: sogou spider
Disallow: /
User-agent: *
Disallow:
之所以写了两条,因为现在拿不准到底是sogou spider,还是Sogou web spider。其他搜索引擎在相关文章中都有说明自己的蜘蛛名称,但搜狗没有--由此可见它流氓的一面。
然后把文件传到网站的根目录即可。但是搜狗的蜘蛛比较流氓,有时不遵守robots.txt文件协议,禁止它还是来爬。
方法2:
禁止方法,建立robots.txt文件,文件内这样写:
User-agent: Sogou web spider
Disallow: /
User-agent: sogou spider
Disallow: /
User-agent: *
Disallow:
之所以写了两条,因为现在拿不准到底是sogou spider,还是Sogou web spider。其他搜索引擎在相关文章中都有说明自己的蜘蛛名称,但搜狗没有--由此可见它流氓的一面。
然后把文件传到网站的根目录即可。但是搜狗的蜘蛛比较流氓,有时不遵守robots.txt文件协议,禁止它还是来爬。
方法2:
配合robots.txt文件,再写一个文件,文件名 .htaccess 注意文件名,没有名称,只有后缀htaccess,写错了就不管用了。 文件里边这样写: #block spider <Limit GET HEAD POST> order allow,deny #Sogou block deny from 220.181.125.71 deny from 220.181.125.68 deny from 220.181.125.69 deny from 220.181.94.235 deny from 220.181.94.233 deny from 220.181.94.236 deny from 220.181.19.84 allow from all </LIMIT> 写好后,把这个文件也传到网站的根目录。这里边列出来的都是搜狗蜘蛛的IP,它是经常更换的,如果你如现新的,可以随时补充进去。 |
相关文章推荐
- 合肥seo:如何引来网站蜘蛛的爬行呢?
- 【百度SEO优化】如何让蜘蛛爬行你的网站
- \t\t针对搜索引擎该如何“引诱”蜘蛛爬行网站
- 如何网站seo优化让蜘蛛喜欢
- 如何判断搜索引擎机器人(蜘蛛)有没有爬行你的站点?
- 如何禁止win7电脑访问某个网站?
- 如何让蜘蛛成为您网站的常客
- 如何禁止搜索引擎爬虫(Spider)抓取网站页面
- 网站如何吸引搜索蜘蛛的经常光临来提高网站的快照
- 如何禁止用户上某网站
- 网站如何禁止百度转码
- 如何告知用户以及蜘蛛网站正在维护?
- JS如何禁止别人查看网站源码
- 黄聪:如何添加360浏览器(chrome)添加JavaScript例外,禁止网站加载JS
- 如何禁止访问某些网站?
- 如何把网站加入百度、google、Yahoo搜索、一搜、搜狗、中搜、爱问等搜索引擎.
- linux 如何禁止通过IP访问网站,只让用域名访问网站
- 网站如何被蜘蛛抓取并取得较好排名的优化技巧
- 如何禁止访问某个网站(Reflector)
- 对于一个网站,如何禁止直接从浏览器Web browser中访问js文件