您的位置:首页 > 运维架构 > 网站架构

yisouspider蜘蛛导致网站加载崩溃解决办法

2018-03-07 14:31 369 查看
1. 进入nginx的日志目录 如 access.log2.运行下面的命令把spider的ip抓取输出到iplog.txt中 
cat access.
log
 
grep
 
-i 
"YisouSpider"
 
| awk 
'{print $1,","}'
 
> iplog.txt
3. 把iplog.txt格式成以下格式,多个ip请换行,封禁所有的关于蜘蛛的ip
    deny 1.1.1.1;    deny 1.1.1.1;3.1 php格式化    $ips = file_get_contents('iplog.txt');$ips = str_replace(' ','', $ips);$ips = str_replace("\n",'', $ips);$ips_arr = array_unique(explode(',',$ips));$ips_all = "";foreach ($ips_arr as $v) {if (!empty($v)) {$ips_all .= "deny ".$v.";\n";}}file_put_contents('ban_ips.conf', $ips_all);3.2 把ban_ips.conf放到 nginx配置目录 如/etc/nginx/ban_ips.conf4. 在nginx.conf配置文件中的http{ 加上 }http {#最后一行加入include /etc/nginx/ban_ips.conf;}5.执行下面命令sudo chmod 777 /etc/nginx/ban_ips.confsudo service nginx restart

                                            
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐