您的位置:首页 > 运维架构 > Nginx

Nginx学习笔记

2017-11-16 15:47 176 查看
什么是Nginx
Nginx是一款轻量级的Web服务器/反向代理服务器以及电子邮件代理服务器,并在一个BSD-like协议下发行。由俄罗斯的程序设计师lgor Sysoev所开发,供俄国大型的入口网站及搜索引擎Rambler使用。其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好。
 
nginx的优点
Nginx专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率。能经受高负载的考验, 有报告表明能支持高达 50,000 个并发连接数。
Nginx作为负载均衡服务器: Nginx 既可以在内部直接支持Rails 和 PHP 程序对外进行服务, 也可以支持作为 HTTP代理服务器对外进行服务。
Nginx具有很高的稳定性。其它HTTP服务器,当遇到访问的峰值,或者有人恶意发起慢速连接时,也很可能会导致服务器物理内存耗尽频繁交换,失去响应,只能重启服务器。
Nginx官方表示保持10,000个没有活动的连接,它只占2.5M内存,就稳定性而言,nginx比lighthttpd更胜一筹。
Nginx支持热部署。它的启动特别容易, 并且几乎可以做到7*24不间断运行,即使运行数个月也不需要重新启动。你还能够在不间断服务的情况下,对软件版本进行进行升级。
Nginx采用C进行编写, 不论是系统资源开销还是CPU使用效率都比Perlbal 要好很多。
 
在windows上配置nginx实例详解
首先下载一个nginx,解压到本地,我这里解压位置:D:\lin\nginx
运行nginx(指令如下图)



以下是nginx默认的配置信息(路径:D:\lin\nginx\conf\nginx.conf)。
server {
listen 80;
server_name localhost;

#charset koi8-r;

#access_log logs/host.access.log main;

location / {
root html;
index index.html index.htm;
}

#error_page 404 /404.html;

# redirect server error pages to the static page /50x.html
#
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}

# proxy the PHP scripts to Apache listening on 127.0.0.1:80
#
#location ~ \.php$ {
# proxy_pass http://127.0.0.1; #}

# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
#
#location ~ \.php$ {
# root html;
# fastcgi_pass 127.0.0.1:9000;
# fastcgi_index index.php;
# fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name;
# include fastcgi_params;
#}

# deny access to .htaccess files, if Apache's document root
# concurs with nginx's one
#
#location ~ /\.ht {
# deny all;
#}
}


配置信息介绍:
    listen:表示当前的代理服务器监听的端口,默认的是监听80端口。
    server_name:用于配置基于名称的虚拟主机 ,server_name在接到请求后的进行匹配。
顺序为完全匹配>*开始的域>*结束的域>正则表达式,因为匹配成功就会不再进行其他匹配,所以设置规则时要注意控制规则范围的顺序。
    location:表示匹配的路径,默认所有请求都被匹配
    root:如果配置了root,作用是当匹配到请求的路径时,将会在这个文件夹内寻找符合规则的文件。
    index:当没有指定主页时,默认会选择这个指定的文件,它可以有多个,并按顺序来加载,如果第一个不存在,则找第二个,依此类推。
 
nginx本质上就是一个负责转发的代理服务器,那么如何配置进行代理转发?
比如我们在本地开启了tomcat,他的默认端口是8080,此时访问tomcat的路径是localhost:8080,现在准备通过nginx使得访问localhost时转到tomcat请求下。
 
我们只需要在nginx.conf中稍微改动即可,如下:



这里解释一下proxy_pass    http://localhost:8080; 这里表示代理,相当于将上面的监控的请求路径转发到localhost:8080去了
配置信息修改完之后要重新加载文件,可以使用命令:nginx -s reload  ,来进行刷新

现在,我们刷新localhost界面,就会发现他显示了tomcat的主界面。
 
nginx擅长处理静态页面,也就是html、css、js等,但无法解析jsp,我们通常会配置nginx让他处理静态页面,让tomcat处理jsp,那么这样如何配置呢?






如上图,我们首先要去掉之前配的location /,否则请求全被它拦截了,后面的配置就没有意义。
接着,配置中使用了正则

location ~ \.jsp$ {
proxy_pass http://localhost:8080; }
表示后缀为jsp的请求被转发到http://localhost:8080,这里也就是tomcat的主页面。
此时,我们请求http://localhost/index.jsp,页面如下图:




location ~ \.(html|js|css|png|gif)$ {
root D:/lin/apache-tomcat-8.0.47-windows-x64/apache-tomcat-8.0.47/webapps;
}

表示后缀为html|js|css|png|gif这些的页面,转发去本地的webapps下面去找资源(这里是我的本地路径),此时webapps下面没有页面,为了看个效果,去webapps下面的docs下面复制个index.html出来,此时输入http://localhost/,转发到了我们刚复制到webapps下面的index.html页面,如下图:



没有样式,因为随便复制出来的一个,可能css,js路径不匹配。

nginx最常用作负载均衡,将大量的并发访问或数据流量分担到多台节点设备服务器上分别处理,那么他是如何配置的呢?
我们在server外添加了一个upstream,然后就可以在proxy_pass里面直接用http://+upstream的名称来使用。
例如:
我们使用两台服务器分担数据流量,配置如下:upstream up_name {
ip_hash;
server www1.ysblv.cn:8080;
server www1.ysblv.cn:8080;
}

那么,proxy_pass配置的转发地址就应该是这样:
location /ysblv/ {
proxy_pass http://up_name/ysblv/; }


这里需要注意的是:upstream配置在nginx.conf中,但在server{}之外,不能被server包围起来;upstream中配置的server元素和proxy_pass中的不同,不能加http://。
 
这里解释一下ip_hash
ip_hash指令能够将某个客户端IP的请求通过哈希算法定位到同一台后端服务器上。这样,当来自某个IP的用户在后端Web服务器www1上登录后,再访问该站点的其他URL,能够保证其访问的还是后端Web服务器www1而不是www2。如果不采用ip_hash指令,假设来自某个IP的用户在后端Web服务器www1上登录后,再访问该站点的其他URL,有可能被定向到后端Web服务器www2上,由于用户登录后session信息是记录在服务器www1上的,www2上没有,这时会提示用户还没有登陆。
 
以上简单的介绍了nginx的基本功能和配置,下面列一个nginx配置信息的详细清单,供参考,配置时可以查看,这份配置来自(脚本之家)

#定义Nginx运行的用户和用户组
user www www;

#nginx进程数,建议设置为等于CPU总核心数。
worker_processes 8;

#全局错误日志定义类型,[ debug | info | notice | warn | error | crit ]
error_log /var/log/nginx/error.log info;

#进程文件
pid /var/run/nginx.pid;

#一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(系统的值ulimit -n)与nginx进程数相除,但是nginx分配请求并不均匀,所以建议与ulimit -n的值保持一致。
worker_rlimit_nofile 65535;

#工作模式与连接数上限
events {

#参考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ]; epoll模型是Linux 2.6以上版本内核中的高性能网络I/O模型,如果跑在FreeBSD上面,就用kqueue模型。
use epoll;

#单个进程最大连接数(最大连接数=连接数*进程数)
worker_connections 65535;
}

#设定http服务器
http {
include mime.types; #文件扩展名与文件类型映射表
default_type application/octet-stream; #默认文件类型
#charset utf-8; #默认编码
server_names_hash_bucket_size 128; #服务器名字的hash表大小
client_header_buffer_size 32k; #上传文件大小限制
large_client_header_buffers 4 64k; #设定请求缓
client_max_body_size 8m; #设定请求缓
sendfile on; #开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off。
autoindex on; #开启目录列表访问,合适下载服务器,默认关闭。
tcp_nopush on; #防止网络阻塞
tcp_nodelay on; #防止网络阻塞
keepalive_timeout 120; #长连接超时时间,单位是秒

#FastCGI相关参数是为了改善网站的性能:减少资源占用,提高访问速度。下面参数看字面意思都能理解。
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 64k;
fastcgi_buffers 4 64k;
fastcgi_busy_buffers_size 128k;
fastcgi_temp_file_write_size 128k;

#gzip模块设置
gzip on; #开启gzip压缩输出
gzip_min_length 1k; #最小压缩文件大小
gzip_buffers 4 16k; #压缩缓冲区
gzip_http_version 1.0; #压缩版本(默认1.1,前端如果是squid2.5请使用1.0)
gzip_comp_level 2; #压缩等级
gzip_types text/plain application/x-javascript text/css application/xml;

#压缩类型,默认就已经包含text/html,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。
gzip_vary on;
#limit_zone crawler $binary_remote_addr 10m; #开启限制IP连接数的时候需要使用

upstream qianyunlai.com {
#upstream的负载均衡,weight是权重,可以根据机器配置定义权重。weigth参数表示权值,权值越高被分配到的几率越大。
server 192.168.80.121:80 weight=3;
server 192.168.80.122:80 weight=2;
server 192.168.80.123:80 weight=3;
}

#虚拟主机的配置
server {

#监听端口
listen 80;

#域名可以有多个,用空格隔开
server_name www.qianyunlai.com qianyunlai.com;
index index.html index.htm index.php;
root /data/www/qianyunlai;

location ~ .*.(php|php5)?$ {
fastcgi_pass 127.0.0.1:9000;
fastcgi_index index.php;
include fastcgi.conf;
}

#图片缓存时间设置
location ~ .*.(gif|jpg|jpeg|png|bmp|swf)$ {
expires 10d;
}

#JS和CSS缓存时间设置
location ~ .*.(js|css)?$ {
expires 1h;
}

#日志格式设定
log_format access '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" $http_x_forwarded_for';

#定义本虚拟主机的访问日志
access_log /var/log/nginx/qianyunlai.log access;

#对 "/" 启用反向代理
location / {
proxy_pass http://127.0.0.1:88; proxy_redirect off;
proxy_set_header X-Real-IP $remote_addr;

#后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

#以下是一些反向代理的配置,可选。
proxy_set_header Host $host;
client_max_body_size 10m; #允许客户端请求的最大单文件字节数
client_body_buffer_size 128k; #缓冲区代理缓冲用户端请求的最大字节数,
proxy_connect_timeout 90; #nginx跟后端服务器连接超时时间(代理连接超时)
proxy_send_timeout 90; #后端服务器数据回传时间(代理发送超时)
proxy_read_timeout 90; #连接成功后,后端服务器响应时间(代理接收超时)
proxy_buffer_size 4k; #设置代理服务器(nginx)保存用户头信息的缓冲区大小
proxy_buffers 4 32k; #proxy_buffers缓冲区,网页平均在32k以下的设置
proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2)
proxy_temp_file_write_size 64k;
#设定缓存文件夹大小,大于这个值,将从upstream服务器传
}

#设定查看Nginx状态的地址
location /NginxStatus {
stub_status on;
access_log on;
auth_basic "NginxStatus";
auth_basic_user_file conf/htpasswd;
#htpasswd文件的内容可以用apache提供的htpasswd工具来产生。
}

#本地动静分离反向代理配置
#所有jsp的页面均交由tomcat或resin处理
location ~ .(jsp|jspx|do)?$ {
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://127.0.0.1:8080; }

#所有静态文件由nginx直接读取不经过tomcat或resin
location ~ .*.(htm|html|gif|jpg|jpeg|png|bmp|swf|ioc|rar|zip|txt|flv|mid|doc|ppt|pdf|xls|mp3|wma)$ {
expires 15d;
}

location ~ .*.(js|css)?$ {
expires 1h;
}
}
}
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息