您的位置:首页 > 运维架构 > Linux

CentOS 6.5 NFS服务架设

2014-07-11 13:52 597 查看
环境:
OS:CentOS 6.5 x86_64
Kernel Ver:2.6.32-431.20.3.el6.x86_64
Server IP:192.168.100.248(已关闭SELinux)
ClientA IP:192.168.100.208(已关闭SELinux)
ClientB IP:192.168.100.209(已关闭SELinux)
在每台机器上都运行如下命令安装nfs-utils和rpcbind
[root@Server ~]# yum -y install nfs-utils rpcbind
ps:在CentOS 6以后使用rpcbind替换portmap
在每台机器上查看用户及组的id
[root@Server ~]# id nfsnobody
uid=65534(nfsnobody) gid=65534(nfsnobody) groups=65534(nfsnobody)
[root@ClientA ~]# id nfsnobody
uid=65534(nfsnobody) gid=65534(nfsnobody) groups=65534(nfsnobody)
[root@clientB ~]# id nfsnobody
uid=65534(nfsnobody) gid=65534(nfsnobody) groups=65534(nfsnobody)
说明每台机器nfsnobody的uid及gid与其他机器的必须相同,否则可能出现权限问题。

如果不一样的话,可以使用
groupmod  -g 65534 nfsnobody
usermod -u 65534 nfsnobody
这种情况一般出现在centos 5.*的64位版本中。

在Server上运行
[root@Server ~]# service rpcbind start ;chkconfig rpcbind on
Starting rpcbind:                                          [  OK  ]
[root@Server ~]# service nfs start ;chkconfig nfs on
Starting NFS services:                                     [  OK  ]
Starting NFS mountd:                                       [  OK  ]
Starting NFS daemon:                                       [  OK  ]
Starting RPC idmapd:                                       [  OK  ]
在机器开机时,一定是先启动rpcbind服务,再启动nfs服务。否则可能出现
[root@Server ~]# service rpcbind stop
Stopping rpcbind:                                          [  OK  ]
[root@Server ~]# service nfs restart
Shutting down NFS daemon:                                  [  OK  ]
Shutting down NFS mountd:                                  [  OK  ]
Shutting down RPC idmapd:                                  [  OK  ]
Starting NFS services:                                     [  OK  ]
Starting NFS mountd:                                       [FAILED]
Starting NFS daemon: rpc.nfsd: writing fd to kernel failed: errno 111 (Connectio                            n refused)
rpc.nfsd: unable to set any sockets for nfsd
[FAILED]
现在查看/etc/init.d/rpcbind文件及/etc/init.d/nfs




从上面可以看出chkconfig后面的数字(30 60 )(13 87)说明rpcbind比nfs先启动,关闭时nfs比rpcbind先关闭。

现在我们创建一个/data目录,并共享出去,192.168.100.0段的用户可以访问并读写。
[root@Server ~]# mkdir /data
[root@Server ~]# chown -R nfsnobody /data
[root@Server ~]# chmod 750 /data
[root@Server ~]# vim /etc/exports
/data   192.168.100.0/24(rw,sync,all_squash,anonuid=65534,anongid=65534)
参数说明:
选项 说明ro 该主机对该共享目录有只读权限rw 该主机对该共享目录有读写权限root_squash 客户机用root用户访问该共享文件夹时,将root用户映射成匿名用户no_root_squash 客户机用root访问该共享文件夹时,不映射root用户,NFS客户端连接服务端时如果使用的是root的话,那么对服务端分享的目录来说,也拥有root权限。显然开启这项是不安全的all_squash 客户机上的任何用户访问该共享目录时都映射成匿名用户anonuid 将客户机上的用户映射成指定的本地用户ID的用户anongid 将客户机上的用户映射成属于指定的本地用户组IDsync 资料同步写入到内存与硬盘中async 资料会先暂存于内存中,而非直接写入硬盘secure 限制客户端只能从小于1024的tcp/ip端口连接nfs服务器(默认设置);
insecure 允许客户端从大于1024的tcp/ip端口连接服务器wdelay 检查是否有相关的写操作,如果有则将这些写操作 一起执行,这样可以提高效率(默认设置);
no_wdelay 若有写操作则立即执行,应与sync配合使用;
subtree 若输出目录是一个子目录,则nfs服务器将检查其父目录的权限(默认设置);
no_subtree 即使输出目录是一个子目录,nfs服务器也不检查其父目录的权限,这样可以提高效率;

重新加载nfs配置文件
[root@Server ~]# exportfs -rv
或者/etc/init.d/nfs reload
exporting 192.168.100.0/24:/data
查看是否正常
[root@Server ~]# showmount -e 127.0.0.1
Export list for 127.0.0.1:
/data 192.168.100.0/24
可以看到共享目录,说明正常,当然你也可以到ClientA和ClientB上去尝试。如果服务器上开启了防火墙或者网络不通,则可能出现
[root@ClientA ~]# showmount -e 192.168.100.248
clnt_create: RPC: Port mapper failure - Timed out
因为NFS服务器一般是内网,不对外提供服务,为了保持良好的网络性能,一般关闭防火墙

[root@Server ~]# service iptables stop ;chkconfig iptables off
iptables: Setting chains to policy ACCEPT: filter          [  OK  ]
iptables: Flushing firewall rules:                         [  OK  ]
iptables: Unloading modules:                               [  OK  ]
现在在服务器上挂载
[root@ClientA ~]# mkdir /data
[root@ClientA ~]# mount -t nfs 192.168.100.248:/data /data
[root@ClientA ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/VolGroup-lv_root
28G  1.4G   25G   6% /
tmpfs                 497M     0  497M   0% /dev/shm
/dev/xvda1            485M  119M  341M  26% /boot
192.168.100.248:/data
28G  1.4G   25G   6% /data
可以看到现在nfs正常挂载了。
一般NFS服务器存储的只是普通数据(图片、附件、HTML、CSS、JS、视频),应该是不需要执行suid,exec等权限,因此生产环境中在挂载的时候可以执行如下命令挂载。
[root@clientB ~]# mount -t nfs -o nosuid,noexec,nodev,hard,intr,rw 192.168.100.248:/data /data
挂载选项说明:
-t nfs是说明挂载类型
设置了nosuid、noexec、nodev选项,意味着不允许任何suid程序,从这个分区不能执行任何内容,并且不存在设备文件
soft:使用软挂载的方式挂载系统,若Client的请求得不到回应,则重新请求并传回错误信息。
hard:使用硬挂载的方式挂载系统,该值是默认值,重复请求直到NFS服务器回应。
intr:允许NFS中断文件操作和向调用它的程序返回值,默认不允许文件操作被中断。
atime 每次存取都更新inode的存取时间,默认设置,取消选项为noatime。
noatime 每次存取时不更新inode的存取时间
rsize=n:在NFS服务器读取文件时NFS使用的字节数,默认值是1 024个字节
wsize=n:向NFS服务器写文件时NFS使用的字节数,默认值是1 024个字节
在默认情况下,NFS 的配置不适合大容量磁盘。 每个客户机应该用 rsize=32768,wsize=32768,intr,noatime 挂装远程文件系统,从而确保:

使用大的读/写块(数字指定最大块大小,在这个示例中是 32KB)

我在ClientA服务器没有使用noexec选项,在ClientB上使用了noexec选项,现在进行测试
[root@ClientA ~]# echo "echo OK" >/data/ok.sh
[root@ClientA ~]# cat /data/ok.sh
echo OK
[root@ClientA ~]# chmod +x /data/ok.sh
[root@ClientA ~]# /data/ok.sh
OK
#ClientA服务器正常执行
[root@clientB ~]# /data/ok.sh
-bash: /data/ok.sh: Permission denied
#ClientB服务器执行错误,被拒绝
通过使用noexec及nosuid,NFS只能存取文件,没有执行权限,相对于来说更安全。

现在我们需要开机自动挂载则需要在clientA和ClientB上都执行
[root@ClientA data]# echo "mount -t nfs -o nosuid,noexec,nodev,hard,intr,rw 192.168.100.248:/data /data >/dev/null 2>&1" >> /etc/rc.local
[root@ClientA data]# tail -l /etc/rc.local
mount -t nfs -o nosuid,noexec,nodev,hard,intr,rw 192.168.100.248:/data /data >/dev/null 2>&1

缺省的情况下系统在启动时启动8个nfsd进程。

[root@Server ~]# ps -ef |grep nfsd |grep -v grep
root      2175     2  0 15:06 ?        00:00:00 [nfsd4]
root      2176     2  0 15:06 ?        00:00:00 [nfsd4_callbacks]
root      2177     2  0 15:06 ?        00:00:00 [nfsd]
root      2178     2  0 15:06 ?        00:00:00 [nfsd]
root      2179     2  0 15:06 ?        00:00:00 [nfsd]
root      2180     2  0 15:06 ?        00:00:00 [nfsd]
root      2181     2  0 15:06 ?        00:00:00 [nfsd]
root      2182     2  0 15:06 ?        00:00:00 [nfsd]
root      2183     2  0 15:06 ?        00:00:00 [nfsd]
root      2184     2  0 15:06 ?        00:00:00 [nfsd]
通过查看/proc/net/rpc/nfsd文件的th行,第一个是nfsd的个数,后十个是线程是用的时间数,第二个到第四个值如果很大,那么就需要增加nfsd的个数。
具体如下:

[root@Server ~]# vim /etc/init.d/nfs
[ -z "$RPCNFSDCOUNT" ] && RPCNFSDCOUNT=8


找到RPCNFSDCOUNT,修改该值,一般和client端数目一致,然后重启nfs服务

nfsd的队列长度
对于8个nfsd进程,系统的nfsd队列长度是64k大小,如果是多于8个,就要相应的增加相应的队列大小
查看默认及最大队列大小

[root@Server ~]# cat /proc/sys/net/core/rmem_default
124928
[root@Server ~]# cat /proc/sys/net/core/rmem_max
124928
修改
#vi /etc/sysctl.conf
加入
net.core.mem_max=数目
net.core.mem_default=数目
执行sysctl -p生效

注意:
NFS服务器关机时要确保NFS没有客户端连接,否则无法正常关机 。可以先强制停止或杀死nfs服务。

如果出现问题,需要强制umount的话,需要使用umount -lf参数

本文出自 “枫林晚” 博客,请务必保留此出处http://fengwan.blog.51cto.com/508652/1437060
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: