CentOS 6.5 NFS服务架设

环境:

OS:CentOS 6.5 x86_64

Kernel Ver:2.6.32-431.20.3.el6.x86_64
Server IP:192.168.100.248(已关闭SELinux)

ClientA IP:192.168.100.208(已关闭SELinux)

ClientB IP:192.168.100.209(已关闭SELinux)

在每台机器上都运行如下命令安装nfs-utils和rpcbind

[root@Server ~]# yum -y install nfs-utils rpcbind

ps:在CentOS 6以后使用rpcbind替换portmap

在每台机器上查看用户及组的id

[root@Server ~]# id nfsnobody
uid=65534(nfsnobody) gid=65534(nfsnobody) groups=65534(nfsnobody)
[root@ClientA ~]# id nfsnobody
uid=65534(nfsnobody) gid=65534(nfsnobody) groups=65534(nfsnobody)
[root@clientB ~]# id nfsnobody
uid=65534(nfsnobody) gid=65534(nfsnobody) groups=65534(nfsnobody)

说明每台机器nfsnobody的uid及gid与其他机器的必须相同,否则可能出现权限问题。

如果不一样的话,可以使用

groupmod  -g 65534 nfsnobody
usermod -u 65534 nfsnobody

这种情况一般出现在centos 5.*的64位版本中。


在Server上运行

[root@Server ~]# service rpcbind start ;chkconfig rpcbind on
Starting rpcbind:                                          [  OK  ]
[root@Server ~]# service nfs start ;chkconfig nfs on
Starting NFS services:                                     [  OK  ]
Starting NFS mountd:                                       [  OK  ]
Starting NFS daemon:                                       [  OK  ]
Starting RPC idmapd:                                       [  OK  ]

在机器开机时,一定是先启动rpcbind服务,再启动nfs服务。否则可能出现

[root@Server ~]# service rpcbind stop
Stopping rpcbind:                                          [  OK  ]
[root@Server ~]# service nfs restart
Shutting down NFS daemon:                                  [  OK  ]
Shutting down NFS mountd:                                  [  OK  ]
Shutting down RPC idmapd:                                  [  OK  ]
Starting NFS services:                                     [  OK  ]
Starting NFS mountd:                                       [FAILED]
Starting NFS daemon: rpc.nfsd: writing fd to kernel failed: errno 111 (Connectio                            n refused)
rpc.nfsd: unable to set any sockets for nfsd
                                                           [FAILED]

现在查看/etc/init.d/rpcbind文件及/etc/init.d/nfs

wKioL1O_e9LQufCRAABzQ5l4WrM991.png

从上面可以看出chkconfig后面的数字(30 60 )(13 87)说明rpcbind比nfs先启动,关闭时nfs比rpcbind先关闭。


现在我们创建一个/data目录,并共享出去,192.168.100.0段的用户可以访问并读写。

[root@Server ~]# mkdir /data
[root@Server ~]# chown -R nfsnobody /data
[root@Server ~]# chmod 750 /data
[root@Server ~]# vim /etc/exports
/data   192.168.100.0/24(rw,sync,all_squash,anonuid=65534,anongid=65534)

参数说明:

选项                                                 说明

ro                        该主机对该共享目录有只读权限

rw                       该主机对该共享目录有读写权限

root_squash          客户机用root用户访问该共享文件夹时,将root用户映射成匿名用户

no_root_squash     客户机用root访问该共享文件夹时,不映射root用户,NFS客户端连接服务端时如果使用的是root的话,那么对服务端分享的目录来说,也拥有root权限。显然开启这项是不安全的

all_squash             客户机上的任何用户访问该共享目录时都映射成匿名用户

anonuid                将客户机上的用户映射成指定的本地用户ID的用户

anongid                将客户机上的用户映射成属于指定的本地用户组ID

sync                     资料同步写入到内存与硬盘中

async                   资料会先暂存于内存中,而非直接写入硬盘

secure                限制客户端只能从小于1024的tcp/ip端口连接nfs服务器(默认设置);
insecure             允许客户端从大于1024的tcp/ip端口连接服务器

wdelay                检查是否有相关的写操作,如果有则将这些写操作 一起执行,这样可以提高效率(默认设置);
no_wdelay         若有写操作则立即执行,应与sync配合使用;
subtree               若输出目录是一个子目录,则nfs服务器将检查其父目录的权限(默认设置);
no_subtree         即使输出目录是一个子目录,nfs服务器也不检查其父目录的权限,这样可以提高效率;


重新加载nfs配置文件

[root@Server ~]# exportfs -rv 
或者/etc/init.d/nfs reload
exporting 192.168.100.0/24:/data

查看是否正常

[root@Server ~]# showmount -e 127.0.0.1
Export list for 127.0.0.1:
/data 192.168.100.0/24

可以看到共享目录,说明正常,当然你也可以到ClientA和ClientB上去尝试。如果服务器上开启了防火墙或者网络不通,则可能出现

[root@ClientA ~]# showmount -e 192.168.100.248
clnt_create: RPC: Port mapper failure - Timed out

因为NFS服务器一般是内网,不对外提供服务,为了保持良好的网络性能,一般关闭防火墙

[root@Server ~]# service iptables stop ;chkconfig iptables off
iptables: Setting chains to policy ACCEPT: filter          [  OK  ]
iptables: Flushing firewall rules:                         [  OK  ]
iptables: Unloading modules:                               [  OK  ]

现在在服务器上挂载

[root@ClientA ~]# mkdir /data
[root@ClientA ~]# mount -t nfs 192.168.100.248:/data /data
[root@ClientA ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/VolGroup-lv_root
                       28G  1.4G   25G   6% /
tmpfs                 497M     0  497M   0% /dev/shm
/dev/xvda1            485M  119M  341M  26% /boot
192.168.100.248:/data
                       28G  1.4G   25G   6% /data

可以看到现在nfs正常挂载了。

一般NFS服务器存储的只是普通数据(图片、附件、HTML、CSS、JS、视频),应该是不需要执行suid,exec等权限,因此生产环境中在挂载的时候可以执行如下命令挂载。

[root@clientB ~]# mount -t nfs -o nosuid,noexec,nodev,hard,intr,rw 192.168.100.248:/data /data

挂载选项说明:

-t nfs是说明挂载类型

设置了nosuid、noexec、nodev选项,意味着不允许任何suid程序,从这个分区不能执行任何内容,并且不存在设备文件

soft:使用软挂载的方式挂载系统,若Client的请求得不到回应,则重新请求并传回错误信息。

hard:使用硬挂载的方式挂载系统,该值是默认值,重复请求直到NFS服务器回应。

intr:允许NFS中断文件操作和向调用它的程序返回值,默认不允许文件操作被中断。

atime 每次存取都更新inode的存取时间,默认设置,取消选项为noatime。

noatime 每次存取时不更新inode的存取时间

rsize=n:在NFS服务器读取文件时NFS使用的字节数,默认值是1 024个字节

wsize=n:向NFS服务器写文件时NFS使用的字节数,默认值是1 024个字节

在默认情况下,NFS 的配置不适合大容量磁盘。 每个客户机应该用 rsize=32768,wsize=32768,intr,noatime 挂装远程文件系统,从而确保: 

使用大的读/写块(数字指定最大块大小,在这个示例中是 32KB)


我在ClientA服务器没有使用noexec选项,在ClientB上使用了noexec选项,现在进行测试

[root@ClientA ~]# echo "echo OK" >/data/ok.sh
[root@ClientA ~]# cat /data/ok.sh
echo OK
[root@ClientA ~]# chmod +x /data/ok.sh
[root@ClientA ~]# /data/ok.sh
OK
#ClientA服务器正常执行
[root@clientB ~]# /data/ok.sh
-bash: /data/ok.sh: Permission denied
#ClientB服务器执行错误,被拒绝

通过使用noexec及nosuid,NFS只能存取文件,没有执行权限,相对于来说更安全。


现在我们需要开机自动挂载则需要在clientA和ClientB上都执行

[root@ClientA data]# echo "mount -t nfs -o nosuid,noexec,nodev,hard,intr,rw 192.168.100.248:/data /data >/dev/null 2>&1" >> /etc/rc.local
[root@ClientA data]# tail -l /etc/rc.local 
mount -t nfs -o nosuid,noexec,nodev,hard,intr,rw 192.168.100.248:/data /data >/dev/null 2>&1


缺省的情况下系统在启动时启动8个nfsd进程。

[root@Server ~]# ps -ef |grep nfsd |grep -v grep
root      2175     2  0 15:06 ?        00:00:00 [nfsd4]
root      2176     2  0 15:06 ?        00:00:00 [nfsd4_callbacks]
root      2177     2  0 15:06 ?        00:00:00 [nfsd]
root      2178     2  0 15:06 ?        00:00:00 [nfsd]
root      2179     2  0 15:06 ?        00:00:00 [nfsd]
root      2180     2  0 15:06 ?        00:00:00 [nfsd]
root      2181     2  0 15:06 ?        00:00:00 [nfsd]
root      2182     2  0 15:06 ?        00:00:00 [nfsd]
root      2183     2  0 15:06 ?        00:00:00 [nfsd]
root      2184     2  0 15:06 ?        00:00:00 [nfsd]

通过查看/proc/net/rpc/nfsd文件的th行,第一个是nfsd的个数,后十个是线程是用的时间数,第二个到第四个值如果很大,那么就需要增加nfsd的个数。
具体如下:

 [root@Server ~]# vim /etc/init.d/nfs
  [ -z "$RPCNFSDCOUNT" ] && RPCNFSDCOUNT=8


找到RPCNFSDCOUNT,修改该值,一般和client端数目一致,然后重启nfs服务


nfsd的队列长度
对于8个nfsd进程,系统的nfsd队列长度是64k大小,如果是多于8个,就要相应的增加相应的队列大小

查看默认及最大队列大小

[root@Server ~]# cat /proc/sys/net/core/rmem_default
124928
[root@Server ~]# cat /proc/sys/net/core/rmem_max
124928

修改

#vi /etc/sysctl.conf
加入
net.core.mem_max=数目
net.core.mem_default=数目

执行sysctl -p生效



注意:

  1. NFS服务器关机时要确保NFS没有客户端连接,否则无法正常关机 。可以先强制停止或杀死nfs服务。

  2. 如果出现问题,需要强制umount的话,需要使用umount -lf参数

你可能感兴趣的:(centos,nfs)