---本教学笔记是本人学习和工作生涯中的摘记整理而成,此为初稿(尚有诸多不完善之处),为原创作品,允许转载,转载时请务必以超链接形式标明文章原始出处,作者信息和本声明。否则将追究法律责任。http://www.cnblogs.com/chensiqiqi/
[TOC]
1)什么是NFS?
NFS是Network File System的缩写,中文意思是网络文件系统。它的主要功能是通过网络(一般是局域网)让不同的主机系统之间可以共享文件或目录。NFS客户端(一般为应用服务器,例如web)可以通过挂载(mount)的方式将NFS服务器端共享的数据目录挂载到NFS客户端本地系统中(就是某一个挂载点下)。从客户端本地看,NFS服务器端共享的目录就好像是客户端自己的磁盘分区或者目录一样,而实际上却是远端的NFS服务器的目录。
NFS网络文件系统很像Windows系统的网络共享,安全功能,网络驱动器影射,这也和Linux系统里的samba服务类似。只不过一般情况下,Windows网络共享服务或samba服务用于办公局域网共享,而互联网中小型网站集群架构后端常用NFS进行数据共享。
2)NFS在企业中的应用场景
- 在企业集群架构的工作场景中,NFS网络文件系统一般被用来存储共享视频,图片,附件等静态资源文件,通常网站用户上传的文件都会放到NFS共享里,例如:BBS产品的图片,附件,头像(注意网站BBS程序不要放NFS共享里),然后前端所有的节点访问这些静态资源时都会读取NFS存储上的资源。NFS是当前互联网系统架构中最常用的数据存储服务之一,前面说过,中小型网站公司应用频率更高,大公司或门户除了使用NFS外,还可能会使用更为复杂的分布式文件系统,比如Moosefs(mfs),GlusterFS,FastDFS等
- 在企业生产集群架构中,NFS作为所有前端Web服务的共享存储,存储的内容一般包括网站用户上传的图片,附件,头像等,注意,网站的程序代码不要放NFS共享里,因为网站程序是开发运维人员统一发布的,不存在发布延迟问题,直接批量发布到Web节点提供访问比共享到NFS里访问效率更高。
3)企业生产集群为什么需要共享存储角色。
- 这里通过图解给大家展示以下集群架构需要共享存储服务的理由。例如:A用户上传图片到Web1服务器,然后让B用户访问这张图片,结果B用户访问的请求分发到了Web2,因为Web2上没有这张图片,这就导致它无法看到A用户上传的图片,如果此时有一个共享存储,A用户上传图片的请求无论是分发到Web1还是Web2上,最终都会存储到共享存储上,而在B用户访问图片时,无论请求分发到Web1还是Web2上,最终也都会去共享存储上找,这样就可以访问到需要的资源了。这个共享存储的位置可以通过开源软件和商业硬件实现,互联网中小型集群架构会用普通PC服务器配置NFS网络文件系统实现。
- 当及集群中没有NFS共享存储时,用户访问图片的情况如下图所示。
上图是企业生产集群没有NFS共享存储访问的示意图。下图是企业生产集群有NFS共享存储的情况
- 中小型互联网企业一般不会买硬件存储,因为太贵,大公司如果业务发展很快的话,可能会临时买硬件存储顶一下网站压力,当网站并发继续加大时,硬件存储的扩展相对就会很费劲,且价格成几何级数增加。例如:淘宝网就曾替换掉了很多硬件设备,比如,用lvs+haproxy替换了netscaler负载均衡设备,用FastDFS,TFS配合PC服务器替换了netapp,emc等商业存储设备,去IOE正在成为互联网公司的主流。
下图是企业工作中的NFS服务器与客户端挂载情况结构图
客户端挂载NFS后,本地挂载基本信息显示如下:
[root@nfs01 ~]# df -h
Filesystem Size Used Use% Mounted on
/dev/sda1 1.1T 467G 544G 47% /
tmpfs 7.9G 0 7.9G 0% /dev/shm
10.0.0.7:/video 1002G 59G 892G 7% /video #<==10.0.0.7为nfsserver的ip地址
提示: mount 源 目标
mount 10.0.0.7:/video /video
从挂载信息来看,和本地磁盘分区几乎没什么差别,只是文件系统对应列的开头是以IP滴噢址开头的形式了。
经过前面的介绍,我们知道NFS系统是通过网络来进行数据传输的(所以叫做网络文件系统)因此,NFS会使用一些端口来传输数据,那么,NFS到底使用哪些端口来进行数据传输呢?
答案就是通过RPC(中文意思远程过程调用,英文Remote Procedure Call简称RPC)协议/服务来实现,这个RPC服务的应用在门户级的网站有很多,例如:百度等。
当访问程序通过NFS客户端向NFS服务端存取文件时,其请求数据流程大致如下:
1)首先用户访问网站程序,由程序在NFS客户端上发出存取NFS文件的请求,这时NFS客户端(即执行程序的服务器)的RPC服务(rpcbind服务)就会通过网络向NFS服务器端的RPC服务(rpcbind服务)的111端口发出NFS文件存取功能的询问请求。
2)NFS服务端的RPC服务(rpcbind服务)找到对应的已注册的NFS端口后,通知NFS客户端的RPC服务(rpcbind服务)
3)此时NFS客户端获取到正确的端口,并与NFS daemon联机存取数据
4)NFS客户端把数据存取成功后,返回给前端访问程序,告知给用户存取结果,作为网站用户,就完成了一次存取操作。
因为NFS的各项功能都需要向RPC服务(rpcbind服务)注册,所以只有RPC服务(rpcbind服务)才能获取到NFS服务的各项功能对应的端口号(port number),PID,NFS在主机所监听的IP等信息,而NFS客户端也只能通过向RPC服务(rpcbind服务)询问才能找到正确的端口。也就是说,NFS需要有RPC服务(rpcbind服务)的协助才能成功对外提供服务。从上面的描述,我们不难推断,无论是NFS客户端还是NFS服务器端,当要使用NFS时,都需要首先启动RPC服务(rpcbind服务),NFS服务必须在RPC服务启动之后启动,客户端无需启动NFS服务,但需要启动RPC服务。
注意:
NFS的RPC服务,在CentOS5.X下名称为portmap,在CentOS6.x下名称为rpcbind
角色 | 主机名 | eth0(外网) | eth1(内网) |
---|---|---|---|
C1-NFS服务器端 | nfs01 | 10.0.0.31 | 172.16.1.31 |
C2-Rsync存储服务器 | backup | 10.0.0.41 | 172.16.1.41 |
B2-nginx web服务器 | web01 | 10.0.0.8 | 172.16.1.8 |
hostname web01
sed -i 's#chensiqi#web01#g' /etc/sysconfig/network
从第二阶段开始教学笔记中出现的服务器配置没有意外的情况下,它的IP等相关信息都是统一的,第二阶段的教学当中一共大概会出现8-10台必须的服务器(搭建不同的业务),最终这些服务器就组成了我们第二阶段最后的考试内容,10台规模的基础核心架构集群。
因此,我们在克隆虚拟机的时候,要统一克隆模版,因此建议大家,准备一个虚拟机的模版机,只做克隆用。模版机的相关优化及克隆准备工作,请参看http://www.cnblogs.com/chensiqiqi/p/6228006.html实战教学笔记的第六节
要部署NFS服务,需要安装下面的软件包:
注意:
有关RPC协议知识这里大家不必细究,详细说明可见本章结尾命令部分。
可使用如下命令查看默认情况下CentOS6.x里NFS软件的安装情况。
rpm -qa nfs-utils rpcbind
当不知道软件名字时候,可以用rpm -qa | grep -E "nfs-|rpcbind"
来过滤包含在引号内的字符串。grep -E这里相当于egrep。grep,egrep这两个命令在运维工作中非常常用并且很好用。CentOS6.8默认没有安装NFS软件包,可以使用yum -y install nfs-utils rpcbind
命令来安装NFS软件。
root@nfs01 ~]# yum -y install nfs-utils rpcbind
...忽略软件显示信息...
[root@nfs01 ~]# rpm -qa nfs-utils rpcbind
nfs-utils-1.2.3-70.el6_8.2.x86_64
rpcbind-0.2.0-12.el6.x86_64
如果出现rpcbind和nfs-utils开头的两个软件包,表示NFS服务端软件安装完毕
查看某个命令属于已经安装的哪个rpm包
[root@nfs01 backup]# which rpcinfo #查询命令绝对路径
/usr/sbin/rpcinfo
[root@nfs01 backup]# rpm -qf /usr/sbin/rpcinfo #查询某个命令属于已经安装的哪个rpm包
rpcbind-0.2.0-12.el6.x86_64
[root@nfs01 backup]# rpm -qf `which showmount`
nfs-utils-1.2.3-70.el6_8.2.x86_64
因为NFS及其辅助程序都是基于RPC(remote Procedure Call)协议的(使用的端口为111),所以首先要确保系统中运行了rpcbind服务。启动的实际操作如下:
[root@nfs01 backup]# /etc/init.d/rpcbind status #检查rpcbind服务状态
rpcbind 已停
[root@nfs01 backup]# /etc/init.d/rpcbind start #启动rpcbind服务
正在启动 rpcbind: [确定]
[root@nfs01 backup]# rpcinfo -p localhost #查看NFS服务向rpc服务注册的端口信息,因为NFS还没有启动,因此,没有太多注册的端口影射信息。
program vers proto port service
100000 4 tcp 111 portmapper
100000 3 tcp 111 portmapper
100000 2 tcp 111 portmapper
100000 4 udp 111 portmapper
100000 3 udp 111 portmapper
100000 2 udp 111 portmapper
#提示:111端口为rpcbind服务对外提供服务的主端口
[root@nfs01 backup]# /etc/init.d/nfs start #启动nfs服务
启动 NFS 服务: [确定]
关掉 NFS 配额: [确定]
启动 NFS mountd: [确定]
启动 NFS 守护进程: [确定]
Starting RPC idmapd: [ OK ]
特别提示:
如果不启动rpcbind服务直接启动nfs服务的会启动时失败。
从上面NFS服务启动过程可以看出,运行NFS服务默认需要启动的服务或进程至少有:NFS quotas(rpc.rquotad),NFS daemon(nfsd),NFS mountd(rpc.mountd)。可以通过执行如下命令查看启动NFS后,系统中运行的NFS相关进程:
[root@nfs01 ~]# ps -ef | egrep "rpc|nfs"
root 2179 2 0 07:38 ? 00:00:00 [rpciod/0]
rpc 2560 1 0 07:42 ? 00:00:00 rpcbind
root 2605 1 0 07:42 ? 00:00:00 rpc.rquotad #磁盘配额进程(remote quota server)
root 2610 1 0 07:42 ? 00:00:00 rpc.mountd #权限管理验证等(NFS mount daemon)
root 2617 2 0 07:42 ? 00:00:00 [nfsd4]
root 2618 2 0 07:42 ? 00:00:00 [nfsd4_callbacks]
root 2619 2 0 07:42 ? 00:00:00 [nfsd] #nfs主进程
root 2620 2 0 07:42 ? 00:00:00 [nfsd] #nfs主进程
root 2621 2 0 07:42 ? 00:00:00 [nfsd] #nfs主进程
root 2622 2 0 07:42 ? 00:00:00 [nfsd] #nfs主进程
root 2623 2 0 07:42 ? 00:00:00 [nfsd] #nfs主进程
root 2624 2 0 07:42 ? 00:00:00 [nfsd] #nfs主进程
root 2625 2 0 07:42 ? 00:00:00 [nfsd] #nfs主进程
root 2626 2 0 07:42 ? 00:00:00 [nfsd] #nfs主进程
root 2657 1 0 07:42 ? 00:00:00 rpc.idmapd #name mapping daemon
root 2728 1525 0 08:06 pts/0 00:00:00 egrep rpc|nfs
NFS服务的主要任务是共享文件系统数据,而文件系统数据的共享离不开权限问题。所以NFS服务器启动时最少需要两个不同的进程,一个是管理NFS客户端是否能够登入的rpc.nfsd主进程,另一个用于管理NFS客户端是否能够取得对应权限的rpc.mountd进程。如果还需要管理磁盘配额,则NFS还要再加载rpc.rquotad进程。
服务或进程名 | 用途说明 |
---|---|
nfsd(rpc.nfsd) | rpc.nfsd主要功能是管理NFS客户端是否能够登入NFS服务端主机,其中还包含登入者的ID判别等 |
mountd(rpc.mountd) | rpc.mountd的主要功能则是管理NFS文件系统。当NFS客户端顺利通过rpc.nfsd登入NFS服务端主机时,在使用NFS服务器提供数据之前,它会去读NFS的配置文件/etc/exports来比对NFS客户端的权限,通过这一关之后,还会经过NFS服务端本地文件系统使用权限(就是owner,group,other权限)的认证程序。如果都通过了,NFS客户端就可以取得使用NFS服务器端文件的权限。注意,这个/etc/exports文件也是我们用来管理NFS共享目录的使用权限与安全设置的地方,特别强调,NFS本身设置的是网络共享权限,整个共享目录的权限还和目录自身系统权限有关 |
rpc.lockd(非必需) | 可用来锁定文件,用于多客户端同时写入 |
[root@nfs01 ~]# chkconfig rpcbind on
[root@nfs01 ~]# chkconfig nfs on
[root@nfs01 ~]# chkconfig --list rpcbind
rpcbind 0:off 1:off 2:on 3:on 4:on 5:on 6:off
[root@nfs01 ~]# chkconfig --list nfs
nfs 0:off 1:off 2:on 3:on 4:on 5:on 6:off
特别说明:
在很多大企业里,大都是统一按照运维规范将服务的启动命令放到/etc/rc.local文件里的,而不是用chkconfig管理的。把/etc/rc.local文件作为本机的重要服务档案文件,所有服务的开机自启动都必须放入/etc/rc.local。这样规范的好处是,一旦管理此服务器的人员离职,或者业务迁移都可以通过/etc/rc.local很容易的查看到服务器对应的相关服务,可以方便的运维管理。下面是把启动命令放入到/etc/rc.local文件中的配置信息,注意别忘了加上启动服务的注释。
[root@nfs01 ~]# tail -3 /etc/rc.local
#start up nfs service by chensiqi at 20170309
/etc/init.d/rpcbind start
/etc/init.d/nfs start
NFS服务的默认配置文件路径为:/etc/exports,并且默认是空的。
[root@nfs01 ~]# ls -l /etc/exports
-rw-r--r--. 1 root root 0 1月 12 2010 /etc/exports
[root@nfs01 ~]# cat /etc/exports
提示:
NFS默认配置文件/etc/exports其实是存在的,但是没有内容,需要用户自行配置。
/etc/exports文件位置格式为:
NFS共享的目录 NFS客户端地址1(参1,参2...)客户端地址2(参1,参2...)
NFS共享的目录 NFS客户端地址(参1,参2...)
查看exports语法文件格式帮助的方法为:
执行man exports命令,然后切换到文件结尾,可以快速看如下样例格式:
[root@nfs01 ~]# cat /etc/exports
/data 172.16.1.0/24(rw,sync)
命令说明:
/data :nfs的共享目录路径
172.16.1.0/24:允许挂载我的共享目录的IP地址段
(rw):可读可写
(sync):实时同步
修改配置文件以后,必须重启nfs服务
[root@nfs01 ~]# /etc/init.d/nfs reload
[root@nfs01 ~]# showmount -e #查看生效的nfs配置文件规则
Export list for nfs01:
/data 172.16.1.0/24
[root@nfs01 ~]# grep nfs /etc/passwd
nfsnobody:x:65534:65534:Anonymous NFS User:/var/lib/nfs:/sbin/nologin
[root@nfs01 ~]# chown -R nfsnobody.nfsnobody /data
[root@nfs01 ~]# ll -d /data
drwxr-xr-x. 2 nfsnobody nfsnobody 4096 3月 9 09:43 /data
特别提示:
如果不授权属主属组,那么共享目录挂载以后将不遵循配置文件exports的设定好的读写规则。虽然也能正常挂载,但是会导致写入文件时提示没有权限。
[root@nfs01 ~]# touch /mnt/a
touch: 无法创建"/data/a": 权限不够
[root@nfs01 ~]# mount 172.16.1.31:/data /mnt
提示:
没有报错就说明挂载成功了。
[root@nfs01 ~]# ls /data #查看目录
[root@nfs01 ~]# ls /mnt #查看目录
[root@nfs01 ~]# touch /data/a #在data目录创建文件a
[root@nfs01 ~]# ls /data #data共享目录有a
a
[root@nfs01 ~]# ls /mnt #mnt挂载目录也有a
a
[root@nfs01 ~]# touch /mnt/b #在mnt目录创建文件b
[root@nfs01 ~]# ls /data #data共享目录有b
a b
[root@nfs01 ~]# ls /mnt #mnt挂载目录也有b
a b
提示:
当配置文件exports里设定了(rw,rsync)后,表示目录可读写,并且是实时同步的。也就是说,在其中任意一个挂载目录里改变了里面的内容信息,那么所有挂载目录包含源共享目录的内容信息同步改变。
至此NFS服务器端配置完毕
[root@web01 ~]# yum -y install nfs-utils
提示:不安装则不能挂载nfs共享目录
[root@web01 ~]# showmount -e 172.16.1.31
Export list for 172.16.1.31:
/data 172.16.1.0/24
[root@web01 ~]# mount -t nfs 172.16.1.31:/data /mnt
提示:-t nfs 可以省略
[root@web01 ~]# ls /mnt
a b
[root@web01 ~]# touch /mnt/chensiqi #创建文件
[root@web01 ~]# ls /mnt
a b chensiqi
[root@web01 ~]# ssh [email protected] "ls /data" #远程看一下nfs服务器端共享目录
root@172.16.1.31's password:
a
b
chensiqi
配置客户端mount挂载命令使挂载开机自动执行,这里有两种方法,如下:
第一种方法:将挂载命令放在/etc/rc.local里
缺点:偶尔开机挂载不上,工作中除了开机自启动配置,还要对是否挂载做监控
echo "mount -t nfs 172.16.1.31:/data /mnt"
第二种方法,将挂载命令放在/etc/fstab里
[root@web01 ~]# tail -1 /etc/fstab
172.16.1.31:/data /mnt nfs defaults 0 0
其实所谓配置方法,这里有一个误区,如下:
例如:
[root@web01 ~]# chkconfig --list netfs
netfs 0:关闭 1:关闭 2:关闭 3:关闭 4:关闭 5:关闭 6:关闭
[root@web01 ~]# chkconfig netfs on
[root@web01 ~]# chkconfig --list netfs
netfs 0:关闭 1:关闭 2:启用 3:启用 4:启用 5:启用 6:关闭
如此一来,我们也可以通过fstab进行开机挂载了nfs网络文件系统了。同学们可以自行仿照测试。
至此NFS客户端配置完毕
rw | Read-write,表示可读写权限 |
---|---|
ro | Read-only,表示只读权限 |
sync | (同步,实时)请求或吸入数据时,数据同步写入到NFS Server的硬盘后才返回 |
async | (异步)写入时数据会先写到内存缓冲区,只到硬盘有空档才会写入磁盘,这样可以提升写入速率!风险为若服务器挂掉或不正常关机,会损失缓冲区中未写入磁盘的数据 |
no_root_squash | 访问NFS Server共享目录的用户如果是root,它对该共享目录具有root权限。 |
root_squash | 如果访问目录的是root,则它的权限将被压缩成匿名用户。 |
all_squash | 不管访问共享目录的用户身份如何,它的权限都被压缩成匿名用户。 |
anonuid | 指定共享文件夹里文件所有者的uid号:例如:(rw,squash,anonuid=12306,anongid=12306) |
anongid | 指定共享文件夹里文件所有者的gid号:例如:(rw,squash,anonuid=12306,anongid=12306) |
实例一:
共享/data 目录给10.0.0.0/24整个网段可读可写。
实例二:
nfs服务器:172.16.1.31
共享下面两个目录:
/app/w :要求可读可写,同步数据,所有用户压缩为匿名用户
/app/r:要求只读,同步数据,所有用户都压缩为匿名用户
客户端上面的要求:
backup服务器,把nfs服务器的/app/r挂载到/data/r
web01服务器,把nfs服务器的/app/w挂载到/data/w
exports配置文件的相关参数,摘自man exports:
EXAMPLE
# sample /etc/exports file
/ master(rw) trusty(rw,no_root_squash)
/projects proj*.local.domain(rw)
/usr *.local.domain(ro) @trusted(rw)
/home/joe pc001(rw,all_squash,anonuid=150,anongid=100)
/pub *(ro,insecure,all_squash)
上述各个列的参数含义如下:
客户端地址 | 具体地址 | 说明 |
---|---|---|
授权单一客户端访问NFS | 10.0.0.30 | 一般情况,生产环境中此配置不多 |
授权整个网段可访问NFS | 10.0.0.0/24 | 其中的24等同于255.255.255.0,指定网段生产环境中常见的配置。配置简单,维护方便 |
授权整个网段可访问NFS | 10.0.0.* | 指定网段的另外写法(不推荐使用) |
授权某个域名客户端访问 | nfs.chensiqiedu.com | 此方法生产环境中一般不常用 |
授权整个余名客户端访问 | *.chensiqiedu.com | 此方法生产环境中一般不常用 |
1)(rw,sync) :可读可写,同步传输
2)(ro,async):只读,异步传输。
详细说明:
rw或者ro,主要控制的是所有客户端用户(包含root)的读写权限。如果设置成ro,就算root也只有读权限。它是NFS权限设置的第一道总闸阀门。
sync:同步传输,实时进行。
async:异步传输:攒一会在传输。
3)root_squash:将root账户在共享目录里的身份降低为匿名者(默认nfsnobody)身份
4)no_root_squash:不降低root账户在共享目录的身份,身份还是root
5)all_squash:将所有访问用户在共享目录里的身份都降低为匿名者(默认nfsnobody)身份
详细说明:
- 匿名者身份默认情况下就是NFS服务器端的虚拟账户角色,也就是nfsnobody。这是最低的身份,所有NFS客户端共享目录的访问者都被附加了这个身份,这也就意味者,如果文件的属主属组是nfsnobody的话,所有访问者对该文件都拥有全部所有权。
- 所谓身份并不是访问权限,而是用户在共享目录里创建的文件的属主和属组。
- 一旦身份被降低那么在共享目录里创建的文件的属主和属组就是变成了默认情况下的nfsnobody。这也就意味着,权限系统对你所创建的文件不做任何保护(任何访问者都可以查看,修改,删除)
- [x] 所谓root_squash:
- 使用这个参数意味着root在共享目录里创建的任何文件都不受保护,任何人(所有用户)都可以读取,修改,删除)。
- 而非root用户则不降低权限,在共享目录里创建的文件的属主和属组统一为nobody(身份隐藏了),这种情况下,所有普通用户之间只能互相查看文件,并不能任意修改和删除并且你还无法知道是谁创建的文件,每个普通用户只能修改或删除自己创建的文件。
- root用户虽然被降低了身份,但是并没有降低他的管理者权限,也就是说它仍旧能对所有共享目录里的所有文件进行查看,修改,删除操作。
- 如果这类参数默认为空的话,那么NFS将默认使用这个参数。
- [x] 所谓no_root_squash:
- 使用这个参数意味着不对root进行降低身份的操作,也就是说root在共享目录里创建的文件的属主属组仍旧为root(不能被普通用户修改和删除)。
- 非root用户同root_squash一样,并不降低权限。
- [x] 所谓all_squash:
- 使用这个参数意味着对所有访问NFS共享目录的用户进行降低身份的操作。也就是说,所有用户只要在共享目录里创建文件,那么文件的属主属组就是默认情况下的nfsnobody。
- 在这个模式下,任何nfs客户端的任何访问用户都可以对共享目录里的任何文件进行查看,修改,删除操作
6)anonuid和anongid:指定NFS虚拟账户的uid或gid
- 这两个参数主要用来修改NFS默认的虚拟账户nfsnobody。可以通过指定虚拟账户的uid和gid的方式修改默认的虚拟账户的账户名称和所属组。
1)NFS客户端挂载后,往共享目录写入数据时卡住了
2)NFS服务端,重启restart服务,客户端如果写入数据卡住了。
解答:
1,nfs服务端重启之后,共享文件夹进入grace time(无敌时间)
2,客户端在服务端重启后写入数据大概要等90秒
3,nfs配置文件:/etc/sysconfig/nfs
[root@backup ~]# sed -n '45,55p' /etc/sysconfig/nfs
# When there are no active clients, changing these values
# can be done in a single server restart.
#
#NFSD_V4_GRACE=90 # 无敌时间
#NFSD_V4_LEASE=90 # 无敌时间
#NLM_GRACE_PERIOD=90 # 无敌时间
#
#
#
# Optional arguments passed to rpc.mountd. See rpc.mountd(8)
#RPCMOUNTDOPTS=""
#说明:
NFSD_V4_GRACE=90 <===>/proc/fs/nfsd/nfsv4gracetime
NFSD_V4_LEASE=90 <===>/proc/fs/nfsd/nfsv4leasetime
NLM_GRACE_PERIOD=90 <===>/proc/fs/nfsd/nfsv4recoverydir
这三条是控制无敌时间的,去掉#直接修改时间即可,改后别忘了重启服务。一旦启用了这三条,/proc临时目录下便会生成对应的临时文件
在NFS服务端可以通过cat /var/lib/nfs/etab 查看服务端配置参数的细节。在NFS客户端可以通过cat /proc/mounts查看mount的挂载参数细节。
通过如下命令在NFS客户端测试挂载获取的默认挂载参数:
[root@backup ~]# grep mnt /proc/mounts
nfs01:/data/ /mnt nfs4 rw,relatime,vers=4,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,port=0,timeo=600,retrans=2,sec=sys,clientaddr=172.16.1.41,minorversion=0,local_lock=none,addr=172.16.1.31 0 0
NFS Client mount 挂载参数列表
mount参数 | 参数功能 | 默认参数 |
---|---|---|
fg;bg | 当客户端挂载时,可以选择前台fg挂载或者后台bg挂载,后台挂载不影响前台其他操作,如果网络不稳建议bg比较妥当 | fg |
soft;hard | soft短挂载,当timeout出现时可能会造成资料丢失,不建议使用 | hard |
intr | 当使用hard挂载的资源timeout后,若有指定intr参数,可以在timeout后把它中断掉,这避免出问题时系统整个被NFS锁死,建议使用intr | 无 |
proto=udp | 使用UDP协议来传输资料,在LAN中会有比较好的性能。若要跨越Internet的话,使用pro=tcp多传输的数据会有比较好的纠错能力 | proto=tcp |
mount -o参数对应的选项:
|参数|参数意义|系统默认值|
|suid;nosuid|当挂载的文件系统上有任何SUID的程序时,只要使用nosuid就能够取消设置SUID的功能。|suid|
|--|--|--|
|rw;ro|可以指定文件系统是只读(ro)或可写(rw)|rw|
|dev;nodev|是否可以保留装置文件的特殊功能?一般来说只有/dev才会有特殊的装置,因此可以选择nodev|dev|
|exec;noexec|是否具有执行文件的权限?如果想要挂载的仅是普通资源数据区(例如:图片,附件),那么可以选择noexec|exec|
|user;nouser|是否允许用户进行文件的挂载与卸载功能?如果要保护文件系统,最好不要提供用户进行挂载与卸载|nouser|
|auto;noauto|这个auto指的是“mount -a”时会不会被卸载的项目,如果不需要这个分区随时被挂载,可以设置为noauto|auto|
某网友问:在企业生产环境中,NFS客户端挂载有没有必须要加的参数,比如,加noexec,nosuid,nodev,bg,soft,rsize,wsize等参数。
解答:
这个问题属于mount挂载优化内容(有些参数也适合其他文件系统),一般来说要适当加挂载参数,但是,最好是先做好测试,用数据来说话,才能更好的确定到底是挂载还是不挂载。
在企业工作场景,一般来说,NFS服务器共享的只是普通静态数据(图片,附件,视频),不需要执行suid,exec等权限,挂载的这个文件系统只能作为数据存取之用,无法执行程序,对于客户端来讲增加了安全性,例如:很多木马篡改站点文件都是由上传入口上传的程序到存储目录,然后执行的。
因此在挂载的时候,用下面的命令很有必要:
mount -t nfs -o nosuid,noexec,nodev,rw 172.16.1.31:/data /mnt
下面介绍几个在企业生产环境下,NFS性能优化挂载的例子。
1)禁止更新目录及文件时间戳挂载,命令如下:
mount -t nfs -o noatime,nodiratime 172.16.1.31:/data /mnt
2)安全加优化的挂载方式如下:
mount -t nfs -o nosuid,noexec,nodev,noatime,nodiratime,intr,rsize=131072,wsize=131072 172.16.1.31:/data /mnt
3)默认的挂载方式如下:
mount -t nfs 172.16.1.31:/data /mnt
如果是本地文件系统,使用如下命令:
mount /dev/sdb1 /mnt -o defaults,async,noatime,data=writeback,barrier=0
注意:
如果本地文件系统挂载时,如果加入nodiratime会报错
在CentOS6.5 6.6 6.8等服务器端和客户端环境下,可使用如下命令参数:
mount -t nfs -o noatime,nodiratime,nosuid,noexec,nodev,rsize=131072 172.16.1.31:/data /mnt
经过实际测试,CentOS6.6 6.8默认的挂载参数性能还是不错的。
mount -t nfs 172.16.1.31:/data /mnt
注意:非性能的参数越多,速度可能会变慢
下面是优化选项说明:
NFS服务可以让不同的客户端挂载使用同一个共享目录,也就是将其作为共享存储使用,这样可以保证不同节点客户端数据的一致性,在集群架构环境中经常会用到。如果是windows和Linux混合环境的集群系统,可以用samba来实现。
优点:
局限:
应用建议:
大中小型网站(参考点2000万/日PV以下)线上应用,都有用武之地。门户站也会有应用,生产场景应该多把数据的访问往前推,即尽量把静态存储里的资源通过CDN或缓存服务器提供服务,如果没有缓存服务或架构不好,存储服务器数量再多也是扛不住压力的,而且用户体验会很差。
NFS客户端实现fstab开机自启动挂载
现象:nfs开机挂载卸载了/etc/fstab中,结果无法开机自动挂载nfs
解答:
1,nfs客户对岸挂载命令放在/etc/rc.local实现自动挂载
2,开机自启动netfs服务,然后才能实现fstab的开机自动挂载nfs文件系统(linux开机时在加载网络之前就会加载/etc/fstab)
1,fstab文件被错误修改,导致在开机启动linux时候出现错误,提示让你恢复系统设置。
1)开机时出现错误提示
2)输入root用户密码后,进入到用户操作界面
3)打开vim /etc/fstab 文件,我们发现fstab文件是只读的。也就是说目前只能看不能改。
4)退出/etc/fstab。在命令行输入命令
mount -o remount,rw /
的意思是将整个根目录已可读可写rw的方式重新挂载一边remount
5)我们再打开/etc/fstab 就会发现只读模式没了
6)赶紧修改fstab然后重启服务器。
2,光盘救援模式恢复(用linux光盘修复系统)
1)调整开机bios设置光盘启动,然后挂载光盘
2)重启系统,进入光盘救援模式
3)一路回车,不加在网络模式
4)一路回车,选择第一个
进入这个页面
5)输入命令