架设NFS服务器

架设NFS服务器

      • 架设NFS服务器
        • 实验环境
        • 在主节点上安装nfs以及rpcbind
        • 在从节点上安装nfs和rpcbind

实验环境

CentOS Linux release 7.1.1503 (Core),内核版本:3.10.0-229.el7.x86_64,在节点192.168.101.66节点上配置DNS服务器,并负责解析下面的10个节点ip以及主机名

192.168.101.66 #NFS服务器节点,同时也是hadoop的master节点
192.168.101.67
192.168.101.68
192.168.101.69
192.168.101.70
192.168.101.71
192.168.101.72
192.168.101.73
192.168.101.74
192.168.101.75

我修改上面所有节点的主机名,其具体如下,当然这个步骤完全不需要,我只是想让我的主机名不再使用默认的localhost:

$ su    # 进入root权限
$ vim /etc/hostname    #修改主机名

将对应节点的主机名修改为下面的值:

192.168.101.66 # 主机名为master
192.168.101.67 # 主机名为slave1
192.168.101.68 # 主机名为slave2
192.168.101.69 # 主机名为slave3
192.168.101.70 # 主机名为slave4
192.168.101.71 # 主机名为slave5
192.168.101.72 # 主机名为slave6
192.168.101.73 # 主机名为slave7
192.168.101.74 # 主机名为slave8
192.168.101.75 # 主机名为slave9

在主节点上安装nfs以及rpcbind

在主节点上安装nfs和rpcbind,并且按照下面的步骤开启nfs和rpcbind服务。

$ su  #进入root权限
$ yum install -y nfs-utils libnfsidmap rpcbind  #使用通配符将所有与nfs已经rpcbind相关的软件全部安装
$ yum -y install rpcbind  # 安装rpcbind
$ systemctl enable rpcbind.service  #设置rpcbind开机自启动
$ systemctl enable nfs-server.service #设置nfs服务开机自启动
$ systemctl start rpcbind.service #启动rpcbind,并且必须启动rpcbind,因为nfs的服务要注册在rpcbind中
$ systemctl start nfs-server.service  #启动nfs服务
$ systemctl status nfs  #查看nfs是否成功的启动
$ systemctl status rpcbind  #查看rpcbind的活动是否正常
$ netstat -aunltp | grep 进程号  #rpc监听在111端口,打开会发现,必须监听在111端口
$ systemctl start rpc-statd  
$ systemctl start nfs-idmapd #这个服务很重要,一定要开启
$ vim /etc/exports  #在其下进行下面的内容,将/home/hadoop进行挂载,并且数据同步写入到硬盘和内存
# 在/etc/exports中增加下面的内容,使得目录能够共享
/home/hadoop *(rw,sync,no_root_squash)
$ systemctl restart rpcbind  #重启rpcbind活动
$ systemctl restart nfs-server  #重启nfs服务

在从节点上安装nfs和rpcbind

在从节点上也需要安装rpcbind和nfs,按照下面的步骤在每个从节点上进行操作。

$yum install -y nfs-utils libnfsidmap rpcbind  #安装rpcbind和nfs服务
$ systemctl enable rpcbind.service  #设置rpcbind开机自启动
$ systemctl start rpcbind.service  #开启rpcbind服务
$ systemctl status rpcbind  #查看rpcbind的活动是否正常
$ showmount -e 192.168.101.66  #在所有的从节点上检查目录是否挂载成功
# 出现这部分内容说明挂载成功
Export list for 192.168.101.66:
/home/hadoop *     #这个信息的显示表示挂载成功
$ cd /
$ mkdir nfs_share
$ mount -t nfs 192.168.101.66:/home/hadoop  /nfs_share/
$ su hadoop
$ cd /nfs_share
$ ls  #查看是否和nfs服务器中的内容一样,一样说明挂载成功
$ mount  #查看会发现多了一些内容
$ vim /etc/fstab  #在其中增加下面的内容
# 在/etc/fstab中增加下面的内容,使得共享目录能够开启自动挂载
192.168.101.66:/home/hadoop  /nfs_share         nfs     defaults        1 1

你可能感兴趣的:(centos,服务器,内核,nfs,DNS服务器)