第一部分
硬件
服务器:超威(SUPERMICRO)刀片机一刀(内存8G、硬盘2T)
存储:主控:双控制器IPSAN(每个控制器4个网口,最左侧1个管理口),容量64T。扩展柜:容量64T
系统
服务器:centos6.4 64位
存储:web端操作
第二部分
存储web端配置
依次操作如下:
1、从管理口登录存储web
2、选择控制器网卡模式为系统IP模式(可简化网络配置),设置两块控制器的target IP
3、创建2个磁盘组,为每个磁盘组增设一块“私有热备”盘,每个磁盘组的Raid级别均为Raid5
4、基于每个磁盘组创建1个卷组,共创建2个卷组
5、基于每个卷组创建2个逻辑卷,共创建4个逻辑卷
第三部分
服务器iscsi安装
1、服务器装好centos6.4 64位系统desktop版,配置好IP。
2、用以下命令检查iscsi rpm包
rpm -qa | grep iscsi
检查结果:
3、若没有检查到iscsi rpm包,从rpm包网站(http://rpm.pbone.net/)下载与系统版本相适应的 iscsi rpm包,并安装。安装命令如下:
rpm -ivh iscsi-initiator-utils-devel-6.2.0.873-2.el6.x86_64
rpm -ivh iscsi-initiator-utils-devel-6.2.0.873-27.el6_9.x86_64
再次用命令 rpm -qa | grep iscsi 检查,以确认安装成功
拓展:
升级安装命令,安装高版本
rpm -Uvh xxxx1.rpm
降级安装命令,安装低版本
rpm -Uvh --oldpackage xxxx0.rpm
第四部分
用以下命令获取服务器的iqn号备用
cat /etc/iscsi/initiatorname.iscsi
结果如下:
第五部分
存储web配置
1、添加主机端口,在WWN/IQN处添加第四部分获取的服务器iqn号。(有几台服务器需要添加几个iqn号,即添加几个主机端口。)
2、创建主机,添加主机端口(将主机与主机端口关联),建立映射(将主机与之前添加的四个逻辑卷关联)。
第六部分
服务器配置(若服务器上检测不到target,需要执行)
用命令vi /etc/iscsi/iscsi.cnf编辑文件/iscsi.cnf , 将文件/iscsi.cnf 中如下几行前面的#号去掉。
第七部分
服务器配置——iscsi挂载
1、执行如下命令,重启iscsi服务
service iscsi start #启动iscsi服务
service iscsid start #启动iscsid服务
chkconfig iscsi on #设置iscsi开机启动
chkconfig iscsid on #设置iscsid开机启动
service iscsi status #查看iscsi的状态。若查询的状态为stop,只要iscsi的rpm包安装正确,不用担心。在2中会自动启动。
service iscsid status #查看iscsid的状态。#查看iscsid的状态。若查询的状态为stop,只要iscsi的rpm包安装正确,不用担心。在2中会自动启动。
2、依次执行如下命令,及命令执行结果
[root@localhost ~]# iscsiadm -m discovery -t sendtargets -p 100.13.14.21:3260
100.13.14.21:3260,3 iqn.2008-08.com.znv:d200.ad00001473eb8f01:0
[root@localhost ~]# iscsiadm -m discovery -t sendtargets -p 100.13.14.22:3260
100.13.14.22:3260,16387 iqn.2008-08.com.znv:d200.ad00001473eb8f01:1
[root@localhost ~]# iscsiadm -m node -T iqn.2008-08.com.znv:d200.ad00001473eb8f01:0 -p 100.13.14.21:3260 -l
Logging in to [iface: default, target: iqn.2008-08.com.znv:d200.ad00001473eb8f01:0, portal: 100.13.14.21,3260] (multiple)
Login to [iface: default, target: iqn.2008-08.com.znv:d200.ad00001473eb8f01:0, portal: 100.13.14.21,3260] successful.
[root@localhost ~]# iscsiadm -m node -T iqn.2008-08.com.znv:d200.ad00001473eb8f01:1 -p 100.13.14.22:3260 -l
Logging in to [iface: default, target: iqn.2008-08.com.znv:d200.ad00001473eb8f01:1, portal: 100.13.14.22,3260] (multiple)
Login to [iface: default, target: iqn.2008-08.com.znv:d200.ad00001473eb8f01:1, portal: 100.13.14.22,3260] successful.
注:iscsiadm退出登入——参考
[root@localhost mapper]# iscsiadm -m node --targetname iqn.2008-08.com.znv:d200.ad00001473eb8f01:0 -p 100.13.14.21 -u
Logging out of session [sid: 1, target: iqn.2008-08.com.znv:d200.ad00001473eb8f01:0, portal: 100.13.14.21,3260]
Logout of [sid: 1, target: iqn.2008-08.com.znv:d200.ad00001473eb8f01:0, portal: 100.13.14.21,3260] successful.
[root@localhost mapper]# iscsiadm -m node --targetname iqn.2008-08.com.znv:d200.ad00001473eb8f01:1 -p 100.13.14.22 -u
Logging out of session [sid: 2, target: iqn.2008-08.com.znv:d200.ad00001473eb8f01:1, portal: 100.13.14.22,3260]
Logout of [sid: 2, target: iqn.2008-08.com.znv:d200.ad00001473eb8f01:1, portal: 100.13.14.22,3260] successful.
[root@localhost ~]# fdisk -l #执行该命令后会发现从存储映射过来的磁盘。(有几块控制器,较实际的磁盘数量,磁盘数会翻几倍)
第七部分
服务器配置——多路径配置
1、用以下命令检查mapper rpm包
rpm -qa | grep mapper
检查结果(类似如下7个):
device-mapper-multipath-libs-0.4.9-93.el6.x86_64
device-mapper-persistent-data-0.6.2-0.1.rc7.el6.x86_64
device-mapper-libs-1.02.117-7.el6_8.1.x86_64
device-mapper-event-1.02.117-7.el6_8.1.x86_64
device-mapper-event-libs-1.02.117-7.el6_8.1.x86_64
device-mapper-multipath-0.4.9-93.el6.x86_64
device-mapper-1.02.117-7.el6_8.1.x86_64
2、若没有检查到mapper rpm包,从rpm包网站(http://rpm.pbone.net/)下载与系统版本相适应的 mapper rpm包,并安装。安装命令如下:
rpm -ivh device-mapper-multipath-0.4.9-64.el6.x86_64.rpm
rpm -ivh device-mapper-multipath-libs-0.4.9-64.el6.x86_64.rpm
再次用命令 rpm -qa | grep mapper 检查,以确认安装成功
3、 复制文件multipath.conf到/etc下。
cp /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf /etc
文件夹/etc下multipath.conf的最简配置如下。(通过取消注释原配置行可实现修改。)
blacklist {
devnode "^sda"
}
defaults {
user_friendly_names yes
path_grouping_policy multibus
failback immediate
no_path_retry fail
}
4、依次执行如下命令,及结果
[root@localhost ~]# lsmod | grep dm_multipath
[root@localhost ~]# modprobe dm_multipath
[root@localhost ~]# modprobe dm_round_robin
[root@localhost ~]# lsmod | grep dm_multipath
dm_multipath 17916 1 dm_round_robin
dm_mod 102467 3 dm_multipath,dm_mirror,dm_log
[root@localhost ~]# chkconfig multipathd on
[root@localhost ~]# /etc/init.d/multipathd start
Starting multipathd daemon: [ OK ]
5、执行命令multipath -ll,可见多路径信息
第八部分
服务器配置——多路径设备分区
1、cd /dev/mapper 进入文件夹mapper下,可见多路径设备,如mpatha、mpathb等。
2、给多路径设备分区之前,执行一下命令,将其先初始化为物理卷。
3、给多路径设备分区
4、多路径设备分区完毕的结果
[root@localhost ~]# cd /dev/mapper/
[root@localhost mapper]# ls
control mpatha mpathap1 mpathb mpathbp1 mpathc mpathcp1 mpathd mpathdp1
第九部分
服务器配置——多路径分区格式化
1、用以下命令检查xfsprogs rpm包,是否安装。
rpm -qa | grep xfsprogs
2、若没有检查到xfsprogs rpm包,从rpm包网站(http://rpm.pbone.net/)下载与系统版本相适应的 xfsprogs rpm包(或者从系统iso镜像中提取),并安装。安装命令如下:
rpm -ivh xfsprogs-3.1.1-10.el6.x86_64.rpm
再次用命令 rpm -qa | grep xfsprogs 检查,以确认安装成功
3、执行以下命令依次格式化所有多路径分区。格式化命令及结果如下。
[root@localhost mapper]# date && mkfs.xfs -f /dev/mapper/mpathep1 && date
Tue Dec 25 17:02:41 CST 2018
meta-data=/dev/mapper/mpathep1 isize=256 agcount=32, agsize=268435455 blks
= sectsz=512 attr=2, projid32bit=0
data = bsize=4096 blocks=8388607488, imaxpct=5
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0
log =internal log bsize=4096 blocks=521728, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
Tue Dec 25 17:03:06 CST 2018
第十部分
服务器配置——多路径分区挂载
1、依次执行以下命令,对多路径分区进行挂载。
[root@localhost /]# mkdir data1
[root@localhost /]# blkid /dev/mapper/mpathep1
/dev/mapper/mpathep1: UUID="5c64e8a8-aca5-47f7-9b4c-20adc590687c" TYPE="xfs"
[root@localhost /]# vi /etc/fstab #编辑文件/etc/fstab实现多路径分区开机自动挂载。
[root@localhost /]# mount -a
[root@localhost /]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda3 1.8T 28G 1.7T 2% /
tmpfs 3.9G 72K 3.9G 1% /dev/shm
/dev/sda1 1.9G 59M 1.8G 4% /boot
/dev/mapper/mpathep1 32T 34M 32T 1% /data1
第十一部分
常用命令
问题:mkfs.ext4格式化多路径分区未成功。
转载于:https://blog.51cto.com/7136516/2336595