LINUX下多路径(multi-path)介绍及使用 【转载】

原文链接:http://zhumeng8337797.blog.163.com/blog/static/1007689142013416111534352/

一、什么是多路径
普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。
多路径的主要功能就是和存储设备一起配合实现如下功能: 
1.故障的切换和恢复 
2.IO流量的负载均衡 
3.磁盘的虚拟化 
由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。比如EMC公司基于linux下的多路径软件,就需要单独的购买license。好在, RedHat和Suse的2.6的内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。
 
 
二、Linux下multipath介绍,需要以下工具包:
在CentOS 5中,最小安装系统时multipath已经被安装,查看multipath是否安装如下:
 
1、device-mapper-multipath:即multipath-tools。主要提供multipathd和multipath等工具和 multipath.conf等配置文件。这些工具通过device mapper的ioctr的接口创建和配置multipath设备(调用device-mapper的用户空间库。创建的多路径设备会在/dev /mapper中)。

2、 device-mapper:主要包括两大部分:内核部分和用户部分。内核部分主要由device mapper核心(dm.ko)和一些target driver(md-multipath.ko)。核心完成设备的映射,而target根据映射关系和自身特点具体处理从mappered device 下来的i/o。同时,在核心部分,提供了一个接口,用户通过ioctr可和内核部分通信,以指导内核驱动的行为,比如如何创建mappered device,这些divece的属性等。linux device mapper的用户空间部分主要包括device-mapper这个包。其中包括dmsetup工具和一些帮助创建和配置mappered device的库。这些库主要抽象,封装了与ioctr通信的接口,以便方便创建和配置mappered device。multipath-tool的程序中就需要调用这些库。 
3、dm-multipath.ko和dm.ko:dm.ko是device mapper驱动。它是实现multipath的基础。dm-multipath其实是dm的一个target驱动。 
4、scsi_id: 包含在udev程序包中,可以在multipath.conf中配置该程序来获取scsi设备的序号。通过序号,便可以判断多个路径对应了同一设备。这个是多路径实现的关键。scsi_id是通过sg驱动,向设备发送EVPD page80或page83 的inquery命令来查询scsi设备的标识。但一些设备并不支持EVPD 的inquery命令,所以他们无法被用来生成multipath设备。但可以改写scsi_id,为不能提供scsi设备标识的设备虚拟一个标识符,并输出到标准输出。multipath程序在创建multipath设备时,会调用scsi_id,从其标准输出中获得该设备的scsi id。在改写时,需要修改scsi_id程序的返回值为0。因为在multipath程序中,会检查该直来确定scsi id是否已经成功得到。 
三、multipath在CentOS 5中的基本配置过程: 
1、安装和加载多路径软件包 
# yum –y install device-mapper device-mapper-multipath
# chkconfig –level 2345 multipathd on #设置成开机自启动multipathd
# lsmod |grep dm_multipath #来检查安装是否正常
  
如果模块没有加载成功请使用下列命初始化DM,或重启系统 
---Use the following commands to initialize and start DM for the first time: 
# modprobe dm-multipath 
# modprobe dm-round-robin 
# service multipathd start 
# multipath –v2

2、配置multipath:
Multipath的配置文件是/etc/multipath.conf , 如需要multipath正常工作只需要如下配置即可:(如果需要更加详细的配置,请看本文后续的介绍)
blacklist {
devnode "^sda"
}
defaults {
user_friendly_names yes
path_grouping_policy multibus
failback immediate
no_path_retry fail
}
# vi /etc/multipath.conf
 
 
3、 multipath基本操作命令 
# /etc/init.d/multipathd start #开启mulitipath服务 
# multipath -F #删除现有路径 
# multipath -v2 #格式化路径 
# multipath -ll #查看多路径
 
如果配置正确的话就会在/dev/mapper/目录下多出mpath0、mpath1等之类设备。
 
用fdisk -l命令可以看到多路径软件创建的磁盘,如下图中的/dev/dm-[0-3]
 
 
4、 multipath磁盘的基本操作 
要对多路径软件生成的磁盘进行操作直接操作/dev/mapper/目录下的磁盘就行.
在对多路径软件生成的磁盘进行分区之前最好运行一下pvcreate命令:
# pvcreate /dev/mapper/mpath0
# fdisk /dev/mapper/mpath0
 
用fdisk对多路径软件生成的磁盘进行分区保存时会有一个报错,此报错不用理会。
fdisk对多路径软件生成的磁盘进行分区之后,所生成的磁盘分区并没有马上添加到/dev/目录下,此时我们要重启IPSAN或者FCSAN的驱动,如果是用iscsi-initiator来连接IPSAN的重启ISCSI服务就可以发现所生成的磁盘分区了
# service iscsi restart
# ls -l /dev/mapper/
 
如上图中的mpath0p1和mpath1p1就是我们对multipath磁盘进行的分区
# mkfs.ext3 /dev/mapper/mpath0p1 #对mpath1p1分区格式化成ext3文件系统
# mount /dev/mapper/mpath0p1 /ipsan/ #挂载mpath1p1分区
 
 
 
 
四、multipath的高有配置
以上都是用multipath的默认配置来完成multipath的配置,比如映射设备的名称,multipath负载均衡的方法都是默认设置。那有没有按照我们自己定义的方法来配置multipath呢,当可以。
1、multipath.conf文件的配置
接下来的工作就是要编辑/etc/multipath.conf的配置文件
multipath.conf主要包括blacklist、multipaths、devices三部份的配置
blacklist配置
blacklist {
devnode "^sda"
}
Multipaths部分配置multipaths和devices两部份的配置。
multipaths {
multipath {
wwid **************** #此值multipath -v3可以看到
alias iscsi-dm0 #映射后的别名,可以随便取
path_grouping_policy multibus #路径组策略
path_checker tur #决定路径状态的方法
path_selector "round-robin 0" #选择那条路径进行下一个IO操作的方法
}
Devices部分配置
devices {
device {
vendor "iSCSI-Enterprise" #厂商名称
product "Virtual disk" #产品型号
path_grouping_policy multibus #默认的路径组策略
getuid_callout "/sbin/scsi_id -g -u -s /block/%n" #获得唯一设备号使用的默认程序
prio_callout      "/sbin/acs_prio_alua %d" #获取有限级数值使用的默认程序
path_checker readsector0 #决定路径状态的方法
path_selector "round-robin 0" #选择那条路径进行下一个IO操作的方法
failback        immediate #故障恢复的模式
   no_path_retry      queue #在disable queue之前系统尝试使用失效路径的次数的数值
  rr_min_io       100 #在当前的用户组中,在切换到另外一条路径之前的IO请求的数目
}
}
如下是一个完整的配置文件
blacklist {
devnode "^sda"
}
defaults {
user_friendly_names no
}
multipaths {
multipath {
wwid 14945540000000000a67854c6270b4359c66c272e2f356321
alias iscsi-dm0
path_grouping_policy multibus
path_checker tur
path_selector "round-robin 0"
}
multipath {
wwid 14945540000000000dcca2eda91d70b81edbcfce2357f99ee
alias iscsi-dm1
path_grouping_policy multibus
path_checker tur
path_selector "round-robin 0"
}
multipath {
wwid 1494554000000000020f763489c165561101813333957ed96
alias iscsi-dm2
path_grouping_policy multibus
path_checker tur
path_selector "round-robin 0"
}
multipath {
wwid 14945540000000000919ca813020a195422ba3663e1f03cc3
alias iscsi-dm3
path_grouping_policy multibus
path_checker tur
path_selector "round-robin 0"
}
}
devices {
device {
vendor "iSCSI-Enterprise"
product "Virtual disk"
path_grouping_policy multibus
getuid_callout "/sbin/scsi_id -g -u -s /block/%n"
path_checker readsector0
path_selector "round-robin 0"
}
}
获取wwid的方法:
(1)默认情况下,将使用 /var/lib/multipath/bindings 内的配置设定具体每个多路径设备名,如果在/etc/multipath.conf中有设定各wwid 别名,别名会覆盖此设定。
 
(2)# multipath -v3命令查找
 
2、负载均衡测试
使用dd命令来对设备进行写操作,并同时通过iostat来查看I/0状态,命令及输出如下: 
# dd if=/dev/zero of=/dev/mapper/iscsi-dm1p1 
开启另外一个终端用以下命令查看IO情况
# iostat 10 10
 
通过上述输出,我们看到,在对/dev/mapper/iscsi-dm1p1读写时,实际上是通过对/dev/md-1包含的当前active的所有设备,即/dev/sde1,/dev/shl这2条路径来完成对实际的LUN的写过程。
3、路径切换测试
首先,我们拔掉服务器上一根网线,经过不到10秒,我们看到:MPIO成功地从上述“失败”的路径/dev/sel切换到了另外一条路径/dev/sdh1上。


centos上iscsi+multipath多路径存储配置手册

 这是我在实际工程中所做的一个文档,拿出来给大家分享,如有异议,欢迎探讨。
目录
一:客户端安装iscsi包。
二:zai共享存储上为服务器划分磁盘空间。
三:启用iscsi设备。
四:安装dm-multipath包。
五:配置参数修改和测试。
 
一;客户端添加iscsi 安装包。
 
1 、服务器安装 iscsi initiator 包。安装包从安装光盘中找到
 
[email protected]~> rpm -qa |grep iscsi
iscsi-initiator-utils-6.2.0.868-0.7.el5
 
2 、在 /etc/iscsi/ 目录下 /etc/iscsi/initiatorname.iscsi  
查看此文件可发现主机端的 iqn号码。在 EVA command view管理软件中添加 HOST时需用到。



二:为服务器划分磁盘阵列的磁盘空间(即Virtual disk
 
具体详见存储配置。
 
三:启用ISCSI设备
 
1 、在服务器端,启动 ISCSI 服务:
 
[email protected]~> service iscsi start
 
2 、查询 ISCSI 设备( HP storageworks mpx100 target iqn 号码:(必须
 
[email protected]~> iscsiadm -m discovery -t sendtargets -p 192.168.14.1
 
192.168.14.1:3260,0  iqn.1986-03.com.hp:fcgw.mpx100.0.50014380025bad30.50014380025bad38


 
3 、登陆到 ISCSI 存储设备
[root@localhost~]# Iscsiadm –m node –T iqn.1986-03.com.hp:fcgw.mpx100.0.50014380025bad30.50014380025bad38 -p 192.168.14.1:3260 – l
 
上面命令是连续的,其中 iqn 号码为上面查询得到的号码, ip iscsi 存储中iscsi口 对外映射的地址。
 
4 、查看磁盘 :
 
[root@localhost ~]#  fdisk -l
 
Disk /dev/sda: 8795 MB, 8795105280 bytes
255 heads, 63 sectors/track, 1069 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
 
Device Boot Start End Blocks Id System
/dev/sda1 * 1 941 7558551 83 Linux
/dev/sda2 942 1068 1020127+ 82 Linux swap / Solaris
 
Disk /dev/sdb: 10.4 GB, 10487232000 bytes
255 heads, 63 sectors/track, 1275 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
 
Device Boot Start End Blocks Id System
 
得到新的盘符
 
5 、同样的方法添加另外一个 ISCSI 路径的 target 
(说明:一个 mpx100 的一个 ISCSI 端口有一个 iqn 号和一个 ip 地址)
添加成功后 fdisk –l  应该可以看到两个盘符。他们的容量都一样。这两个盘符对应的是同一个磁盘阵列下的同一个 LUN
 
6 :映射完成之后使用下面命令查看映射结果:
[email protected]~> iscsiadm -m node
192.168.14.1:3260,0 iqn.1986-03.com.hp:fcgw.mpx100.0.50014380025bad30.50014380025bad38
192.168.14.3:3260,0 iqn.1986-03.com.hp:fcgw.mpx100.0.50014380025bad30.50014380025bad3c
 
五:安装DM-multipath 软件包
 
由于需要实现存储设备的多路径访问及故障切换,故需要运行 multipath 服务,这个在 centos 中已经安装好了。如没有执行下面的命令。
(原理为EVA4400中的一个真实的virtual disk通过与2个冗余阵列控制器连接的2个MPX100B对外提供映射,故服务器上可以看到两个物理磁盘,但此磁盘对应一个真实的一个真实的virtual disk,故这两条路径间可以实现故障切换和负载均衡)
rpm –ivh device-mapper-1.02.13-6.9.i686.rpm
rpm –ivh multipath-tools-0.4.7-34.18.i686.rpm
安装完成后,使用命令modprobe dm_multipath来加载相应的模块,
可以使用lsmod |grep dm_multipath来检查安装是否正常。
 
六:配置文件的修改及创建
 
1:      etc/multipath.conf 是多路径软件的配置文件,其中大部分配置是注释掉的,可以将他保存为备用,然后新建一个 multipath.conf 文件,编辑新的配置文件:
 
实际有用的就是下面这些参数:其余参数都可以注释掉:
 
defaults {
user_friendly_names yes
udev_dir /dev
path_grouping_policy multibus
failback immediate
no_path_retry fail
 
}
 
保存退出
 
 
2:启动服务:
Service multipathd restart
 
启动成功后,我们会在 dev目录下看到下面的目录:
 
/dev/mapper/mpathn ,
/dev/mpath/mpathn ,
/dev/dm-n .
 
说明 其中 /dev/mapper/mpathn 是软件虚拟出来的多路径设备,这个可以被我们用来挂载使用。
/dev/mpath/mpathn 这个是 udev设备管理器创建的,不能用来挂载。
/dev/dm-n 这个是软件自身使用的,不能被软件以外使用。不可挂载。
 
 
3 : 用  multipath –ll  命令查看到两条活跃路径,他们之间互为 A/A  关系。断掉其中一根线路,那么系统自动切换到另外一条。
 
[email protected]~> multipath -ll
mpath2 (3600508b4000a5bfd0000b00000200000) dm-2 HP,HSV300
[size=2.0T][features=0][hwhandler=0]
\_ round-robin 0 [prio=2][active]
\_ 1:0:0:2 sdd 8:48 [active][ready]
\_ 2:0:0:2 sdf 8:80 [active][ready]
mpath1 (3600508b4000a5bfd0000b000001a0000) dm-1 HP,HSV300
[size=2.0T][features=0][hwhandler=0]
\_ round-robin 0 [prio=2][active]
\_ 1:0:0:1 sdb 8:16 [active][ready]
\_ 2:0:0:1 sdc 8:32 [active][ready]
mpath3 (3600508b4000a5bfd0000b00000350000) dm-3 HP,HSV300
[size=2.0T][features=0][hwhandler=0]
\_ round-robin 0 [prio=2][active]
\_ 1:0:0:3 sde 8:64 [active][ready]
\_ 2:0:0:3 sdg 8:96 [active][ready]
 
 
4:在多路径设备创建后,我们就可以像使用实际的物理设备样使用多路径设备了。前提是必须通过下面的命令将其标记为物理卷。
 
pvcreate /dev/mapper/mpath1
 
 
5:然后对磁盘进行分区和格式化
 
fdisk /dev/mapper/mpath1
 
(说明:这里有很多种说法,我这里是自己经验总结出来的,和官方文档不同,如有异议欢迎讨论)
 
分区之后,会在dev/mapper/目录下创建新的块设备,
 
/dev/mapper/mpath1p1 这个表示 mpath1设备下面的分区 1.
 
如果没有看到或者不匹配,使用 multipath –F  命令清除多路径设备缓存后,再用 multipath –v3  命令重新加载。
分区之后使用 fdisk –l 命令查看磁盘会看到 dm-1 磁盘下面已经有分区的信息了。
 
****************************************************
isk /dev/dm-1: 2197.9 GB, 2197949513728 bytes
255 heads, 63 sectors/track, 267218 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
 
Device Boot Start End Blocks Id System
/dev/dm-1p1  1 121577 976567221 83 Linux
 
mkfs.ext3 /dev/mapper/mpath0p1
****************************************************
 
6:最后将磁盘 mount挂载,就可以正常使用了。
 
7:将 multipathd服务设置成开机自启动
 
chkconfig multipathd on
 
 
8 :注意事项:
 
删除失效的iscsi 连接:
 
如果因为错误配置等原因创建了 iscsi  对应,系统不会自动删除,需手动删除。
 
例如:
 
[root@as-h-01 ~]#  iscsiadm -m node
192.168.1.51:3260,1 iqn.2006-01.com.openfiler:tsn.59dc8fc04fa2
 
我们看到上面有一个iscsi对应,但实际中这个对应已经失效,系统不会自动删除。
 
删除命名:
 
iscsiadm -m node -o delete -T iqn.2006-01.com.openfiler:tsn.59dc8fc04fa2 -p 192.168.1.51:3260
 
 
如果其中一条链路出现故障,那么在日志里面我们可以看到如下类似的信息:
 
 
[email protected]~>tail /var/log/messages
Dec 12 14:03:15 bhnfs1 kernel: iscsi: cmd 0x28 is not queued (8)
Dec 12 14:03:15 bhnfs1 kernel: iscsi: cmd 0x28 is not queued (8)
Dec 12 14:03:15 bhnfs1 multipathd: sdf: readsector0 checker reports path is down
Dec 12 14:03:15 bhnfs1 multipathd: sdg: readsector0 checker reports path is down
Dec 12 14:03:20 bhnfs1 kernel: iscsi: cmd 0x28 is not queued (8)
Dec 12 14:03:20 bhnfs1 multipathd: sdc: readsector0 checker reports path is down
Dec 12 14:03:20 bhnfs1 kernel: iscsi: cmd 0x28 is not queued (8)
Dec 12 14:03:20 bhnfs1 multipathd: sdf: readsector0 checker reports path is down
Dec 12 14:03:20 bhnfs1 kernel: iscsi: cmd 0x28 is not queued (8)
Dec 12 14:03:20 bhnfs1 multipathd: sdg: readsector0 checker reports path is down
 
 
 
[email protected]/etc>multipath -ll
sdc: checker msg is "readsector0 checker reports path is down"
sdf: checker msg is "readsector0 checker reports path is down"
sdg: checker msg is "readsector0 checker reports path is down"
mpath2 (3600508b4000a5bfd0000b00000200000) dm-2 HP,HSV300
[size=2.0T][features=0][hwhandler=0]
\_ round-robin 0 [prio=1][active]
\_ 1:0:0:2 sdd 8:48 [active][ready]
\_ 2:0:0:2 sdf 8:80 [failed][faulty]
mpath1 (3600508b4000a5bfd0000b000001a0000) dm-1 HP,HSV300
[size=2.0T][features=0][hwhandler=0]
\_ round-robin 0 [prio=1][active]
\_ 1:0:0:1 sdb 8:16 [active][ready]
\_ 2:0:0:1 sdc 8:32 [failed][faulty]
mpath3 (3600508b4000a5bfd0000b00000350000) dm-3 HP,HSV300
[size=2.0T][features=0][hwhandler=0]
\_ round-robin 0 [prio=1][active]
\_ 1:0:0:3 sde 8:64 [active][ready]
\_ 2:0:0:3 sdg 8:96 [failed][faulty]


RHEL6 配置multipath多路径软件连存储  2012-12-28 12:59:13

分类: LINUX

 RHEL6与5在多路径的配置上有一些小区别。scsi_id命令有些参数不再支持。在RHEL 6中获取磁盘的wwid可以通过–whitelist参数获取:[root@db1 ~]# scsi_id --whitelist /dev/sdg 360060160a2212f00f8139df761ece111

可以通过一条shell命令,来获取系统所有磁盘的wwid:

# for i in `cat /proc/partitions ? awk {'print $4'} ?grep sd`; do echo "### $i: `scsi_id --whitelist /dev/$i`"; done

在RHEL 5中,可以通过如下方式获取磁盘wwid:

# for i in `cat /proc/partitions ? awk {'print $4'} ?grep sd`; do echo "### $i: `scsi_id -g -u -s /block/$i`"; done

另外,RHEL 6中,多路径配置文件也出现变化:


 

  1. # multipath.conf written by anaconda
  2. defaults {
  3. user_friendly_names yes
  4. }
  5. blacklist {
  6. devnode "^(ramrawloopfdmddm-srscdst)[0-9]*"
  7. devnode "^hd[a-z]"
  8. devnode "^dcssblk[0-9]*"
  9. device {
  10. vendor "DGC"
  11. product "LUNZ"
  12. }
  13. device {
  14. vendor "IBM"
  15. product "S/390.*"
  16. }
  17. # don't count normal SATA devices as multipaths
  18. device {
  19. vendor "ATA"
  20. }
  21. # don't count 3ware devices as multipaths
  22. device {
  23. vendor "3ware"
  24. }
  25. device {
  26. vendor "AMCC"
  27. }
  28. # nor highpoint devices
  29. device {
  30. vendor "HPT"
  31. }
  32. wwid "20080930-1"
  33. wwid "20080930-1"
  34. device {
  35. vendor Cisco
  36. product Virtual_CD_DVD
  37. }
  38. wwid "*" //其实可以注释这项,这样就不需要单独填写blacklist_exceptions
  39. }
  40. blacklist_exceptions { //排除在黑名单之外的wwid
  41. wwid "360060160a2212f00a67e0b91f2dbe111"
  42. wwid "360060160a2212f0044a0fc6ef5eae111"
  43. }
  44. multipaths {
  45. multipath {
  46. uid 0 //磁盘读所属用户uid
  47. gid 0 //磁盘所属组gid
  48. wwid "360060160a2212f00a67e0b91f2dbe111" //wwid号
  49. mode 0600 //磁盘读写权限
  50. }
  51. multipath {
  52. wwid "360060160a2212f0044a0fc6ef5eae111"
  53. alias data //别名
  54. }
  55. ... ... //还可以根据实际情况,配置其它磁盘的别名、uid、gid、mode etc...
  56. }


 

配置完了之后,重启multipathd服务,之后通过multipath -ll查看经过多路径软件绑定后的磁盘。

注意,如果要对磁盘进行格式化,请采用/dev/mapper/[alias]这类设备名进行fdisk。

你可能感兴趣的:(Linux)