Linux下多路径multipath配置文档和相关概念文档格式.docx
《Linux下多路径multipath配置文档和相关概念文档格式.docx》由会员分享,可在线阅读,更多相关《Linux下多路径multipath配置文档和相关概念文档格式.docx(10页珍藏版)》请在冰豆网上搜索。
51:
48EDT2009x86_64x86_64x86_64GNU/Linux
#rpm-qa|grepdevice
device-mapper-event-1.02.32-1.el5
device-mapper-1.02.32-1.el5
device-mapper-multipath-0.4.7-30.el5
这些是需要安装的安装包,如果没有安装需要到安装光盘中
#rpm-ivhdevice-mapper-*
将以上这些包全部安装
#chkconfig--list|grepmultipath
multipathd0:
关闭1:
关闭2:
关闭3:
关闭4:
关闭5:
关闭6:
关闭
#chkconfigmultipathdon
可见,一套完整的multipath由下面几部分组成:
1.device-mapper-multipath
提供multipathd和multipath等工具和multipath.conf等配置文件。
这些工具通过devicemapper的ioctr的接口创建和配置multipath设备(调用device-mapper的用户空间库。
创建的多路径设备会在/dev/mapper中);
2.device-mapper
device-mapper包括两大部分:
内核部分和用户部分。
内核部分由device-mapper核心(multipath.ko)和一些targetdriver(dm-multipath.ko)构成。
dm-mod.ko是实现multipath的基础,dm-multipath其实是dm的一个target驱动。
核心完成设备的映射,而target根据映射关系和自身特点具体处理从mappereddevice下来的i/o。
同时,在核心部分,提供了一个接口,用户通过ioctr可和内核部分通信,以指导内核驱动的行为,比如如何创建mappereddevice,这些device的属性等。
用户空间部分包括device-mapper这个包。
其中包括dmsetup工具和一些帮助创建和配置mappereddevice的库。
这些库主要抽象,封装了与ioctr通信的接口,以便方便创建和配置mappereddevice。
device-mapper-multipath的程序中就需要调用这些库;
3.scsi_id
其包含在udev程序包中,可以在multipath.conf中配置该程序来获取scsi设备的序号。
通过序号,便可以判断多个路径对应了同一设备。
这个是多路径实现的关键。
scsi_id是通过sg驱动,向设备发送EVPDpage80或page83的inquery命令来查询scsi设备的标识。
但一些设备并不支持EVPD的inquery命令,所以他们无法被用来生成multipath设备。
但可以改写scsi_id,为不能提供scsi设备标识的设备虚拟一个标识符,并输出到标准输出。
multipath程序在创建multipath设备时,会调用scsi_id,从其标准输出中获得该设备的scsiid。
在改写时,需要修改scsi_id程序的返回值为0。
因为在multipath程序中,会检查该直来确定scsiid是否已经成功得到。
四、配置multipath
原理看了一堆,实际配置还是比较简单的。
配置文件只有一个:
/etc/multipath.conf。
配置前,请用fdisk-l确认已可正确识别盘柜的所有LUN逻辑单元号,HDS支持多链路负载均衡,因此每条链路都是正常的;
而如果是类似EMCCX300这样仅支持负载均衡的设备,则冗余的链路会出现I/OError的错误。
multipath.conf的配置参数、默认值,可参考:
1、编辑黑名单
默认情况下,multipath会把所有设备都加入到黑名单(devnode"
*"
),也就是禁止使用。
所以,我们首先需要取消该设置,把配置文件修改为类似下面的内容:
#vim/etc/multipath.conf
devnode_blacklist{
#devnode"
用#将此行注释掉
devnode"
hda"
wwid3600508e000000000dc7200032e08af0b
}
这里禁止使用hda,也就是光驱。
另外,还限制使用本地的sda设备,这个wwid,可通过下面的命令获得:
#scsi_id-g-u-s/block/sda
3600508e000000000dc7200032e08af0b
2、编辑默认规则
不同的device-mapper-multipath或操作系统发行版,其默认的规则都有点不同,以RedHatx86_64为例,其path_grouping_policy默认为failover失效转移,也就是主备的方式。
这明显不符合我们的要求。
(HDS支持多路径负载均衡,EMCCX300等只支持Failover)。
所以,我们需要修改默认的规则:
defaults{
udev_dir/dev
path_grouping_policymultibus
failbackimmediate
no_path_retryfail
user_friendly_nameyes
关键是path_grouping_policy一项,其他选项可参考说明文档。
3、启动服务及生成映射
#modprobedm-multipath
#servicemultipathdrestart
#multipath-v0
4、查看复合后的设备
#multipath-ll
会看到类似下面的信息:
mpath0(360060e80058e980000008e9800000007)
[size=20GB][features="
0"
][hwhandler="
]
\_round-robin0[prio=1][active]
\_3:
0:
7sdaa65:
160[active][ready]
\_round-robin0[prio=1][enabled]
\_4:
7sdas66:
192[active][ready]
\_5:
7sdbk67:
224[active][ready]
\_2:
7sdi8:
128[active][ready]
这说明,已由四条链路sdaa/sdas/sdbk/sdi复合成一条链路,设备名为mpath0。
状态正常的话,把multipathd设置为自启动:
#mkdir/oradata
#mkfs.ext3/dev/mapper/mpath0
#mkfs.ext3/dev/mapper/mpath1
#blkid/dev/mapper/mpath0生成该存储设备的UUID
#blkid/dev/mapper/mpath1
#vim/etc/fstab(修改该配置文件并添加如下)
UUID=47931c90-140b-45fe-9dfa-5a0f56810db3/oradataext3defaults00
保存退出
#mount-a
注意:
要使用哪块存储设备就在fastab里面挂载就可以了
5、使用mpath设备
用multipath生成映射后,会在/dev目录下产生多个指向同一条链路的设备:
/dev/mapper/mpathn
/dev/mpath/mpathn
/dev/dm-n
但它们的来源是完全不同的:
/dev/mapper/mpathn是multipath虚拟出来的多路径设备,我们应该使用这个设备;
/dev/mpath/mpathn是udev设备管理器创建的,实际上就是指向下面的dm-n设备,仅为了方便,不能用来挂载;
/dev/dm-n是软件内部自身使用的,不能被软件以外使用,不可挂载。
简单来说,就是我们应该使用/dev/mapper/下的设备符。
对该设备即可用fdisk进行分区,或创建为pv。
6、分区或创建lvm
以前,我考虑到从系统iostat看到的都是dm-n的设备,所以一直都是直接对dm-n操作。
但这会产生一个问题,就是没法分区。
而对/dev/mapper/mpathn设备操作就没有这问题。
只要要注意,用fdisk分区并保存后,必须刷新multipath的映射表,以便其创建分区对应的设备符,例如:
#fdisk-l/dev/mapper/mpath0
Disk/dev/mapper/mpath0:
214.7GB,214748364800bytes
255heads,63sectors/track,26108cylinders
Units=cylindersof16065*512=8225280bytes
DeviceBootStartEndBlocksIdSystem
/dev/mapper/mpath0p1126108209712478+83Linux
#multipath-F#删除现有路径
两个新的路径就会被删除
#multipath-v0#格式化路径
#ll/dev/mapper/mpath0p1
brw-rw----1rootdisk253,25月707:
40/dev/mapper/mpath0p1
同样的,mpathn或其分区都可用来做pv使用:
#pvcreate/dev/mapper/mpath0p1
#vgcreatetest/dev/mapper/mpath0p1
#lvcreate-L1g-nlv1test
#lvdisplay
#mkfs.ext3/dev/test/lv1
※注意:
根据网上的资料,有部分multipath版本存在与lvm兼容的问题。
具体表现是,使用device-mapper设备创建lvm完成,重启后,虽然lvm仍存在,但/dev/mapper下的设备丢失。
为了防止可能的意外,建议还是修改一下lvm的配置文件/etc/lvm/lvm.conf,加入:
types=["
device-mapper"
1]
7、其他
最简单的测试方法,是用dd往磁盘读写数据,然后用iostat观察各通道的流量和状态,以判断Failover失效转移或负载均衡方式是否正常:
#ddif=/dev/zeroof=/dev/mapper/mpath0
#iostat-k2
另外,如果是在由多台服务器构建集群环境中,为了让每台服务器识别的mpathn设备顺序一致,需进行wwid的绑定工作,请参考后面“自定义设备名称”中的内容。
五、答疑
1、为什么黑名单中不直接使用devnode"
sda"
呢?
因为按Linux对设备的编号,当设备从sda到sdz时,后一个设备应该是sdaa。
而multipath对黑名单的设置是以匹配的方式进行的,也就是说,如果你设置为devnode"
,那么除了sda为,sdaa、sdab等的设备(通道)都会被加入到黑名单中,而禁止使用。
当然,你也可以参考配置文件中的样式,以正规表达式的形式进行描述:
devnode"
^sda$"
。
但考虑到每次重启后,udev分配的盘符可能都不同(没有做udev绑定的情况),所以,我觉得以wwid的方式处理更可靠。
2、为存储定制特定的策略
在前面的配置中,我们已经在/etc/mulitpah.conf中配置了多路径的默认path_grouping_policy为multibus。
但有时候,同一台机器上如果连接了一个以上的存储时,可能默认规则并不完全适用。
这时,我们可以给特定的存储定制多路径符合的策略。
a、mulipath命令
该命令提供了一个-p的参数,可以修改默认策略,参数有:
-ppolicyforceallmapstospecifiedpolicy:
failover1pathperprioritygroup
multibusallpathsin1prioritygroup
group_by_serial1prioritygroupperserial
group_by_prio1prioritygroupperprioritylvl
group_by_node_name1prioritygrouppertargetnode
例如,执行:
#multipath-F
#multipath-pfailover-v0
有如下结果:
mpath18(360060e8010463ef004f2b79f00000006)
[size=320GB][features="
\_round-robin0[prio=2][active]
6sdaf65:
240[active][ready]
6sdv65:
80[active][ready]
\_round-robin0[enabled]
6sdb8:
16[active][ready]
6sdl8:
176[active][ready]
这说明,当你对mpath18设备读写时,sdaf、sdv会处于active状态,都有数据流,但sdb、sdl组成的链路是enabled,作为ready情况。
这为Failover(主备)情况,仅当sdaf、sdv组成的链路出现问题时,才会切换到sdb、sdl的链路上。
b、修改配置文件
可以在配置文件中为指定的存储定义策略。
首先,可以用multipath-v3-ll看看存储的信息,例如,我这里的机器就同时连接了两个不同的存储:
=====pathinfosdaa(mask0x5)=====
bus=1
dev_t=65:
160
size=10487040
vendor=HITACHI
product=OPEN-V
rev=6006
h:
b:
t:
l=2:
1:
24
tgt_node_name=0x50060e80058e9800
pathchecker=readsector0(internaldefault)
state=2
uid=360060e80058e980000008e9800000058(cache)
=====pathinfosdaf(mask0x5)=====
240
size=671088640
product=DF600F
rev=0000
l=3:
6
tgt_node_name=0x50060e8010463ef1
uid=360060e8010463ef004f2b79f00000006(cache)
默认情况下,multipath已经支持大部分常见的存储型号(可见multipath.conf.defaults),但不同的multipath版本可能都有些不同。
这时,建议参考存储的官方文档:
devices{
device{
vendor"
HITACHI"
//厂商名称
product"
OPEN-V"
//产品型号
path_grouping_policygroup_by_prio//默认的路径组策略
getuid_callout"
/sbin/scsi_id-p0x80-g-u-s/block/%n"
//获得唯一设备号使用的默认程序
path_checkerreadsector0//决定路径状态的方法
path_selector"
round-robin0"
//选择那条路径进行下一个IO操作的方法
prio_callout"
/sbin/mpath_prio_alua/dev/%n"
//获取有限级数值使用的默认程序
failbackimmediate//故障恢复的模式
hardware_handler"
//确认用来在路径切换和IO错误时,执行特定的操作的模块。
no_path_retryqueue//在disablequeue之前系统尝试使用失效路径的次数的数值
rr_min_io100//在当前的用户组中,在切换到另外一条路径之前的IO请求的数目
}
※千万不要写错path_checker(可能值有:
readsector0,tur,emc_clariion,hp_sw,directio)。
不清楚的,可从存储的官方资料获得。
3、自定义设备名称
默认情况下,multipath会根据multipath.conf.defaults中的定义,生成mpathn的设备名。
当然,我们也可以自行定义。
不过,更主要的原因是:
当我们有多台服务器以相同的方式连接到存储时,每台服务器识别出来的mpathn顺序可能不同。
为了组成集群,我们需要固定每台机器识别的设备名顺序是一致的(绑定wwid)。
修改配置文件,加入:
multipaths{
multipath{
wwid360060e80058e980000008e9800000007
aliasmpath0
重新刷新multipath映射表后,mpath0就与该wwid设备一一对应起来。
除了别名alias外,还可以为该设备定义其他属性,请参考multipath.conf上的样式。
把该配置赋值到其他同一集群的机器上,则每台机器识别的mpathn设备顺序将是一致的。
1、绑定后,需重新生成路径的映射表;
2、当加入该wwid绑定后,没有绑定的设备将不能使用,用-ll也无法看到这些设备,但/var/lib/multipath/bindings中可见。
4、如何排错
#multipath-v3-ll
#dmsetupls
#multipathd-k
>
>
showconfig
reconfigure
showpaths
CTRL-D
/var/lib/multipath/bindings
/dev/mapper/
#cat/sys/block/sda/device/vendor
#cat/sys/block/sda/device/model
/var/lib/multipath/bindings显示的内容包括黑名单中的wwid,其mpathn顺序与multipath-ll的结果可能不同。
实际以multipath-ll的结果为可用设备。