ImageVerifierCode 换一换
格式:DOCX , 页数:10 ,大小:332.58KB ,
资源ID:8592868      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/8592868.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(存储系统性能带宽计算.docx)为本站会员(b****6)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

存储系统性能带宽计算.docx

1、存储系统性能带宽计算1、IOPS和带宽对存储性能的影响?说 起存储产品的评价,性能永远是第一重要的问题。关于性能的各种指标实在五花八门:带宽Bandwidth、IOPS、顺序Sequential读 写、随机Random读写、持续吞吐Sustained Throughput、突发处理能力Burst I/O等等看似甚为专业的名词充满着解决方案和技术分析报告。存储产品的性能似乎被量化得格外清晰,作为用户,只需要简单的比较两个数字,就可以清楚的 得出孰优孰劣的结论。然而,事实果真如此吗?就让我们走进那些五花八门的指数背后,去看看性能的真实面目。1、带宽与I/O这是两个衡量存储设备性能最基本的概念,明确

2、的区分两者也是对存储产品性能了解的第一步。如 果我们把存储设备比做一间会议室,被存取的数据就是前来参加会议或从会议中离开的人,那么带宽性能就是指这间会议室大门的宽度,大门越宽,可以同时进出的 人也就越多,而I/O性能是指房门开合的频繁程度,迎来一批前来参加会议的人,就需要打开一次大门,送走一批人也是一样,哪怕这“一批人”其实只是一个 人。由此可见,当我们考察会议室的门设计得是否合理时,必须结合会议本身的性质。对纪律严明的会议来 说,与会者轻易不会凌乱的进出会场,人们在会议开始时统一进入,结束时再统一离开。对这种情况,门的宽度就十分重要,而是否易于开合则显得不那么关键,反 正这扇门在整个会议中只

3、需要开合两次而已。相反的,对于联欢性质的聚会而言,门设计得太宽除了显得气派之外,并没有什么实际的意义,但是门开合的频率却很 重要,因为会有客人频繁的进进出出。对应到存储设备上,道理也是一样。大文件持续传输型的应用需要的是充分的带宽性能,而小文件随机读写的应用则要求足够的I/O能力。那 么多大的文件算“大文件”呢?一般而言,超过1MB大小的文件就可以算做“大文件”了。如果您的应用系统处理的资料中,最小的文件也有45MB甚至几十 MB,就需要重点考察存储系统的带宽性能了。如果您的应用是数据库形式,或是电子邮件系统,系统中有大量KB级大小的文件,那么就可以忽略掉产品介绍中 xxx MB/s的字样,重

4、点关心xxx IOPS就可以了。2、影响性能的因素当然,仅看产品彩页中的简单数字还是远远不够的。存储设备的标称指数只是其最最理想情况下的表现,而实际应用中,存储设备表现出的处理能力往往与其标称指数相去甚远。为了反映更多的细节,会议室的比喻不足以说明问题。所以我们前面的例子再改良一下,把存储设备看作一栋有很多房间的大厦。人们从门口进入大厦,先来到大堂,经过走廊,最后到达房间。人们进大厦的方式也分为两种:一种是所有人按房间号码顺序排好队,一起进入大厦,我们称之为“顺序进入”;另一种是他们无规律的自由进入,我们称为“随即进入”。显而易见,“顺序进 入”的效率要大大高于“随即进入”。这就说明,一般情况

5、下,顺序读写的性能要远高于随即读写的性能。还有一个结论也不难得出,一个宽敞的大堂更有利于偶然 性较大的“随机进入”,而对“顺序进入”的人群而言,经过大堂基本属于浪费时间。存储设备中的“大堂”就是高速缓存。也就是说,大容量高速缓存可以提高随机读写性能,而对顺序读写的性能改良则不明显。还记得前面讨论的带宽 和I/O的差异吗?带宽考察的是单位时间进入大厦的人数,而I/O关心的是单位时间进出大厦的批次。从次可见,如果走廊没有任何变化,那么大堂只要不是太 小,就不会影响带宽性能。相对的,对I/O性能而言,大堂显然是越大越好。总之,影响带宽的因素主要是前端控制器大门和后端磁盘通道走廊的带宽; 而影响I/O

6、的因素主要是控制器大门处理能力和高速缓存大堂容量。当然,前面的讨论都基 于一个假设前提:磁盘房间足够多。如假设只配置寥寥几个磁盘,它们就会成为整个系统的性能瓶颈。任凭其他配置如何奢华,也于事无补。那么,“足够多”又 是多少呢?对光纤通道存储设备来说,每个光纤通道上的磁盘数量到达5060个的时候性能到达最正确。所以一般中高端存储设备都把每通道5060个磁盘设 计为扩展极限,而不是光纤通道技术规定的126个。图1. 磁盘数量影响光纤环路性能这 样设计存储产品,可以让系统的性能随着容量的增加而增长。但是同时,用户必须明白,在容量没有配置到最大值的时候,性能就无法到达厂商所宣称的指标。一些 厂商还声明

7、其产品的性能可以随着容量的增长而线性增长,按这样讲,当你的存储设备只配置了最大容量的一半时,你得到的性能也只有系统最正确性能的一半。3、性能曲线这里所说的“最正确性能”就是厂商所宣称的指数吗?很遗憾,答案是不一定,一般都不是,而且可能会相差很远!我已经听到有人在叫“天啊!那厂商公布的数字到底有什么意义啊。”别急,看到下面两个图示就清楚了。图2. IOPS性能曲线例如图3. 带宽性能例如这 两个图示是典型的存储设备性能实测曲线,所有曲线来自同一个存储设备的同一个配置。不同产品在纵向指标上表现各异,但曲线的形状都大体相同。从图上可以看 出,用户环境中存储设备的性能表现严重依赖数据块的大小。以顺序读

8、取操作为例,如果应用产生的数据块大小在8KB左右,那么带宽性能和I/O性能最多也只 能到达峰值性能的一半左右。如果希望得到更好的I/O性能,就需要尽量将数据块调整得更小。但不幸的是,如果希望带宽性能更好,就需要想方法把数据块设置得更大。看来,带宽与I/O性能是鱼与熊掌,难以兼得啦。不 过没关系,如我们前面提到的,幸好大多数用户其实只需要其中一种性能。要么是大文件类型的应用,需要带宽性能;抑或是小文件类型应用,需要I/O能力。需 要带宽的用户相对容易得到满足。从图3可以看出,只要数据块大于128KB,顺序读的性能就基本可以到达系统饱和值。对顺序写,饱和数据块略大一些,但 256KB也不算难以到达

9、的尺寸。得 到最正确的I/O性能似乎就没那么容易了。从图2的曲线来看,I/O性能并没有一个饱和状态,这就要求数据块无穷尽的尽量小。然而所有应用都不可能支持无穷 小的数据块。实际上,大多数的数据库应用产生的数据块都在2KB或4KB左右。在这个尺度上,应用得到的性能距离最高性能还有至少2030%的空间呢。4、持续和突发回到我们那个关于大厦 的例子。如果大厦临时发生紧急情况,比方火灾,人们争先恐后的蜂拥在门口,景象一定是一片混乱。在实际应用中,存储系统也可能遭遇类似的情况,一时间大量 数据同时被访问,造成系统严重堵塞。这就像存储系统内的交通高峰,往往需要类似交通管制的手段才能提高系统效率。一些厂商会

10、宣称他们的产品在这种情况下的 “交通管制”能力有多强,以致可以从容应付大规模的突发访问。诸如“全交换结构”、“直接矩阵结构”等技术均属此类。究其本质,这些“交通管制”都是在大堂高速缓存的设计上做文章,将原本一个公共大堂的结构变成假设干独立大堂的结构。以此来防止火灾发生时,所有人都拥挤到一个大堂里。这样设计确实可在访问突然爆发时缓解系统压力,但是需要注意,这样设计的大厦内部一定布满了各种指示牌和路标,对任何一个进入大厦的人而言,进入房间的过程都将变得更复杂。其结果就是,非突发状态下,系统的持续读写能力往往还不如同等计算能力的简单结构存储。5、其他影响除了前面所谈到诸多方 面外,还有很多因素都会影

11、响到存储设备在实际运行中的性能。例如RAID级别的设置、磁盘类型甚至型号批次的匹配、缓存的镜像、SCSI指令队列深度的设 置,这些方面都与性能结果直接相关。而且,为了能够得到最好的性能指数,几乎所有的厂商在测试自己产品性能的时候都会采用无冗余的RAID0、选用15k rpm的高速磁盘、将写缓存镜像保护关闭或者干脆关闭写缓存、将指令队列深度设置为最大。如此配置方式相信不是每个用户都可以接受的。另外,所有存储设备在运行快照或远程镜像等附加功能之后,性能都会明显下降,有些情况甚至会下降60%之多。如果用户的应用恰巧需要这些附加功能,就需要在选用存储设备之前认真的实地测量一下真实性能。免得满怀希望的买

12、回家,使用起来却失望至极。结论和建议想要知道梨子的滋味,最好的方法就是亲自尝一尝。对存储设备,这个道理尤其重要。只有在用户需要的配置方式下,在实际的应用系统中,实实在在的运行之后,用户才能真正清楚的感知存储设备的真实性能表现。纸上谈兵只怕会使用户在各种数据中迷失方向,难以做出正确结论。2、存储设备的带宽计算计算公式:Real-world result = nominal * 70% - 我所标称的数据都是*70%以尽可能接近实际数据,但如果另外提供了由资料获得的更为准确的数据,则以其为准Bandwidth = frequency * bit-widthQPI带宽:假设QPI频率=2.8 Ghz

13、 2 bits/Hz (double data rate) 20 (QPI link width) (64/80) (data bits/flit bits) 2 (unidirectional send and receive operating simultaneously) 8 (bits/byte)= 22.4 GB/s术语:Westmere - Intel CPU微架构的名称GB/s - 每秒传输的byte数量Gb/s - 每秒传输的bit数量GHz - 依据具体操作而言,可以是单位时间内运算的次数、单位时间内传输的次数 (也可以是GT/s)1byte = 8bitsIOH - I/

14、O Hub,处于传统北桥的位置,是一个桥接芯片。QPI - QuickPath Interconnect,Intel前端总线FSB的替代者,可以认为是AMD Hypertransport的竞争对手MCH - Memory Controller Hub,内置于CPU中的内存控制器,与内存直接通信PCI Express(Peripheral Component Inteconnect Express, PCIe) - 一种电脑扩展总线(Expansion bus),允许外围设备与电脑系统内部硬件包括CPU和RAM之间的数据传输。Overprovisioning - 比方 48*1Gbps acce

15、ss port交换机,通常只有4*1Gbps uplink,那么overprovisioning比 = 12:1X58 相当于传统的北桥,只不过不再带有内存控制器,Code name = TylersburgUltrapoint - VNX/CLARiiON后端LCClink control card的交换拓扑,实现在一个DAE内点到点的链接,而非FCAL总线结构Ultraflex - EMC I/O模块SLIC的Interconnect - PCIe设备通过一条逻辑连接(interconnect)进行通信,该连接也称为Link。两个PCIe设备之间的link是一条点到点的通道,用于收发PCI

16、请求。从物理层面看,一个link由一条或多条Lane组成。低速设备使用single-lane link,高速设备使用更宽的16-lane link。Lane - 一条lane由一对发送/接收差分线(differential line)组成,共4根线,全双工双向字节传输。一个PCIe slot可以有1-32条lane,以x前缀标识,通常最大是x16。相关术语:address/data/control line资源共享 -资源仲裁时钟方案Clock SchemeSerial BusPCI-E Capacity:Per lane (each direction):v1.x: 250 MB/s (2.

17、5 GT/s)v2.x: 500 MB/s (5 GT/s)v3.0: 1 GB/s (8 GT/s)v4.0: 2 GB/s (16 GT/s)16 lane slot (each direction):v1.x: 4 GB/s (40 GT/s)v2.x: 8 GB/s (80 GT/s)v3.0: 16 GB/s (128 GT/s)性能是【端到端】的,中间任何一个环节都有自己的性能极限,它并不像一根均匀水管,端到端性能一致。存储系统显然是不均衡的 -overprovisioning。我将以中端存储系统为例,高端存储过于复杂,硬件结构可能都是私有的。中端系统相对简单,就以一种双控制器、S

18、AS后端、x86架构的存储系统为例,为了方便名称引用,我们就成他为TEST吧。控制器上看得见摸得着,又可以让我们算一算的东西也就是CPU、内存、I/O模块,不过我今天会带上一些极为重要但却会忽略的组件。先上一张简图字难看了点,见谅,这是极为简化的电脑系统构成,许多中端存储控制器就是如此。CPU- 假设控制器采用Intel Xeon-5600系列处理器Westmere Microarchiecture ,例如Xeon 5660,支持DDR3-1333。CPU Bandwidth = 2.8GHz * 64bits / 8 =22.4 GB/s。内存 TEST系统通过DMA (Direct Mem

19、ory Access) 直接在Front End,内存以及Back end之间传输数据。因此需要知道内存是否提供了足够的带宽。3* DDR3,1333MHz带宽=29GB/s通常内存带宽都是足够的,那么bit width应该是64bits。Westmere集成了内存控制器,因此极大的降低了CPU与内存通信的延迟。TEST采用【X58 IOH】替代原始的北桥芯片,X58 chipset提供36 lane PCIe2.0 =bandwidth后面会有更多解释。I/O模块 SLIC- SLIC是很多人关心的,因为它直接接收/发送I/O。需要注意的是一个SLIC所能提供的带宽并不等于其所有端口带宽之和

20、,还要看控制芯片和总线带宽。以SAS SLIC为例,一个SAS SLIC可能由两个SAS Controller组成,每个SAS Controller带宽大约2200MB/srealworld,一个SAS port = 4 * 6Gbps /8 * 70% =2100MB/s;一个SAS Controller控制2*SAS port,可见单个SAS Controller无法处理两个同时满负荷运转的SAS port2200MB/s Overprovisioning!整个SAS SLIC又是通过【x8 PCI-E 2.0】 外围总线与【IOH】连接。x8 PCIe bandwidth = 8 * 5

21、00MB/s * 70% = 2800MB/s。如果两个SAS Controller满负荷运作的话,即4400MB/s2800MB/s,此时x8 PCIe总线是个瓶颈 -Overprovisioning!其实还可以计算后端磁盘的带宽和,假设一个Bus最多能连250块盘,假设是SAS 15K RPM提供大约12MB/s的带宽非顺序随机64KB,读写未知,12 * 250 = 3000MB/s 2100MB/s -Overprovisioning!Tip:一个SAS Controller控制两个SAS Port,所以如果只需要用到两根bus,可以错开连接端口,从而使的得两个SAS Controll

22、er都能得到利用。同理,对任何类型的SLIC,只要能够获得其端口速率、控制器带宽、PCIe带宽,即可知道瓶颈的位置。我选择算后端带宽的原因在于,前端你可以把容量设计的很大,但问题是流量过来【后端】能否吃下来?Cache Full导致的Flush后端能否挡住?对后端带宽是个考验,所以以SAS为例或许可以让读者联想到更多。PCI-Express PCIe是著名的外围设备总线,用于连接高带宽设备与CPU通信,比方存储系统的I/O模块。X58提供了36 lane PCIe 2.0,因此36*500/1024 =带宽。QPI & IOH QPI通道带宽可以通过计算公式获得,我从手中资料直接获得的结果是1

23、9-24GB/s运行在不同频率下的值。IOH芯片总线频率是List of Intel chipsets这里获得,但不确定总线频率是否就是指IOH本身的运行频率36 Lane -Overprovisioning!OK,算完了。能答复TEST最大能提供多少带宽了吗?看下来CPU、RAM、QPI的带宽都上20GB/s,留给前后端的PCIe总线总共也只有18GB/s不到,即便这样也已经overload了IOH12GB/s。所以看来整个系统的瓶颈在IOH,只有12GB/s,不过我自己并不确定这一点,还是留个有兴趣的读者自己去判断吧,然后顺便回来教育我下。注意,下列图有点旧了,我把PCIe 36 Lane框成了MAX Bandwidth,因为那个时候以为IOH应该有足够的带宽,但后来发现可能不是这样,但图已经被我擦了,所以就不改了。怎么算带宽并不是重点我自己都是摸瞎,更重要的在于,让你看到了一些平时被忽略的组件,我们通常只会从存储的CPU、I/O模块、磁盘来算性能极限。但却忽略了整个系统中的其它部分,例如IOH、QPI、MCH、PCI-E,必须要从整个硬件系统的角度对I/O path进行分析。最后,欢送补充和纠正!

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1