服务器集群技术 网络存储技术基础.docx

上传人:b****4 文档编号:30826940 上传时间:2024-01-30 格式:DOCX 页数:21 大小:204.51KB
下载 相关 举报
服务器集群技术 网络存储技术基础.docx_第1页
第1页 / 共21页
服务器集群技术 网络存储技术基础.docx_第2页
第2页 / 共21页
服务器集群技术 网络存储技术基础.docx_第3页
第3页 / 共21页
服务器集群技术 网络存储技术基础.docx_第4页
第4页 / 共21页
服务器集群技术 网络存储技术基础.docx_第5页
第5页 / 共21页
点击查看更多>>
下载资源
资源描述

服务器集群技术 网络存储技术基础.docx

《服务器集群技术 网络存储技术基础.docx》由会员分享,可在线阅读,更多相关《服务器集群技术 网络存储技术基础.docx(21页珍藏版)》请在冰豆网上搜索。

服务器集群技术 网络存储技术基础.docx

服务器集群技术网络存储技术基础

深入讲解服务器集群技术

在发展初期,一路处理器便可为一台服务器及其所有应用提供动力。

接着就发展到了多处理时代,这时两路或多路处理器共享一个存储池,并能处理更多更大的应用。

然后出现了服务器网络,该网络中的每台服务器都专门处理不同的应用集。

现在,发展到了服务器集群,两台或多台服务器像一台服务器一样工作,提供更高的可用性和性能,这已经远远超出了您的想像。

应用可从一台服务器转移到另一台服务器,或同时运行在若干台服务器上――所有这一切对用户都是透明的。

集群并不是新事物,但在软件和硬件方面,直到最近它们还是专有的。

信息系统经理对集群进行了更加仔细的考虑,这是因为现在他们可以使用大规模生产的标准硬件实现集群,如RAID、对称多处理系统、网络和I/O网卡及外设。

集群技术在未来将会获得更大的发展,现在,不断推出新的集群选件,而真正的集群标准尚在制定之中。

何为集群?

简单的说,集群就是两台或多台计算机或节点在一个群组内共同工作。

与 单独工作的计算机相比,集群能够提供更高的可用性和可扩充性。

集群中的每个节点通常都拥有自己的资源(处理器、I/O、内存、操作系统、存储器),并对自己的用户集负责。

故障切换功能提供丝捎眯裕旱币桓鼋诘惴⑸收鲜保渥试茨芄?

quot;切换"到集群中一个或多个其它节点上。

一旦发生故障的节点恢复全面运行,通过前瞻性地将一台服务器的功能"切换"到集群中其它服务器上,可以实现升级,停止该服务器的运行以增加组件,然后将其放回到集群中,再将其功能从其它服务器转回该服务器。

利用分布式讯息传递(DMP)可提供额外的可扩充性,DMP是一种集群内通信技术,该技术允许应用以对最终用户透明的方式扩展到单个对称多处理(SMP)系统以外。

集群中的每个节点必须运行集群软件以提供服务,如故障检测、恢复和将服务器作为约 个系统进行管理的能力。

集群中的节点必须以一种知道所有其它节点状态的方式连接。

这通常通过一条由于局域网路径相分离的通信路径来实现,并使用专用网卡来确保节点间清楚的通信。

该通信路径中继系统间的一?

quot;心跳",这样,如果一个资源发生故障因而无法发送心跳,就会开始故障切换过程。

实际上,最可靠的配置采用了使用不同通信连接(局域网、SCSI和RS232)的冗余心跳,以确保通信故障不会激活错误的故障切换。

集群级别

今天,对于集群购买者来说,幸运的是有多款不同档次的集群可供选择,它们可提供广泛的可用性。

当然,可用性越高,价格也越高,管理复杂性也越大。

共享存储

共享磁盘子系统往往是集群的基础、它使用共享的SCSI或光纤通道。

每个节点使用其本地磁盘存储操作系统交换空间和系统文件,而应用数据存储在共享磁盘上,每个节点均可读取由其它节点写入的数据。

应用间的并发磁盘访问需要分布锁定管理器(DLM),而且共享磁盘子系统与其集群节点之间的距离会受到所选择介质(SCSI或光纤通道等)的限制。

服务器镜像(镜像磁盘)

需要数据冗余而又无需占用额外磁盘子系统的环境有权选择服务器间的镜像数据。

除了成本更低以外,服务器镜像的另一个优势是,在主板服务器与辅助服务器之间的连接可以是基于局域网的,这样就消除了SCSI 距离限制。

数据写到主板服务器上后,它还写到了辅服务器上;通过锁定服务器数据保持了数据的完整性。

一些服务器镜像产品还可将工作负载从主服务器转换到辅服务器上。

非共享

现在,一些集群产品使用的是"非共享"体系结构,在此体系结构中,节点既不共享集中式磁盘,也不在节点间镜像数据。

发生故障时,非共享集群所具有的软件能够将磁盘所有权从一个节点传送至另一个节点,而无需使用分布式分布式锁定管理器(DLM)。

如何实现故障切换?

可以使用多种方法配制集群实现故障切换。

第一种方法是N路配制,集群中的所有节点在正常情况下都拥有自己的用户和工作负载。

一个故障节点的资源可切换到其它节点,但由于剩余的服务器承担了额外的负载,因此其性能将有所下降。

N+1配制包括一个热待机系统,它在主系统发生故障之前一直处于空闲模式。

在N+1配制中,当一个节点发生故障时可避免其它节点的性能下降。

但是,由于待机节点在正常情况下并不提供服务,因而成本较高。

在任何配制中,一旦出现问题,集群软件将能够首先进行本地恢复。

本地恢复即在发生故障时,在本地节点自动重新启动应用或服务的能力。

对节点并非致命的故障来说,逻辑上本地恢复是首选方式,因为与切换至另一个节点相比,它对用户的中断更少。

就故障切换的种类而论,一些集群产品可进行并行恢复,其中资源能够故障切换到不同地区的远程节点上。

这很适合于容灾需求。

次外,为了解决多个节点故障问题,一些集群产品可以进行级联故障切换,其工作方式就像多米诺骨牌一样:

节点一故障切换到节点二,节点二发生故障后再切换到节点三等等。

故障切换举例

以下是双节点集群故障切换举例,其中两个节点都拥有其自己的用户和以下的应用。

1.节点1因出现内存问题导致了应用故障。

用户讯息错误且其应用停止运行。

集群管理软件将这一问题通知系统管理员。

2.节点1进行本地恢复,重新启动故障应用。

用户能够重新启动其应用。

3.当应用再次发生故障时,集群软件向节点2进行故障切换。

故障切换需要大约1分钟,用户必须等待。

(实际时间可能会从几秒至几分钟。

)一些应用能够检测故障过程并向用户显示信息,告知她们向另一台服务器传输应用。

4.一旦该应用在节点2中重新启动,用户即可继续工作。

5.诊断和修理节点1。

将已恢复正常的节点1放回远处后,关恢复(切换)过程就会启动,以使应用和相关资源回到节点1。

可人工或自动实现该故障恢复。

例如,在非高峰期间,可将其配置为故障恢复状态。

集群可扩充性

除了提高的可用性,性能可扩充性也是集群的一个主要优势。

通常,可通过集群负载平衡提高性能。

本质上,负载平衡意味着将相关应用和资源从繁忙节点转移到不繁忙节点。

真正的可扩充性是在其它区域实现的。

第一个区域是增加可扩充性,这意味着能够在不抛弃以前系统的情况下,不断添加服务器、磁盘存储器等。

实际上,随着您的计算机需求不断增加,集群提供了随着您的发展进行支付的环境。

当能够在集群多个节点上自动分配其工作负载的真正"支持集群"应用在未来形成开发标准后,您将看到第二种类型 的可扩充性。

除此之外还可分离应用,以使一个应用的不同"线程"运行在不同节点上,从而极大提高可

应用如何处理故障切换?

下一个问题是"应用如何处理故障切换?

"答案是"这取决于所使用的应用和集群产品。

"一些集群产品为专门应用(如数据库或通信协议)提供了恢复或切换套件。

这些套件可在应用故障时进行检测,并可在另一服务器上重新启动该应用。

应用处理故障的方法由于集群产品的不同而不同。

正如我们以前提到的一样,尽管不同的厂商都试图制定一个通用标准,但现在集群软件还没有公共标准。

然而,必须修改现在的应用以处理故障切换,应用的最终目标不受硬件的影响。

一个解决方案是与操作系统共同运行的一组程序和API(应用编程口),从而使得应用厂商能够创建执行这些恢复功能的程序。

使用这些API使应用"支持集群"。

当前集群产品的许多厂商都在努力奋斗,以确保集群产品能够符合这些不同的操作系统API。

虚拟接口体系结构(VIA)

由英特尔、康柏、惠普、微软、戴尔、SCO和天腾联合推出了虚拟接口体系结构(VIA)计划正为开发集群硬件和软件产品制定标准,该标准将是独立于厂商的,它将为用户购买技术时提供更多的选择。

需牢记的重点

真正的集群可被认为是多处理发展演变的下一步――以前,应用应用跨越一个系统的多个处理器运行,现在,应用可以跨越跨越若干系统的多个处理器运行。

集群提供了两个主要优势:

高可用性(通过故障切换功能)和可扩充性(通过增加扩展和跨越处理器进行负载平衡)。

当节点出现硬件或软件问题后,就会进行故障切换,该节点的应用及通信连接将切换到另一台服务器上。

可使用集群管理产品规定那些应用应进行故障切换,以及那些故障条件可触发这一过程。

可以获得许多集群种类和配置,以为用户提供他们所需的确切可用性级别。

共享磁盘、服务器镜像及非共享是这些配置的几个。

三种服务器的结构如何区别?

相信大家一定注意到了,各种媒体上经常按塔式、机架式和刀片式这三种结构来划分服务器,服务器的外形为什么会有这样的划分呢?

主要原因就是具体的应用环境不同,塔式服务器长得跟我们平时用的台式机一样,占用空间比较大,一般是一些小型企业自己使用自己维护;而机架式服务器长得就像卧着的台式机,可以一台一台的放到固定机架上,因此而得名,它可以拿去专业的服务器托管提供商那里进行托管,这样每年只需支付一定的托管费,就免去了自己管理服务器的诸多不便;而刀片服务器是近几年才比较流行的一种服务器架构,它非常薄,可以一片一片的叠放在机柜上,通过群集技术进行协同运算,能够处理大量的任务,特别适合分布式服务,如作为WEB服务器。

   看完上面的简单介绍,相信各位对这3种服务器已经有个基本的认识了,下面我们就来一一细说,为大家做更详细的讲解:

什么是塔式服务器:

   塔式服务器应该是大家见得最多,也最容易理解的一种服务器结构类型,因为它的外形以及结构都跟我们平时使用的立式PC差不多,,当然,由于服务器的主板扩展性较强、插槽也多出一堆,所以个头比普通主板大一些,因此塔式服务器的主机机箱也比标准的ATX机箱要大,一般都会预留足够的内部空间以便日后进行硬盘和电源的冗余扩展。

   由于塔式服务器的机箱比较大,服务器的配置也可以很高,冗余扩展更可以很齐备,所以它的应用范围非常广,应该说目前使用率最高的一种服务器就是塔式服务器。

我们平时常说的通用服务器一般都是塔式服务器,它可以集多种常见的服务应用于一身,不管是速度应用还是存储应用都可以使用塔式服务器来解决。

   就使用对象或者使用级别来说,目前常见的入门级和工作组级服务器基本上都采用这一服务器结构类型,一些部门级应用也会采用,不过由于只有一台主机,即使进行升级扩张也有个限度,所以在一些应用需求较高的企业中,单机服务器就无法满足要求了,需要多机协同工作,而塔式服务器个头太大,独立性太强,协同工作在空间占用和系统管理上都不方便,这也是塔式服务器的局限性。

不过,总的来说,这类服务器的功能、性能基本上能满足大部分企业用户的要求,其成本通常也比较低,因此这类服务器还是拥有非常广泛的应用支持。

什么是机架式服务器:

   作为为互联网设计的服务器模式,机架服务器是一种外观按照统一标准设计的服务器,配合机柜统一使用。

可以说机架式是一种优化结构的塔式服务器,它的设计宗旨主要是为了尽可能减少服务器空间的占用,而减少空间的直接好处就是在机房托管的时候价格会便宜很多。

   为什么说机架式服务器是作为为互联网设计的服务器模式?

   正如大家所知,很多专业网络设备都是采用机架式的结构(多为扁平式,活像个抽屉),如交换机、路由器、硬件防火墙这些。

这些设备之所以有这样一种结构类型,是因为他们都按国际机柜标准进行设计,这样大家的平面尺寸就基本统一,可把一起安装在一个大型的立式标准机柜中。

这样做的好处非常明显:

一方面可以使设备占用最小的空间,另一方面则便于与其它网络设备的连接和管理,同时机房内也会显得整洁、美观。

   机架服务器的宽度为19英寸,高度以U为单位(1U=1.75英寸=44.45毫米),通常有1U,2U,3U,4U,5U,7U几种标准的服务器。

机柜的尺寸也是采用通用的工业标准,通常从22U到42U不等;机柜内按U的高度有可拆卸的滑动拖架,用户可以根据自己服务器的标高灵活调节高度,以存放服务器、集线器、磁盘阵列柜等网络设备。

服务器摆放好后,它的所有I/O线全部从机柜的后方引出(机架服务器的所有接口也在后方),统一安置在机柜的线槽中,一般贴有标号,便于管理。

   现在很多互联网的网站服务器其实都是由专业机构统一托管的,网站的经营者其实只是维护网站页面,硬件和网络连接则交给托管机构负责,因此,托管机构会根据受管服务器的高度来收取费用,1U的服务器在托管时收取的费用比2U的要便宜很多,这就是为什么这种结构的服务器现在会广泛应用于互联网事业。

   还有一点要说的是机架式服务器因为空间比塔式服务器大大缩小,所以这类服务器在扩展性和散热问题上受到一定的限制,配件也要经过一定的筛选,一般都无法实现太完整的设备扩张,所以单机性能就比较有限,应用范围也比较有限,只能专注于某一方面的应用,如远程存储和Web服务的提供等,但由于很多配件不能采用塔式服务器的那种普通型号,而自身又有空间小的优势,所以机架式服务器一般会比同等配置的塔式服务器贵上20-30%。

至于空间小而带来的扩展性问题,也不是完全没有办法解决,由于采用机柜安装的方式,因此多添加一个主机在机柜上是件很容易的事,然后再通过服务器群集技术就可以实现处理能力的增强,如果是采用外接扩展柜的方式也能实现大规模扩展,不过由于机架式服务器单机的性能有限,所以扩展之后也是单方面的能力得到增倍,所以这类服务器只是在某一种应用种比较出色,大家就把它划为功能服务器,这种服务器针对性较强,一般无法移做它用。

什么是刀片服务器?

   对于企业和网络信息提供商来说,无限增长的数据必须集中存储和处理,于是未来的网络发展呈现出集中计算的趋势。

集中管理模式与现有的分散管理模式,对服务器提出了新的要求:

节约空间、便于集中管理、易于扩展和提供不间断的服务,成为对下一代服务器的新要求。

  作为网络重要组成部分的服务器来说,性能已不仅仅是评价服务器的唯一指标了,用户更关心的是符合自己实际需要的产品。

目前服务器集群已经在市场上得以广泛应用,而新一代机架式服务器也开始进入市场,为用户提供了更多的选择。

但是随着网络向更深层面发展,下一代服务器将会是BladeServer(刀片服务器)。

  刀片服务器是一种HAHD(HighAvailabilityHighDensity,高可用高密度)的低成本服务器平台,是专门为特殊应用行业和高密度计算机环境设计的。

其中每一块"刀片"实际上就是一块系统主板。

它们可以通过本地硬盘启动自己的操作系统,如WindowsNT/2000、Linux、Solaris等等,类似于一个个独立的服务器。

在这种模式下,每一个主板运行自己的系统,服务于指定的不同用户群,相互之间没有关联。

不过可以用系统软件将这些主板集合成一个服务器集群。

在集群模式下,所有的主板可以连接起来提供高速的网络环境,可以共享资源,为相同的用户群服务。

在集群中插入新的"刀片",就可以提高整体性能。

而由于每块"刀片"都是热插拔的,所以,系统可以轻松地进行替换,并且将维护时间减少到最小。

值得一提的是,系统配置可以通过一套智能KVM和9个或10个带硬盘的CPU板来实现。

CPU可以配置成为不同的子系统。

一个机架中的服务器可以通过新型的智能KVM转换板共享一套光驱、软驱、键盘、显示器和鼠标,以访问多台服务器,从而便于进行升级、维护和访问服务器上的文件。

  克服服务器集群的缺点

  作为一种实现负载均衡的技术,服务器集群可以有效地提高服务的稳定性和/或核心网络服务的性能,还可以提供冗余和容错功能。

理论上,服务器集群可以扩展到无限数量的服务器。

无疑,服务器集群和RAID镜像技术的诞生为计算机和数据池的Internet应用提供了一个新的解决方案,其成本远远低于传统的高端专用服务器。

  但是,服务器集群的集成能力低,管理这样的集群使很多IDC都非常头疼。

尤其是集群扩展的需求越来越大,维护这些服务器的工作量简直不可想像,包括服务器之间的内部连接和摆放空间的要求。

这些物理因素都限制了集群的扩展。

“高密度服务器”--BladeServer的出现适时地解决了这样的问题。

高密度服务器内置了监视器和管理工具软件,可以几十个甚至上百个地堆放在一起。

配置一台高密度服务器就可以解决一台到一百台服务器的管理问题。

如果需要增加或者删除集群中的服务器,只要插入或拔出一个CPU板即可。

就这个意义上来说,BladeServer从根本上克服了服务器集群的缺点。

小结:

   说到这里,大家应该知道几种服务器都是如何运用以及应用在什么领域了吧,那么大家接下来构建自己的服务器时,记得多从技术和应用两个方向去考虑,以便选择自己需要的服务器。

网络存储系统基础介绍

如今的网络时代是资源共享的时代,各类信息资源的积累加剧了其膨胀性,人们对数据审视观念也发生了改变,不单单只是安全存储的数据,更把它们当成竞争优势的战略性资产;而且网络已经成为主要的信息处理模式。

对数据传输、管理、维护、虚拟化等等要求,都意识着对数据存储技术的发展提出了全面的挑战,对存储体系结构提出了进一步的要求。

  不管网络发展到何种阶段,用户最终需要的是数据。

网络上大量的数据需要存储,如何才能简便、快速、安全地存储这些数据呢?

这对存储系统的容量和速度提出了空前的要求。

传统的以服务器为中心的DAS(DirectAttachedStorage)方式(这种方式是将RAID硬盘阵列直接安装到网络系统的服务器上),已不能满足用户的需要,越来越多的用户已经从原来的‘服务器中心’模式转换为以‘数据为中心’的NAS和SAN上。

  我们通过以下几个方面系统了解网络存储系统:

  

(一)直接连网存储(NAS)

  

(二)区域存储网络(SAN)

  (三)IPSAN

  (四)NAS与SNA的比较

  (五)NAS与SNA的统一

  (六)网络存储系统市场趋势

  通过下面的讲解,希望可以给大家一个系统性的认识。

随着市场对网络存储设备的需求,大量厂商对这块市场早已做大量的工夫,网络技术的发展,产品也是层出不穷。

再下篇文章中我会对市场的主流产品进行详细介绍和讲评。

  

(一)直接连网存储(NAS)

  NAS的全称是NetworkAttachedStorage,中文翻译为直接连网存储。

在NAS存储结构中,存储系统不再通过I/O总线附属于某个特定的服务器或客户机,它完全独立于网络中的主服务器,可以看作是一个专用的文件服务器。

也就是说,客户机与存储设备之间的数据访问已不再需要文件服务器的干预,允许客户机与存储设备之间进行直接的数据访问。

在LAN环境下,NAS已经完全可以实现异构平台之间的数据级共享,比如NT、UNIX等平台之间的共享。

  NAS基础架构如下图

  一个NAS包括处理器、文件服务管理模块和多个的硬盘驱动器用于数据的存储。

NAS可以应用在任何的网络环境当中。

主服务器和客户端可以非常方便地在NAS上存取任意格式的文件,包括SMB格式、NFS格式和CIFS格式等等。

NAS系统可以根据服务器或者客户端计算机发出的指令完成对内在文件的管理。

  此外,与传统的将RAID硬盘阵列安装到通用服务器上的方法相比,NAS系统还具有以下优点:

  首先,NAS系统简化了通用服务器不适用的计算功能,仅仅为数据存储而设计,降低了成本。

并且,NAS系统中还专门优化了系统硬软件体系结构,其多线程、多任务的网络操作内核特别适合于处理来自网络的I/O请求,不仅响应速度快,而且数据传输速率也更高。

  其次,由于是专用的硬件软件构造的专用服务器,不会占用网络主服务器的系统资源,不需要在服务器上安装任何软件,不用关闭网络上的主服务器,就可以为网络增加存储设备。

安装、使用更为方便。

并且,NAS系统可以直接通过Hub或交换机连到网络上,是一种即插即用的网络设备。

  再次,由于独立于主服务器之外,因此对主服务器没有任何需求。

如此可以可大大降低主服务器的投资成本。

  最后,NAS具有更好的扩展性,灵活性。

存储设备不会受无地理位置的拘束,在不同地点都可以通过物理连接和网络连接连起来。

(二)区域存储网络(SAN)

  SAN——StorageAreaNetwork,中文翻译为区域存储网络,是一种网络化的基础设施。

我们可以通过SAN基础架构,更清晰了解它。

  SAN基础架构

  

  通过互连光纤通道交换机构造的高速网,连接所有的服务器和所有的存储设备,让多个主机访问存储设备跟各主机间互相访问一样方便。

  这些互连的交换机形成了SAN的核心——光纤通道(FibreChannel),也就是FC技术,FC是ANSI为网络和通道I/O接口建立的一个标准集成。

  而光纤通道协议是SAN的另外一个本质特征,SNA就是利用光纤通道协议上加载SCSI协议来达到可靠的快级数据传输,它主要支持HIPPI、IPI、SCSI、IP、ATM等多种高级协议。

  SNA的最大特性是将网络和设备的通讯协议与传输物理介质隔离开。

这样多种协议可在同一物理连接上同时传送,高性能存储体和宽带网络使用单I/O接口使得系统成本和复杂程度大大降低。

如通过将多台大型交换机连接在一起,能够构建可提供数百个端口的SAN,适应增长型企业不断剧增的信息存储容量的需要。

  并且光纤通道支持多种拓扑结构,主要有:

点到点(Link)、仲裁环(FC-AL)、交换式网络结构(FC-XS)。

  SAN凭借着FC技术的特性决定了它的诸多优势:

  首先,在一些关键应用中,传输块级数据要求必须使用SAN——尤其是多个服务器共同向大型存储设备进行读取。

由于在数据传输时被分成小段,使SAN对服务器处理的依赖较少,可以有效地传送爆发性的块数据,SAN的性能及可靠性就得到了充分的发挥。

  其次,利用光纤通道速度快的优势通过局域网,SAN可以实现远程灾难恢复。

一般地,使用E3信道,SAN可以在不降低性能的同时将部件间的距离增加至150km。

  再次,SAN采用可伸缩的网络拓扑结构。

通过具有较高传输的光纤通道连接方式,提供SAN内部任意节点之间的多路可选择的数据交换,这样将数据存储管理集中在相对独立的存储区域网内。

  最后,很重要的一点,SAN的管理是集中而且高效的。

用户可以在线添加/删除设备、动态调整存储网络以及将异构设备统一成存储池等。

  这里重点强调FCSAN一个弱点,这个缺陷主要是它的物理机理决定的,它无法使存储设备随它在网络上运行,从而无法满足应用前端对存储数据“无时不有、无处不在”的要求。

FCSAN的物理布线有限,不超过50KM。

这样容易形成存储“孤岛”现象。

  (三)IPSAN

  数据的急剧倍增,给很多企业带来了压力,并开始将存储系统从直接连接存储(DAS)向区域存储网络(SAN)迁移,SAN无疑是理想的选择,从上文介绍的优势,我们知道它可以提升灵活性、改善资产利用率和加大关键业务数据保护能力来获得更多的利益。

但FCSAN基于FC技术,其成本以及管理难度都让众多中小企业望尘莫及。

  另一方面,由于SAN本身技术的局限,最主要的问题是它与应用网络的异构性,出现了“孤岛”现象。

很多专家就认为,应该寻求一种新的方式,以与应用网络相同的体系架构、技术标准去构造存储网。

而从技术构造还是经济成分角度分析,SAN就成了理想的对象。

  为此,以IP网络起家的网络厂商巨头Cisco和IBM联手,专门研究与开发iSCSI技术标准。

于是,一种新兴的、既降低成本又简化管理是IPSAN技术应运而生。

  IPSAN通过结合iSICI和千兆以太网的优势,不仅提供了FCSAN的强大的稳定性和功能,还省掉了FC不菲的成本,简化了设计、管理与维护,降低了各种费用和总体拥有成本,从而成为数据量高速增长企业的新选择

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 工程科技 > 能源化工

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1