人民医院PACS影像存储技术建议方案.docx

上传人:b****8 文档编号:23564276 上传时间:2023-05-18 格式:DOCX 页数:13 大小:30.17KB
下载 相关 举报
人民医院PACS影像存储技术建议方案.docx_第1页
第1页 / 共13页
人民医院PACS影像存储技术建议方案.docx_第2页
第2页 / 共13页
人民医院PACS影像存储技术建议方案.docx_第3页
第3页 / 共13页
人民医院PACS影像存储技术建议方案.docx_第4页
第4页 / 共13页
人民医院PACS影像存储技术建议方案.docx_第5页
第5页 / 共13页
点击查看更多>>
下载资源
资源描述

人民医院PACS影像存储技术建议方案.docx

《人民医院PACS影像存储技术建议方案.docx》由会员分享,可在线阅读,更多相关《人民医院PACS影像存储技术建议方案.docx(13页珍藏版)》请在冰豆网上搜索。

人民医院PACS影像存储技术建议方案.docx

人民医院PACS影像存储技术建议方案

集团标准化小组:

[VVOPPT-JOPP28-JPPTL98-LOPPNN]

 

人民医院PACS影像存储技术建议方案

资料编码

xxxxxxx人民医院PACS影像存储技术建议书

 

概述

项目背景

随着xxxxx医院业务的逐渐发展,以及业务数据量不断的增大,目前的PACS存储系统已经无法满足其业务增长的需求。

原先存放在老存储中的数据,无论在可靠性、容量还是性能方面都无法满足业务要求。

因此,建设一套集中存储系统迫在眉睫。

集中存储方式,不仅可以解决数据无法共享、本地扩容出现瓶颈等问题,还可以使业务系统的性能得到大幅提升、业务数据的安全性得到更为有效的保障。

建设规模及目标

xxxxx医院本次将对PACS系统进行集中存储的建设,将数据都集中存储在集群NAS存储系统中。

根据PACS的存储需求进行分析:

1)该局点主要应用是PACS影像数据的存储,在数据中心放置集群NAS系统,将各种影像的非结构化数据集中存储在该系统上;

2)本次建设需要考虑未来几年内的容量需求扩容,要求存储系统具备高扩展性;

3)数据量扩展时需满足业务增多所带来的并发增大的需求,也就是说,容量扩展时,并发量需要增大,整体性能得到提升;

PACS方案设计原则

通过对用户需求的了解,结合PACS系统的应用特点,建议用户存储系统在建设过程中应当遵循如下原则进行:

安全可靠性原则

系统支持从硬件层面,数据层面到业务层面高可用,满足可用性原则;

系统支持存储系统集群,满足高可靠性需求;系统具备充分的数据冗余,数据容错能力;

系统具有专业的技术保障体系以及数据可靠性保证机制;

系统在存储节点损坏时(包括硬盘,机柜的故障),不会丢失数据;

系统在发生数据损坏时,有数据自愈能力;

确保系统具有高度的安全性,提供安全的登录和访问措施,防止系统被攻击;

异常掉电后不丢失数据,供电恢复后自动重新启动并自动恢复正常连接;

系统器件选择要考虑能支持7×24小时连续长时间大压力下工作;

扩展性原则

系统易于扩展,支持10PB级数据存储;系统在容量扩展时,性能得到提升;

系统选择标准化的部件,利于灵活替换和容量扩展;

先进性原则

系统必须严格遵循国际标准、国家标准和国内通信行业的规范要求;

需符合存储技术以及IT行业的发展趋势,所选用的产品型号已规模上量;

所有的系统处于先进的技术水平,确保较长时间内技术上不落伍;

系统的处理能力要达到业内领先,对于本次业务的使用要留有一定的余量,以满足后续升级的需求;

开放性原则

系统必须支持国际上通用的标准网络存储协议、国际标准的应用开放协议;

与主流服务器之间保持良好的兼容性;兼容各主流操作系统及应用程序;

可以与第三方管理平台集成,提供给客户定制化的管理维护手段;

满足今后的发展,留有充分的扩充余地;

易维护性原则

系统支持简体中文,通俗易懂,操作方便、简单;

系统具有充分的权限管理,日志管理、故障管理,并能够实现故障自动报警;

系统设备安装使用简单,无需专业人员维护;

系统容量可按需要在线扩展,无需停止业务;系统功能扩充需要升级时,支持不中断业务升级;

支持图形化界面管理方式;

PACS系统设计方案

总体设计

针对以上问题和需求,OceanStor9000提供了分布式存储解决方案。

该方案面向种类繁多的文件存储上层业务,为客户提供存储多种类型业务数据的方案。

该方案要求与其对接的上层业务遵循接口规定,方案的具体描述如下:

1)OceanStor9000提供统一命名空间的存储系统,多种业务的数据都存储在这个统一的存储空间中,包括文件,视频,图象等多种类型的业务数据存储;

2)采用OceanStor9000存储设备,采用全对称分布式架构设计,轻松实现容量扩展,满足日益发展的业务系统的存储要求,与业务需求相匹配;

3)容量扩展的同时,性能同步提升,避免因为数据量增多而产生的性能瓶颈;

4)支持在线扩容,容量扩展的同时,保证不会中断业务,并且支持多个节点批量扩容;

5)整系统采用集群部署和Erasurecode数据保护策略,支持N+1到N+4的数据可靠性保障,以及故障自动检测、修复技术,保障系统可靠性;

6)OceanStor9000对外提供NAS接口,支持NFS和CIFS协议共享,适应多种应用场景,例如:

支持和文件业务对接,和图片业务对接等;

7)每种业务对存储空间的需求不同,OceanStor9000天然支持ThinProvisioning实现空间弹性扩展,满足不同业务的存储需求,同时不会造成空间定额分配造成的浪费;

8)对设备管理员,提供WEBUI管理工具,统一管理存储设备。

本次方案,主要是PACS系统应用场景。

根据容量和性能要求,本次存储系统配置6台存储节点,冗余配比按照4+2:

1,76%磁盘利用率,裸容量260TB,可用容量约为200T,满足客户目前业务系统的容量和性能需求。

整体方案架构如图所示:

OceanStor9000整体方案架构

组网拓扑及机柜部署图

系统支持多种组网模式,内外部组网均采用10GEEthernet组网。

系统初期建设配置6台存储节点,随着业务的发展,平滑扩容至40PB。

存储网络拓扑结构如下图所示:

其配置特点如下:

所有关键业务集中存储,并支持多协议共享;

内外部组网采用10GEethernet,特有的TOE网卡和RDMA技术,提高访问效率;

支持客户端连接负载均衡、配额管理;

支持对归档后的pacs影像数据锁定功能,防止病毒或者人为错误操作修改历史数据。

设备提供整柜交付模式,存储系统柜部署图如下:

1、CE6800交换机:

CE6800交换机提供10GE端口接入,负责各存储节点的互联和业务数据通信,每台CE6800交换机使用编号接口顺序连接到6个存储节点。

2、CE6800交换机:

两台CE6800交换机堆叠接口按顺序相互连接,堆叠接口使用原则如下:

节点数量≤16时,使用2个接口堆叠;16<节点数量≤24时,使用3个接口堆叠;24<节点数量≤40时,使用4个接口堆叠。

本次使用2个接口堆叠。

3、GE交换机:

GE交换机作为系统各服务器间的互联设备,完成连接的各组件数据通信、主备份配置。

IPMI下行接口,40个接口顺序连接到节点的IPMI接口;NIC0下行接口,3个接口顺序连接到OceanStor9000集群最前面的3个节点(基础柜中01~03号节点);10GE交换机管理口连接到两台CE6800交换机正面的ETH管理网口;上行接口,连接用户的管理维护网络。

4、每个存储节点提供2个10GE接口上行连接到客户现网核心交换机。

软硬件配置说明

地点

设备名称

规格型号

数量

备注

中心机房

OceanStor9000存储节点

P12存储节点:

配置2颗IntelIvyBridge6核CPU,44TB存储容量(11块3寸4TB7200RPMSATA硬盘,提供1块400GBSSD硬盘做缓存),48GB缓存,支持缓存掉电保护功能,4个万兆光纤以太网络端口;双电源;

6

中心机房

IB交换机

交换机(48口万兆SFP+,4口40GEQSFP+)

2

中心机房

机柜

OceanStor900042U交流机柜(2U节点10GE组网)

1

中心机房

DFS分布式文件系统软件

OceanStorDFS基本软件包(含CIFS,NFS,FTP,NDMP,负载均衡)

6

中心机房

管理控制台软件

OceanStor9000管理控制台软件

6

中心机房

数据完全保护软件

OceanStor9000InfoLockerWORM功能每节点License

6

工程实施

项目实施主要分为三大步骤,即:

签订合同、工程实施准备以及工程实施。

签订合同是项目实施的开始,是双方承诺的责任和义务以法律形式确定下来的时刻;工程实施的准备是投标商与供货商在紧密配合下完成设备订货、生产、发货、运输与供货的过程,同时也包括了对用户的先期培训;工程实施是投标商与供货商以及最终用户在紧密配合共同完成设备的到货、初验、机房装修、模块化机房实施、线路综合布线、设备安装、调试、系统集成与验收的过程。

硬件设备的集成,主要指对各种设备进行的配置、安装与调试工作,所有的硬件设备将在标书规定的地点和环境下,实现正常运行,并达到标书要求的性能和产品技术规格中的性能,具体有如下内容:

实施项目

内容说明

工程总体规划

工程计划和管理

熟悉用户的业务需求,了解用户的业务发展,为用户提供“评估—规划—实施—管理”的系统工程服务。

提交详细实施计划

设备采购、到货进度表,安装实施内容、计划,系统测试计划,数据移植计划等等

工程总体介绍

主要内容包括整个系统体系结构、系统功能的介绍,系统硬件、软件技术细节澄清,讨论厂商提供的硬件设计方案、软件设计方案,技术培训内容以及系统验收指标和测试程序。

设备采购

设备采购

确认设备清单、评估设备供应商、采购设备

包装运输

妥善包装系统设备,运往买方的安装现场。

包装材料、箱子以及固定方法达到出口的运输标准,防止运输及存放过程中出现损坏或腐蚀现象。

现场勘察

用户现场运输线路勘察、机房承重勘察、电源勘察、环境勘察

设备开箱检查

用户、供应商、原厂商共同开箱清点货物、检查货物外观。

安装、调试与测试

综合布线

光纤及网线进行综合布线

硬件安装

机架安装、设备上架、电源连接、加电测试

设备调试

操作系统设置、交换机设置、主机设置,视频设置等

系统软件安装

配合安装操作系统,云计算系统,管理系统等

软、硬件联合调试

系统与网络联调

系统测试

网络连通与链路冗余测试

上线

制定上线计划

制定详细的上线计划与实施方案

上线方案测试

测试上线实施方案

上线、割接

同用户一起完成割接,如失败,则在规定时间内回退到割接前状态

培训、验收

现场培训

产品介绍、系统组网、操作介绍、软件使用、维护流程、意外处理,华为提供免费的现场培训。

系统验收

设备到货验收、初验(安装调试验收)、终验(项目竣工验收)

项目总结

安装调试后项目总结、试运行后技术总结

新技术交流

定期与用户交流最新技术

售后服务

定期巡回检查、设备保修,硬件设备3年维保,华为半年定期巡检。

提供巡检评估报告。

PACS方案特点及优势

作为横向扩展存储,OceanStor9000面向大数据存储市场应对大数据挑战,该场景下业务多变,数据飞速增长,数据安全性要求日益提高,对存储系统提出了较高的要求。

OceanStor9000具备弹性空间、卓越性能、简化管理和高可靠性等特点,有效应对大数据时代的挑战,降低企业CAPEX和TCO。

弹性扩展

OceanStor9000采用Scale-out存储架构,将海量数据压力分散到多个并发存储节点,数据和元数据均匀分布于各个节点上,避免资源争用,系统性能(吞吐量)按照比例扩展,并且各个存储节点之间负载均衡,有效避免单节点性能瓶颈。

这种架构,不仅保持了对象存储系统高可靠、高性能的优点,而且使得OceanStor9000系统具有更好的扩展性。

OceanStor9000通过Scale-out架构,轻松实现容量扩展,可实现从3节点到288节点的轻松扩容。

OceanStor9000能够根据业务增长进行平滑扩容,系统每增加一个存储节点,都能够自动识别,单节点扩容更是小于60秒,将该存储空间加入到整系统中,并根据负载均衡的原则,优先选择新的节点存储,从而简化了系统扩容的管理,降低了操作成本。

扩容时容量和性能支持线性扩展,最大可提供40PB规模的单一文件系统,真正实现“应需而变”,为业务的长期高性价比提供保障。

卓越性能

OceanStor9000提供业界领先的NAS读写性能,OPS最大可突破500万,而系统总带宽可达200GByte/s,可充分满足媒体编辑和高性能计算等领域的性能要求。

OceanStor9000性能提升的关键技术包括:

SSD加速

SSD硬盘可解决数据读写性能的瓶颈,提供低延迟和高吞吐量。

OceanStor9000采用SSD硬盘存储元数据,加速元数据访问效率,提升处理能力。

全局缓存

数据在缓存中的读写速度远高于硬盘,但单节点的缓存提升空间有限。

同时如果各节点的缓存相互独立,则缓存命中率难以提升,数据的一致性保证机制也会趋于复杂。

OceanStor9000通过全局缓存模式,整合所有节点缓存,容量最大可达55TB的虚拟缓存池。

同一文件的数据在缓存池只缓存一份,任意节点均可命中,有效提高数据访问命中率,减少硬盘读写次数,降低访问时延,提升系统整体性能。

高速互联

OceanStor9000支持10GE高速以太网,单个节点可提供4个10GE端口。

OceanStor9000还同时支持IB(InfiniBand)网络,带宽高达40Gbit/s,可满足更加苛刻的性能要求。

OceanStor9000可适配用户的不同组网需求,通过节点间高速互联,降低系统内部时延,提供卓越性能。

并发访问

传统的NAS系统由引擎和存储单元组成。

数据的全部并发访问需要先由NAS引擎处理,因此引擎容易成为性能瓶颈。

OceanStor9000采用全对称的逻辑架构,每个节点均可提供业务服务。

通过负载均衡设计,数据访问在集群内均匀分布,可大幅提升系统并发访问能力。

数据可靠

随着IT的发展,人们日益认识到数据是公司最重要的资产,一旦数据丢失,对公司的影响是不可估计的,人们越来越注重数据保护。

OceanStor9000采用业界最高水平的数据保护机制,保证数据的高可靠性:

ErasureCode

OceanStor9000采用ErasureCode保障数据一致性,确保海量数据存储场景下的数据安全可靠。

ErasureCode是RAID的超集,能够支持比传统RAID算法更高的可靠性和更灵活的冗余策略,其设计思路是对文件进行原始分片(N份),通过纠错编码生成M个冗余校验块文件。

写入时,由客户端进行切片(N)和转码(M),一共生成N+M份数据,存储系统自动从各存储节点中选择一个硬盘组成一个N+M个磁盘的磁盘组,分别写入N+M份数据。

任意一份数据损坏的情况下,可以通过其它数据恢复,最大可以支持M份数据的损坏。

OceanStor9000采用ErasureCode算法保障数据可靠性,将N+M份数据保存在N+M个不同的虚拟节点上,其中N支持2-16,M支持1/2/3/4。

可以看出,它最大可以支持4份数据同时损坏,并且可以通过其它数据分片,恢复原始数据,而不影响系统业务的连续性,数据保护性强于传统的RAID5(只允许一份数据损坏)、RAID6(只允许两份数据损坏)。

如下图所示:

图表ErasureCode原理说明图

OceanStor9000分布式存储系统专门针对小文件存储进行了优化。

如果配置了N+M的保护方式,当一个文件的数据量不超过一个分片大小时,系统会自动将其转化为1+M份的存储方式,当数据量超过一个分片大小,系统才会对它进行校验计算。

这种优化,可以提高小文件的读写性能和存储利用率。

元数据高可靠

OceanStor9000的分布式文件系统的元数据,采用存储多份副本的方式,并且对于配置了N+M保护方式的文件来说,其元数据的保存份数自动设定为M+2份,这使得OceanStor9000分布式存储系统的元数据的可靠性高于其数据。

数据自愈

OceanStor9000分布式存储系统采用的InfoProtector技术,是华为公司的专利技术。

InfoProtector可以提供最多同时故障4个全节点的数据保护。

并且硬盘故障时,InfoProtector确保将单个故障盘的重新构建时间缩至最短,达到1TB数据只需要1小时恢复时间,优于友商的数据恢复速度。

数据存储时被分片打散到多个存储节点上,这些分片数据支持分布在不同的存储节点之间。

在数据发生故障导致数据不一致时,OceanStor9000通过内部的自检机制,自动发现数据故障。

发现故障后启动数据修复机制,在后台修复数据。

由于数据被分散到多个不同的存储节点上保存,数据修复时,在不同的节点上同时启动修复,每个节点上只需修复一小部分数据,多个节点并行工作,有效避免单个节点修复大量数据所产生的性能瓶颈,对上层业务的影响做到最小化。

简化管理

OceanStor9000支持可视化自动部署,提供了专门的网管管理工具,它支持WEBUI形式,可以方便的显示所有设备的组网结构,所有设备的容量,CPU,内存等信息,以及所有进程的运行状态,业务的运行状态,实时展示系统性能信息,保存和查询操作日志。

管理维护高效集中,简洁易用。

管理员可以通过集群内任意节点访问网管界面,完成对硬件、软件、集群和业务的统一管理。

单个节点故障不影响网管的正常登录和使用。

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > PPT模板 > 商务科技

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1