18交通视图云存储解决方案V10Word下载.docx

上传人:b****6 文档编号:17582924 上传时间:2022-12-07 格式:DOCX 页数:17 大小:563.34KB
下载 相关 举报
18交通视图云存储解决方案V10Word下载.docx_第1页
第1页 / 共17页
18交通视图云存储解决方案V10Word下载.docx_第2页
第2页 / 共17页
18交通视图云存储解决方案V10Word下载.docx_第3页
第3页 / 共17页
18交通视图云存储解决方案V10Word下载.docx_第4页
第4页 / 共17页
18交通视图云存储解决方案V10Word下载.docx_第5页
第5页 / 共17页
点击查看更多>>
下载资源
资源描述

18交通视图云存储解决方案V10Word下载.docx

《18交通视图云存储解决方案V10Word下载.docx》由会员分享,可在线阅读,更多相关《18交通视图云存储解决方案V10Word下载.docx(17页珍藏版)》请在冰豆网上搜索。

18交通视图云存储解决方案V10Word下载.docx

4.4产品特性介绍10

4.4.1EB级扩展10

4.4.2存储策略15

4.4.3安全可靠15

4.4.4节能易管理17

1交通行业视频存储的挑战

近年来,随着视频技术的快速发展,交通视频监控的发展也已经进入高清华阶段,大数据时代的来临,视频监控存储技术和市场更是发生了质的变化。

随着安防产品和技术的不断提升,对视频监控图像质量的要求越来越高,随之对数据存储的要求也越来越高,这就必然会促进视频监控存储市场的变革。

面对快速发展的视频监控行业,视频存储领域又随之面临着哪些问题呢?

未来面临的挑战和问题又是哪些?

总结归纳,面临的挑战主要有几点。

具体见下文描述。

1.1海量非结构化数据

在交通行业,视频存储涉及的数据信息类型很多,以数据的结构类型来看,包括了各类非结构化、结构化以及半结构化信息。

●非结构化数据主要指视频录像和图片记录,如监控视频录像,报警录像,摘要录像,车辆卡口图片,人脸抓拍图片,报警抓拍图片等;

●结构化数据则包括报警记录,系统日志记录,运维数据记录,摘要分析结构化描述记录,以及各种相关的信息数据库,如人口信息,地理数据信息,车驾管信息等;

●半结构化数据则如人脸建模数据,指纹记录等。

据相关部门统计,交通行业的视频存储目前仍以图像视频等非结构化信息为主,其数据量占据了整个系统存储容量的60%。

1.2大容量

近年来,随着视频技术的快速发展,交通行业视频监控的发展也已经进入高清华阶段,视频监控图像的存储时间往往都在1-3个月甚至更久。

以标准H.264压缩技术的高清网络摄像机为例,一路1080P高清摄像机,码流是8Mbps,24小时录像产生的数据量为84GB,30天录像数据量为2520GB,一年录像数据量为30TB。

如果是一个交通项目,总的监控路数通常是几千到上万路,这样的存储规模是难以想象的,想把这些数据都存在普通硬盘里,年复一年,建一个“信息大厦”也存不下这些硬盘。

1.3大带宽高性能

从应用层面讲,视频存储主要是视频码流的写入,表征性能的是存储能支持多少路码流(通常是384Kbps-2Mbps)。

在多路并发写的情况下,对带宽、数据能力、缓存等都有较大影响,对存储的压力很大,这时候存储需要有专门针对视频性能的优化处理。

1.4统一管理

交通监控视频存储应用中,由于需要大量存储设备,存储设备中的海量数据,必须被有效的管理起来,对最终用户的使用提供方便、可靠、透明的支持。

2交通视图存储对存储系统的要求

根据现状中的客户痛点问题,对于存储系统的建设提出了很高的要求,可以说存储系统建设的优劣将直接影响整个证据视频存储、编辑检索等的效率高低,因此,存储系统需要遵循以下5点进行搭建。

2.1高并发性能

满足硬盘持续高带宽、高吞吐量存储需求,保证在视频检索等分析流程中提供更有力的性能支撑。

满足大规模制作上千个前端应用,同时使用存储系统提供及高的并发性能和足够的带宽。

2.2高安全可靠性

满足证据视频存储的安全保护需求,防止因设备、部件等故障而导致停机或数据丢失。

数据安全已经成为了业务连续性的基本保障,但传统的RAID技术只能从硬盘级别提供数据保护,随着磁盘数量的增多,硬盘故障的几率增加,RAID技术数据恢复时间长、保护范围有限等缺陷使其越来越不能满足实际应用的需求,用户需要更高可靠性的设计。

2.3易扩展

支持未来灵活在线扩展,无论是硬件还是软件的扩充,均需要满足不断变化的业务需求。

2.4可管理性

便于存储系统相关资源管理及存储数据一体化管理,使IT管理员更加简洁有效地监控、管理和分配资源。

3互信互通对象存储架构特点及优劣势

HX8000大数据存储系统主要由接入节点、存储节点、存储网络三部分组成。

3.1架构特点简介

互信HX8000大数据存储系统基于低功耗、高密度Kinetic对象以太网硬盘架构,通过采用DaasbankObjectStorage(简称DOS)对象存储、分布式存储集群引擎、大数据应用等技术,构建巨量数据对象存储基础架构平台。

互信HX8000对外提供大容量,高安全,低成本,高可靠以及高扩展存储服务、大数据的存储、检索、调整等,可以支撑多种云存储解决方案。

互信HX8000支持单文件最大5TB,可应用于大数据的存储、检索分析。

互信HX8000大数据存储系统采用动态扩展技术,用户无需中断应用的运行就可以通过HX8000 

的配置工具动态添加节点以扩大系统的容量、性能和规模,系统会自动实现负载均衡。

而随着存储节点数据的增多,整套系统的聚合带宽也会线性的增长,完全可以满足业务不断发展所产生的容量和性能需求,保持用户业务的连续性。

3.2优劣势分析

架构优劣势分析如下表:

架构优势

⏹对象存储架构,天生适用海量非结构化数据。

⏹高安全,全冗余集群设计,允许整机宕机。

⏹吞吐量带宽大,高并发性能高,满足后期的视频检索,分析,调整等。

⏹去中心化设计,更低成本,更低CTO,成本降低50%,性能提升4倍

⏹易用性,中文监控管理界面。

架构劣势

⏹初期投资2个节点以上,不适应微小规模项目

4互信互通对象存储系统设计

4.1设计思路

采用互信大数据存储HX8000构建海量数据存储分析云存储,能够充分利用存储资源,提高安全性和低风险地新一代灵活可靠的IT技术。

云存储系统可以构架虚拟化存储系统,实现不同容量、不同地区的异构存储聚合,全面管理大型基础架构资源池,包括处理器、存储和网络等,使其成为一种无缝、灵活、动态的操作环境,同时结合全局文件系统,实现数据云交换。

4.2设计目标

●架构领先

互信HX8000大数据系统基于新一代的Kinetic以太网对象硬盘应用了国际领先的对象存储架构作为支撑,可支持海量的非结构化信息数据处理。

计算性能与数据处理规模可以动态伸缩。

未来可以自由的扩展,满足不断增长的应用需求。

●存储资源池虚拟化

存储平台将所有硬件资源构建成一个大的集群资源池,将处理性能、缓存、带宽聚合按需分配资源。

服务应用不在与硬件一一绑定,即一个硬件不在单独为一个硬件服务,资源从专有独占的方式转变为完全共享方式。

●管理智能化

自动化的管理,故障自动迁移恢复,不需人工干涉。

通过DRS技术自动合理分配资源,自动休眠。

透明的IT资产管理,清晰的网络运维情况,在线人数检测,设备使用率在线检测。

●数据存储并行化

鉴于多个应用服务器计算节点需要共享访问数据,并发访问的程度较高,这给存储系统带来较大的IO压力。

互信HX8000大数据存储系统通过多台接入节点和存储节点提供同时数据存取服务的方法以满足大量应用服务器的并发访问需求。

在应用服务器端,当应用程序往存储系统上写文件时,文件将会被根据一定大小进行分片存放到多台存储节点上;

在应用程序读文件时,则并发的从多个服务器上读取数据。

由于大量的数据IO请求都被分散到多台存储节点上,使得所有的存储节点上的磁盘性能和网络带宽都可以同时得到充分的利用,这样互信HX8000大数据存储系统的聚合带宽由多台的存储节点上的IO带宽相加而成,从而克服了原来SAN或NAS的单一出口点所造成性能瓶颈,以先进的分布式架构模式来满足用户对业务应用的需求。

●兼容性良好

互信HX8000大数据存储采用分布式云存储架构模式,将所有硬件资源构建成一个大的集群资源池,将处理性能、缓存、带宽聚合按需分配资源。

采用互信HX8000大数据存储系统,是面向对象、面向服务、模块化设计的存储系统,在存储的整体架构中,可实现按需分配的原则,保证各种应用对资源的调取,实现整体存储资源的共享,满足前端海量视频存储业务需求的网络性能,并能实时在线的大规模扩容。

将网络将物理分布的存储资源聚集在一起,无缝兼容虚拟化,互信HX8000大数据存储系统独有的分布式元数据集群算法,消除了单点故障和性能瓶颈,真正实现了分布式架构的并行化,可跨广域网进行数据管理和访问。

●可靠性高

本套存储主要用于收集视频监控设备录取的数据,在使用存储系统过程中有两大特点,第一、全年不间断存取存储数据,对硬件寿命是一个极大的考验;

第二、因为存储的数据用于案件的侦破工作,证据视频存储,数据的完整性和安全性更为重要。

基于这两大特点,对存储系统更是提出了较高的要求,正是由于全年不停机硬盘进行高速的运转,直接将导致硬盘硬件老化严重,硬盘故障率高,传统的存储系统基于RAID机制进行数据保护,以RAID5举例来说,存储系统组件RAID5后,由于RAID5的保护机制,只能支持到坏一块硬盘,当维护人员对坏损硬盘进行更换时,如果有另外一块硬盘损坏,那么数据将有丢失的风险,且RAID5重建时间较长,尤其是面对公安行业这种海量数据大容量磁盘,其恢复时间会更长,在恢复过程还会极大降低系统的整体I/O性能对数据安全性是一个极大的威胁,还会有可能影响应用业务的正常使用。

建立一套更高安全机制的存储系统,在保证公安行业的数据安全和业务连续性方面,显得更为重要。

●安全性强

策略机制安全性

互信HX8000系统采用了灵活的文件副本设定机制,对重点文件可设定2/3/4等多种保护策略机制,可实现多数据中心的融合。

架构设计安全性

互信HX8000整体产品架构包括两部分,分别是接入节点和存储节点。

接入节点负责数据的调度,上层业务的数据请求通过它分发到存储节点;

存储节点负责数据的存储。

两者均采用高可用集群部署,分别是业务集群和存储集群,以满足海量数据需求。

●易操作维护

互信HX8000大数据存储系统采用标准的TCP/IP架构,具有智能化故障高速修复功能。

管理必须能够集中化、自动化、智能化,确保管理工作量不会随着容量的增长而增加。

互信HX8000大数据存储系统管理平台提供了有利于管理人员操作的友好的中图形用户界面及完备的用户手册,管理界面易操作、简洁高效,能够使管理员很容易掌所致系统的管理、监控和维护升级。

管理操作过程提供图形模式操作,全面满足使用者简单易用的需求。

系统维护是一项繁重的工作,代价也颇高。

可以说,一个系统的易维护性决定了该系统的寿命,也决定了该系统的实际运行成本。

系统管理应有详细设备运行状态报表和监控预警功能,当系统出现风险时及时通知管理员采取有效措施,避免出现严重问题。

系统硬件设备采用全冗余模块化设计,当进行系统维护时能够快速的完成,简化管理人员工作量同时降低了系统停机时间。

互信HX8000大数据存储系统支持集群化部署功能,只需要通过1个统一管理界面就可以完成对大数据存储系统内所有的存储节点进行配置操作。

在部署过程中,也可以通过1个统一管理界面就可以对整个存储系统进行统一部署,具有操作简便、部署快捷、节省人力成本特点。

互信HX8000大数据系统支持集中监控,可通过自带集中运维管理界面实现对存储系统内所有的接入节点、存储节点进行监控和管理,支持收集存储系统内所有接入节点、存储节点的运行状态和故障报警。

所有接入节点、存储节点的工作状态一目了然,同时支持语音报警、故障诊断等功能,非常方便后期的运维管理。

管理系统支持SNMP标准网管协议,支持与第三方运维管理系统对接,支持二次开发,通过对接可及时上报HX8000大数据系统的所有节点故障到第三方运维管理系统,方便对所有大数据存储系统的集中运维管理。

4.3设计方案描述

4.3.1大数据存储及平台设计

采用分布式对象架构方式进行收集视图数据存储,业务数据流及存储需通过共享平台统一接入。

交通视图数据在使用中涉及到再编辑,还会存储编辑过程的录像,记录证据视频数据编辑过程,以及编辑后的证据视频资料;

故需要有一套能满足海量视频流并发性能的存储系统。

为保证足够的网络带宽来满足海量视频流的存储与读取,以及对数据安全性的考量,本项目采用分布式对象存储架构的大数据云存储,通过聚合大数据云存储节点的网络带宽、硬盘I/O、CPU计算性能、缓存等存储部件来满足视频周期性存储的需要。

4.3.2方案设计图

示意图如下:

本次提供的互信HX8000大数据存储解决方案架构,在满足网络带宽的前提下,能大大加速视频存储的写入和读取,提高视频业务的运行效率,减少网络中数据流量的原则进行设计,如图中示例:

前端视频流通过视频综合平台分配,指向对应存储分发服务器,写入互信大数据存储资源池;

元数据服务器响应写入请求,告知存储分发服务器数据存储位置;

视频数据直接写入存储节点中,由于存储系统架构设定,在存储数据时,将数据进行切片分别存储到多个存储节点中,故读取时,也是由多个存储节点同时响应;

如果用户需要查询与调取历史视频,通过流媒体服务器指令,直接从存储转发服务器进行数据查询;

存储转发服务器接收到请求后,向元数据发送请求,查询视频文件存储位置;

元数据服务器响应告知视频文件存储位置;

多存储节点同时为存储转发服务器提供需要数据;

视频流片段直接返回给请求客户端。

通过上述数据走向,互信HX8000大数据存储解决产品,通过虚拟存储资源池对外提供统一资源调度,聚合存储系统所有硬件节点的计算能力,提高对应用系统协同工作的能力。

4.4产品特性介绍

作为巨量存储系统,HX8000天生就肩负适应大数据挑战的使命,该场景的特点是上层业务多变,数据飞速增长,数据安全性要求日益提高,对存储系统提出了较高的要求。

HX8000具备安全可靠,海量存储和高效融合的3大特点,有效应对大数据时代的挑战。

4.4.1EB级扩展

HX8000巨量存储系统为用户提供随需而变的存储容量,以高可扩展性实现逐级扩容,初期业务量不大的用户选择HX8000可以降低用户初期投入成本,同时预留了在今后业务蓬勃发展时系统平滑扩容的能力。

同时,对于已运行大容量业务系统的用户,选择HX8000可以将其以海量存储资源池的形式同时为业务系统服务,不需要担心存储系统的容量成为业务瓶颈。

HX8000是以可伸缩的、一次寻址的DHT环算法(DistributedHashTable分布式哈希算法)技术为根基,通过去中心化架构、无状态接入节点集群技术、元数据散列存储技术等关键技术构建而成可灵活扩展至EB级容量的海量对象存储系统。

4.4.1.1DHT

HX8000基于DHT(DistributedHashTable)分布式哈希算法,将所有存储单元的地址空间分区并统一编址后映射到DHT环上,每个存储单元分区负责一个小范围的地址空间路由,并负责存储一小部分数据,对每个对象的读写都能通过哈希运算一次寻址到对应的存储单元分区,从而实现整个系统的寻址和存储。

由于DHT环地址空间接近无限,通过分区大小调整,使得DHT环具备可伸缩性(如下图所示),理论上可支撑存储单元的无限增加,构筑了EB级容量扩展能力的根基。

HX8000通过使用DHT,使系统具备如下优势:

DHT架构将元数据均匀分散在所有参与节点组成的“虚拟空间”,在算法上支撑了存储层面的无限扩展能力;

DHT节点与节点之间,采用全对等的点对点数据访问,减少了中心节点索引查询的延时开销和瓶颈产生;

为用户提供随需而变的存储容量,以高可扩展性实现逐级扩容。

DHT的概念和解释如下:

我们把每一个存储单元称作物理节点,每一个物理节点都有一个节点号;

数据在HX8000中以key-value形式存储,每个key经过hash计算后,会和每个存储单元对应;

每个key计算出的Hash值,会坐落在[0,2^32-1]的整数区间内,在系统初始化的时候,会对这个大范围的整数区间进行分段,分成多个区间大小相等的Partition,Partition实际上代表了Hash分段,每个partition内的Hash整数个数一样,代表了相同长度的Hash空间;

每一个物理节点空间被划分为多个Partition(通常20~40个);

每个Partition对应称为一个虚拟节点,每个Partition区域的数据,会对应着一个虚拟节点进行存储;

HX8000系统维护并更新partition(或者说虚拟节点)与物理节点映射表;

DHT(DistributedHashTable)环为整数范围(0~2^128);

每个虚拟节点映射到DHT环上;

每个Key通过Hash运算后映射到环上相应的虚拟节点,其对应的Value(数据)则存储到虚拟节点空间;

当系统扩容时(如增加存储节点),Partition数目通常保持不变,系统会动态变更虚拟节点和物理节点的映射关系。

由于DHT环地址空间接近无限,通过调整虚拟节点映射关系乃至扩充虚拟节点数目,可支撑物理节点的无限扩展。

4.4.1.2去中心化架构

HX8000逻辑上分为两个主要层级/集群,即接入节点集群和存储节点集群。

接入节点是对象存储服务的接入点,主要功能包括处理客户端请求,建立对象传输通道,实现对客户端请求的访问控制,管理元数据。

存储节点实现数据及元数据存储、复制、一致性等功能。

如下图所示,DHT算法规则下,UDS接入节点集群与存储节点集群之间呈现全对等的点对点数据访问,即接入节点可以直接寻址访问到存储节点并进行数据读写,系统中没有传统存储架构中的中心节点,减少了索引查询时延,也规避了相应的瓶颈问题。

4.4.1.3Kinetic以太网对象硬盘

HX8000存储节点也称为以太网对象硬盘,它是由单个硬盘加上低功耗ARM芯片、小容量内存及以太网接口组成。

每一个智能硬盘都以独立的IP地址接入交换机,组成分布式全交叉互联网络(如下图所示),通过增加以太网对象硬盘的数目即可实现硬盘级最细粒度的扩容。

由于每一个以太网对象硬盘提供既定的存取吞吐量,在全对等点对点的访问机制下,系统总吞吐量将随着容量的扩展而线性增长。

4.4.1.4无状态集群

HX8000接入节点以集群方式组网,基于对象存储技术和一次简单寻址的分布式哈希算法,接入节点与存储节点之间的松耦合关系使得接入节点成为无状态服务节点,任何服务请求都可以通过负荷分担机制由任一接入节点提供服务,不存在传统存储由于状态同步、锁定机制导致的接入节点数目扩展瓶颈,因此接入节点集群内的节点数目理论上可以无限扩展,支撑EB级容量不存在架构上的瓶颈。

4.4.1.5元数据散列

HX8000没有单独的物理元数据节点,元数据服务由接入节点提供,元数据存储与数据存储机制一样,元数据分片按照相同的DHT算法规则均匀分散保存在存储节点上。

在系统并发性要求增加时,对元数据服务的请求由接入节点集群分摊,并根据需要增加接入节点的个数,提升数据请求处理能力,避免出现瓶颈。

4.4.1.6多数据中心

HX8000支持多数据中心跨地域统一调度与灵活管理,从几十TB到EB级按需扩容,满足不同规模用户需求。

如上图所示,系统在多数据中心部署情况下,可支持跨地域的同步、随SLA可灵活定制的副本数策略以及就近接入服务等,从可扩展性、可靠性、可运营性等多维度进一步夯实EB级海量存储系统的构建、部署及应用前景。

4.4.2存储策略

HX8000支持灵活配置数据的存储策略。

存储策略决定了数据的可靠性、可用性、安全性和空间占用。

当用户向HX8000发送读写请求时,HX8000的接入集群从用户服务器读取用户配置,据此确定数据的存储策略。

4.4.2.1HX8000支持纠删码(的存储策略。

采取该策略的数据,将以纠删码(ErasureCode,EC)技术产生部分冗余的数据。

如果数据的一部分损坏或丢失,UDS能够利用冗余的数据重建并修复损坏数据。

应用该策略时,数据具有相对较高的可靠性,但空间占用大幅降低,是可靠性和经济性的平衡。

对于采取低冗余策略的数据,UDS的接入集群在将数据切分为数据片的过程中,会将连续的M个数据片划分为一个EC组,并利用纠删码技术对EC组进行计算,生成N个校验数据片。

每个EC组的数据片和校验数据片,将存储在存储集群上一组连续的数据分区中,以保证每个数据片存储在不同的物理节点上,确保其可靠性。

只要每个EC组损坏的数据片数量不超过N,UDS的接入集群都能利用EC组的其它数据片将损坏数据片修复。

4.4.2.2支持数据的跨地域容灾

多数据中心策略以桶为单位进行设置。

对于一个应用了该策略的桶,HX8000的接入集群除了将桶中数据写入本地的存储集群,还会将其数据副本写入其它数据中心部署的HX8000系统中。

多数据中心的复制策略支持异步复制:

HX8000的接入集群首先将数据写入本地存储集群,然后实时产生一个后台异步复制任务,将数据写入远端数据中心,如果此次异步复制任务执行失败,HX8000通过周期性的后台扫描,到达下一个扫描周期时重新执行。

4.4.3安全可靠

随着IT的发展,人们日益认识到数据是公司最重要的资产,一旦数据丢失,对公司的影响是不可估计的,人们越来越注重数据保护。

HX8000采用多租户,多副本,ErasureCode和多种保障数据一致性技术,确保巨量数据存储场景下的数据安全可靠。

通过HX8000去中心化架构设计,任意接入节点故障(无论是人为故障或机械故障),均不会对系统可用性造成影响。

4.4.3.1多层级的数据保护

1)智能硬盘级:

Disklifecycle(磁盘生命周期管理)

HX8000的磁盘生命周期管理着重关注如何降低磁盘的故障率,并且控制磁盘故障对系统的可用性方面带来的冲击。

整个磁盘生命周期管理包含了:

磁盘检测、磁盘修复、磁盘失效控制与预重构技术等端到端的生命周期管理技术。

基于以太网对象硬盘的磁盘生命周期管理,将有效的降低磁盘损坏率,延长磁盘寿命,具有以下显著的优势:

2)存储节点级:

ErasureCode冗余算法

使用先进可靠的Erasurecode冗余算法(以下简称EC),是传统RAID的超集,与传统RAID固定成员盘的做法不同,系统将所有硬盘组成一个统一的存储资源池,数据写入时系统自动随机选择多个硬盘的组成临时RAID组,根据RAID算法生成设置的数据块和校验块,写入临时RAID组中。

与传统RAID相比,能够有效提升系统整体性能和资源利用率。

基于DHT环的EC算法为UDS系统带来重大的革新:

3)数据中心级:

跨地域容灾和切换

HX8000提供多数据中心模式,用户就近接入海量存储系统,使资源最大化利用,减少存储系统的投资;

灵活的跨地域数据冗余策略,在主数据中心发生灾难和不可预知事件时保证用户的数据不丢失,并能快速在备用数据中心恢复业务数据,降低业务中断时间,保障业务运营的连续性;

资源管理和智能负载均衡技术能使用户资源的最大利用,增加用户的投资回报。

4.4.3.2持续数据检测和修复

1)短期故障处理

在HX8000中,定义了一

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高中教育 > 高中教育

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1