1、数据中台之结构化大数据存储设计数据中台之结构化大数据存储设计、,-、.一 . 前言任何应用系统都离不开对数据的处理, 数据也是驱动业务创新以及向智能化发展最核心 的东西。 这也是为何目前大多数企业都在构建数据中台的原因, 数据处理的技术已经是核心 竞争力。 在一个完备的技术架构中, 通常也会由应用系统以及数据系统构成。 应用系统负责 处理业务逻辑,而数据系统负责处理数据。传统的数据系统就是所谓的大数据技术,这是一个被创造出来的名词,代表着新的 技术门槛。 近几年得益于产业的发展、 业务的创新、 数据的爆发式增长以及开源技术的广泛 应用,经历多年的磨炼以及在广大开发者的共建下, 大数据的核心组件
2、和技术架构日趋成熟。 特别是随着云的发展,让 大数据 技术的使用门槛进一步降低, 越来越多的业务创新会由 数据来驱动完成。大数据 技术会逐步向轻量化和智能化方向发展, 最终也会成为一个研发工程师的必 备技能之一, 而这个过程必须是由云计算技术来驱动以及在云平台之上才能完成。 应用系统 和数据系统也会逐渐融合, 数据系统不再隐藏在应用系统之后, 而是也会贯穿在整个业务交 互逻辑。传统的应用系统,重点在于交互。而现代的应用系统,在与你交互的同时,会慢慢 的熟悉你。数据系统的发展驱动了业务系统的发展,从业务化到规模化,再到智能化。例如对大数据组件的规模业务化:完成最基本的业务交互逻辑。 规模化:分布
3、式和大数据技术的应用,满足业务规模增长的需求以及数据的积累。 智能化:人工智能技术的应用,挖掘数据的价值,驱动业务的创新。 向规模化和智能化的发展, 仍然存在一定的技术门槛。 成熟的开源技术的应用能让一个 大数据系统的搭建变得简单, 同时大数据架构也变得很普遍, 例如广为人知的 Lambda 架构, 一定程度上降低了技术的入门门槛。 但是对数据系统的后续维护, 化应用、运维管控和成本优化, 需要掌握大数据、 分布式技术及复杂环境下定位问题的能力, 仍然具备很高的技术门槛。数据系统的核心组件包含数据管道、 分布式存储和分布式计算, 数据系统架构的搭建会 是使用这些组件的组合拼装。每个组件各司其职
4、,组件与组件之间进行上下游的数据交换, 而不同模块的选择和组合是架构师面临的最大的挑战。本篇文章主要面向数据系统的研发工程师和架构师, 我们会首先对数据系统核心组件进 行拆解, 介绍每个组件下对应的开源组件以及云上产品。 之后会深入剖析数据系统中结构化 数据的存储技术, 介绍阿里云 Tablestore 选择哪种设计理念来更好的满足数据系统中对结构 化数据存储的需求。二. 数据系统架构1. 核心组件广Si5極畫应用层用待riG样护r?上图是一个比较典型的技术架构, 包含应用系统和数据系统。这个架构与具体业务无关联,主要用于体现一个数据应用系统中会包含的几大核心组件,以及组件间的数据流关系。 应
5、用系统主要实现了应用的主要业务逻辑, 处理业务数据或应用元数据等。 数据系统主要对业务数据及其他数据进行汇总和处理, 对接BI、推荐或风控等系统。整个系统架构中,会包含以下比较常见的几大核心组件:(1)込松fl.丸黄蛊荷讪y rJ滞甫迤?关系数据库:用于主业务数据存储,提供事务型数据处理,是应用系统的核心数据 存储。高速缓存:对复杂或操作代价昂贵的结果进行缓存,加速访问。搜索引擎:提供复杂条件查询和全文检索。队列:用于将数据处理流程异步化,衔接上下游对数据进行实时交换。异构数据存 储之间进行上下游对接的核心组件,例如数据库系统与缓存系统或搜索系统间的数 据对接。也用于数据的实时提取,在线存储到
6、离线存储的实时归档。非结构化大数据存储:用于海量图片或视频等非结构化数据的存储,同时支持在线 查询或离线计算的数据访问需求。结构化大数据存储:在线数据库也可作为结构化数据存储,但这里提到的结构化数 据存储模块,更偏在线到离线的衔接,特征是能支持高吞吐数据写入以及大规模数 据存储,存储和查询性能可线性扩展。可存储面向在线查询的非关系型数据,或者 是用于关系数据库的历史数据归档,满足大规模和线性扩展的需求,也可存储面向 离线分析的实时写入数据。(7)批量计算:对非结构化数据和结构化数据进行数据分析,批量计算中又分为交互式 分析和离线计算两类,离线计算需要满足对大规模数据集进行复杂分析的能力,交 互
7、式分析需要满足对中等规模数据集实时分析的能力。(8) 流计算:对非结构化数据和结构化数据进行流式数据分析,低延迟产出实时视图。对于数据存储组件我们再进一步分析, 当前各类数据存储组件的设计是为满足不同场景下数据存储的需求,提供不同的数据模型抽象, 以及面向在线和离线的不同的优化偏向。 我们来看下下面这张详细对比表:存分SttlRifi成规间特ffi本模关强一致累酸型数高申访问,据关联直库询低逛迟速低ey-Valu缱高曬机查存询过谑直询和糙索支4彭直弱.高支持QL旦向语音,关联 葩和累引Jttn速对量杂条件板高,满疋高速Key Valuejf 式结果数据查询,或肴旱高連 的内存数据空换通道.a
8、构 化 大结 构 化 大查询性能常见数据类璽交易、账单、昨元数辭关垂数据後杂结果第數据,或 者是需妾通过内存高 速交刪数据.多字段联合条件过臥全读取单 他据 文件,可漬岸大牠匕=扫描文件童单行辭机访问,或批崔范與型产品OraclySQLRedisEla(stin,对S除釧牛过谑直询和检索点持较好.支持数据桐关性排序也支持轻量级数据分面向搀索胥询鹽据csearOpen析。Searc面向吞叶优化.为在线苟旬和 离坟计算都if供高吞叶的数据 I读取d是供极为出色的高吞吐数据写入能力.罔片和视频数購数|库归档数据OSDFSHBas首先滿足数据高吞叶写入以丹i甬岸作为关系数据库e * Ca大规梯存储,数
9、据缰存和鬲引的补充*存储历史归iiand技?n提供高井发低証迟的数据档数属或者是一3 , T访问血向禽线廿算也撓供高非关杀桓型数据拠ablest呑吐时数据L3描,対时序、日志等.orfOTS)2.派生数据体系在数据系统架构中,我们可以看到会存在多套存储组件。对于这些存储组件中的数据, 有些是来自应用的直写, 有些是来自其他存储组件的数据复制。 例如业务关系数据库的数据通常是来自业务,而高速缓存和搜索引擎的数据, 通常是来自业务数据库的数据同步与复制。不同用途的存储组件有不同类型的上下游数据链路, 我们可以大概将其归类为主存储和辅存储两类,这两类存储有不同的设计目标,主要特征为:(1)ACID等
10、事务特主存储:数据产生自业务或者是计算,通常为数据首先落地的存储。性可能是强需求,提供在线应用所需的低延迟业务数据查询。(2)辅存储:数据主要来自主存储的数据同步与复制,辅存储是主存储的某个视图,通 常面向数据查询、检索和分析做优化。为何会有主存储和辅存储的存在?能不能统一存储统一读写,满足所有场景的需求呢? 目前看还没有,存储引擎的实现技术有多种, 选择行存还是列存,选择B+tree还是LSM-tree , 存储的是不可变数据、频繁更新数据还是时间分区数据,是为高速随机查询还是高吞吐扫描 设计等等。数据库产品目前也是分两类, TP和AP,虽然在往HTAP方向走,但实现方式仍然是底层存储分为行
11、存和列存。再来看主辅存储在实际架构中的例子,例如关系数据库中主表和二级索引表也可以看做 是主与辅的关系,索引表数据会随着主表数据而变化, 强一致同步并且为某些特定条件组合查询而优化。关系数据库与高速缓存和搜索引擎也是主与辅的关系, 采用满足最终一致的数据同步方式,提供高速查询和检索。在线数据库与数仓也是主与辅的关系, 在线数据库内数据集中复制到数仓来提供高效的 BI分析。这种主与辅的存储组件相辅相成的架构设计, 我们称之为派生数据体系。在这个体系下,最大的技术挑战是数据如何在主与辅之间进行同步与复制。上图我们可以看到几个常见的数据复制方式:(1) 应用层多写这是实现最简单、依赖最少的一种实现方
12、式,不比较难灵活添加辅通常采取的方式是在应用代码中先向主存 储写数据,后向辅存储写数据。 这种方式不是很严谨, 通常用在对数据可靠性要求不是很高 的场景。因为存在的问题有很多, 一是很难保证主与辅之间的数据一致性, 无法处理数据写入失效问题;二是数据写入的消耗堆积在应用层, 加重应用层的代码复杂度和计算负担,是一种解耦很好的架构; 三是扩展性较差,数据同步逻辑固化在代码中,存储。(2)异步队列复制这是目前被应用比较广的架构,应用层将派生数据的写入通过队列来异步化和解耦。 种架构下可将主存储和辅存储的数据写入都异步化, 也可仅将辅存储的数据写入异步化。一种方式必须接受主存储可异步写入, 否则只能
13、采取第二种方式。而如果采用第二种方式的话,也会遇到和上一种应用层多写方案类似的问题,应用层也是多写,只不过是写主存 储与队列,队列来解决多个辅存储的写入和扩展性问题。(3) CDC( Change Data Capture)技术这种架构下数据写入主存储后会由主存储再向辅存储进行同步,对应用层是最友好的, 只需要与主存储打交道。主存储到辅存储的数据同步, 则可以再利用异步队列复制技术来做。 不过这种方案对主存储的能力有很高的要求,必须要求主存储能支持 CDC技术。一个典型的例子就是 MySQL+Elasticsearch的组合架构,Elasticsearch的数据通过 MySQL的biniog来
14、同 步,binIog就是MySQL的CDC技术。派生数据体系是一个比较重要的技术架构设计理念,其中 CDC技术是更好的驱动数据流动的关键手段。具备 CDC技术的存储组件,才能更好的支撑数据派生体系,从而能让整个数据系统架构更加灵活, 降低了数据一致性设计的复杂度, 从而来面向高速迭代设计。可惜的是大多数存储组件不具备 CDC技术,例如HBase。而阿里云Tablestore具备非常成熟的CDC技术,CDC技术的应用也推动了架构的创新,这个在下面的章节会详细介绍。一个好的产品,在产品内部会采用派生数据架构来不断扩充产品的能力, 能将派生的过程透明化,内部解决数据同步、 一致性及资源配比问题。 而
15、现实中大多数技术架构采用产品组合的派生架构,需要自己去管理数据同步与复制等问题, 例如常见的MySQL+Elasticsearch,或HBase+SoIr等。这种组合通常被忽视的最大问题是, 在解决CDC技术来实时复制数据后,如何解决数据一致性问题?如何追踪数据同步延迟?如何保证辅存储与主存储具备相同的 数据写入能力?3.存储组件的选型架构师在做架构设计时,最大的挑战是如何对计算组件和存储组件进行选型和组合, 同类的计算引擎的差异化相对不大, 通常会优先选择成熟和生态健全的计算引擎, 例如批量计算引擎Spark和流计算引擎Flink。而对于存储组件的选型是一件非常有挑战的事, 存储组件包含数据
16、库(又分为 SQL和NoSQL两类,NoSQL下又根据各类数据模型细分为多类) 、对象存储、文件存储和高速缓存等不同类别。 带来存储选型复杂度的主要原因是架构师需要综合考虑数据分层、成本优化以及面向在线和离线的查询优化偏向等各种因素, 且当前的技术发展还是多样化的发展趋势, 不存在一个存储产品能满足所有场景下的数据写入、 存储、查询数据模型和查询语言仍然是不同数据库最显著的区别,关系模型和文档模型是相对 抽象的模型,而类似时序模型、图模型和键值模型等其他非关系模型是相对具象的 抽象,如果场景能匹配到具象模型,那选择范围能缩小点。存储组件通常会划分到不同的数据分层,选择面向规模、成本、查询和分析
17、性能等 不同维度的优化偏向,选型时需要考虑清楚对这部分数据存储所要求的核心指标。区分主存储还是辅存储, 对数据复制关系要有明确的梳理。 (主存储和辅存储是什么在下一节介绍)建立灵活的数据交换通道,满足快速的数据搬迁和存储组件间的切换能力,构建快 速迭代能力比应对未知需求的扩展性更重要。另外关于数据存储架构,我认为最终的趋势是:数据一定需要分层数据最终的归属地- 定是 OSS会由一个统一的分析引擎来统一分析的入口,并提供统一的查询语言和分析等需求。有一些经验可以分享给大家:(1)(1)(2)(3)4.结构化大数据存储结构化大数据存储在数据系统中是一个非常关键的组件, 它起的一个很大的作用是连接在
18、线和离线。作为数据中台中的结构化数据汇总存储,用于在线数据库中数据的汇总来对接离线数据分析,也用于离线数据分析的结果集存储来直接支持在线查询或者是数据 派生。根据这样的定位,我们总结下对结构化大数据存储的几个关键需求。5.关键需求(1) 大规模数据存储结构化大数据存储的定位是集中式的存储,作为在线数据库的汇总(大宽表模式) 者是离线计算的输入和输出,必须要能支撑 PB级规模数据存储。(2) 高吞吐写入能力数据从在线存储到离线存储的转换,通常是通过 ETL工具,步。结构化大数据存储需要能支撑多个在线数据库内数据的导入, 擎的海量结果数据集导出。所以必须能支撑高吞吐的数据写入, 化的存储引擎。(3
19、) 丰富的数据查询能力,或T+1式的同步或者是实时同 也要能承受大数据计算引 通常会采用一个为写入而优结构化大数据存储作为派生数据体系下的辅存储, 见的查询优化包括高速缓存、高并发低延迟的随机查询、 数据检索。这些查询优化的技术手段就是缓存和索引,本的分离。存储和计算成本的分离的优势,在大数据系统下会更加明显。 化大数据存储的存储量会随着数据的积累越来越大, 但是数据写入量是相对平稳的。储需要不断的扩大,但是为了支撑数据写入或临时的数据分析而所需的计算资源, 说比较固定,是按需的。(5) 数据派生能力一个完整的数据系统架构下, 需要有多个存储组件并存。 并且根据对查询和分析能力的 不同要求,需
20、要在数据派生体系下对辅存储进行动态扩展。 所以对于结构化大数据存储来说,也需要有能扩展辅存储的派生能力, 来扩展数据处理能力。 而判断一个存储组件是否具备更 好的数据派生能力,就看是否具备成熟的 CDC技术。(6) 计算生态数据的价值需要靠计算来挖掘, 目前计算主要划为批量计算和流计算。 对于结构化大数据存储的要求,一是需要能够对接主流的计算引擎,例如 Spark、Flink等,作为输入或者是输出;二是需要有数据派生的能力,将自身数据转换为面向分析的列存格式存储至数据湖系 统;三是自身提供交互式分析能力,更快挖掘数据价值。满足第一个条件是最基本要求,满足第二和第三个条件才是加分项。6.开源产品
21、目前开源界比较知名的结构化大数据存储是 HBase和Cassandra, Cassandra是WideColumn模型NoSQL类别下排名Top-1的产品,在国外应用比较广泛。但这里我们重点 提下HBase,因为在国内的话相比 Cassandra会更流行一点。HBase是基于HDFS的存储计算分离架构的 WideColumn模型数据库,拥有非常好的扩展性,(1),能支撑大规模数据存储,它的优点为:存储计算分离架构:底层基于HDFS分离的架构可带来存储和计算各自弹性扩展的 优势,与计算引擎例如 Spark可共享计算资源,降低成本。LSM存储引擎:为写入优化设计,能提供高吞吐的数据写入。开发者生态
22、成熟,接入主流计算引擎:作为发展多年的开源产品,在国内也有比较 多的应用,开发者社区很成熟,对接几大主流的计算引擎。HBase有其突出的优点,但也有几大不可忽视的缺陷:(1) 查询能力弱提供高效的单行随机查询以及范围扫描, 复杂的组合条件查询必须使用 Scan+Filter的方式,稍不注意就是全表扫描,效率极低。 HBase的P hoe nix提供了二级索引来优化查询,但和MySQL的二级索引一样,只有符合最左匹配的查询条件才能做索引优化,可被优化的查 询条件非常有限。(2) 数据派生能力弱前面章节提到CDC技术是支撑数据派生体系的核心技术, HBase不具备CDC技术。HBaseReplic
23、ation具备CDC的能力,但是仅为HBase内部主备间的数据同步机制。 有一些开源组件利用其内置Replication能力来尝试扩展 HBase的CDC技术,例如用于和Solr同步的Lily Indexer, 但是比较可惜的是这类组件从理论和机制上分析就没法做到 CDC技术所要求的数据保序、最终一致性保证等核心需求。HBase的成本取基于固定配比物理资源的部署模式下 CPU即随着存储空间的增大,CPU核数成本也会 要达到完全的存储与计算成本分离, 只(3) 成本高前面提到结构化大数据存储的关键需求之一是存储与计算的成本分离, 决于计算所需CPU核数成本以及磁盘的存储成本, 和存储永远会有一个
24、无法降低的最小比例关系。 相应变大,而不是按实际所需计算资源来计算成本。 有云上的Serverless服务模式才能做到。(4) 运维复杂Zookeeper和HDFS没有专业的运维团队HBase是标准的Hadoop组件,最核心依赖是 几乎无法运维。(5) 热点处理能力差HBase的表的分区是 Range Partition的方式,相比Hash Partition的模式最大的缺陷就是 会存在严重的热点问题。 HBase提供了大量的最佳实践文档来指引开发者在做表的 Rowkey设计的时候避免热点,例如采用 hash key,或者是salted-table的方式。但这两种方式下能保证数据的分散均匀,
25、但是无法保证数据访问的热度均匀。 访问热度取决于业务, 需要一种能根据热度来对 Region进行Split或Move等负载均衡的自动化机制。HBase国内的高级玩家大多会基于 HBase做二次开发,基本都是在做各种方案来弥补HBase查询能力弱的问题,根据自身业务查询特色研发自己的索引方案,例如自研二级索引方案、 对接Solr做全文索引或者是针对区分度小的数据集的 bitmap索引方案等等。总的来说,是一个优秀的开源产品,有很多优秀的设计思路值得借鉴。7. TablestoreTablestore是阿里云自研的结构化大数据存储产品,具体产品介绍可以参考官网以及权 威指南。Tablestore的
26、设计理念很大程度上顾及了数据系统内对结构化大数据存储的需求, 并且基于派生数据体系这个设计理念专门设计和实现了一些特色的功能。(1) 设计理念Tablestore的设计理念一方面吸收了优秀开源产品的设计思路,另一方面也是结合实际 业务需求演化出了一些特色设计方向,简单概括下 Tablestore的技术理念:存储计算分离架构: 采用存储计算分离架构, 底层基于飞天盘古分布式文件系统, 这是实现存储计算成本分离的基础。LSM存储引擎:LSM和B+tree是主流的两个存储引擎实现,其中 LSM专为高吞吐数据写入优化,也能更好的支持数据冷热分层。Serverless产品形态:基于存储计算分离架构来实现
27、成本分离的最关键因素是 Serverless服务化,只有Serverless服务才能做到存储计算成本分离。大数据系统下,结构化大数据存 储通常会需要定期的大规模数据导入, 来自在线数据库或者是来自离线计算引擎, 在此时需要有足够的计算能力能接纳高吞吐的写入, 而平时可能仅需要比较小的计算能力, 计算资源要足够的弹性。另外在派生数据体系下,主存储和辅存储通常是异构引擎, 在读写能力上均有差异,有些场景下需要灵活调整主辅存储的配比,此时也需要存储和计算资源弹性可调。多元化索引,提供丰富的查询能力:LSM引擎特性决定了查询能力的短板, 需要索引来优化查询。而不同的查询场景需要不同类型的索引,所以 T
28、ablestore提供多元化的索引来满足不同类型场景下的数据查询需求。CDC技术:Tablestore的CDC技术名为Tunnel Service,支持全量和增量的实时数据订阅, 并且能无缝对接Flink流计算引擎来实现表内数据的实时流计算。拥抱开源计算生态:除了比较好的支持阿里云自研计算引擎如 MaxCompute和Data LakeAnalytics的计算对接,也能支持 Flink和Spark这两个主流计算引擎的计算需求,无需数据搬迁。流批计算一体:能支持Spark对表内全量数据进行批计算, 也能通过CDC技术对接Flink来对表内新增数据进行流计算,真正实现批流计算结合。(2) 特色功能
29、多元化索引能为满足最左匹配原则的条件查询做优化, 提供低成本存多元索引能提供更丰富的查询功能, 包含任意列的组合条也能支持轻量级数据分析,提供基本的统计聚合函数, 两种Tablestore提供多种索引类型可选择,包含全局二级索引和多元索引。全局二级索引类 似于传统关系数据库的二级索引, 储和高效的随机查询和范围扫描。 件查询、全文搜索和空间查询, 索引的对比和选型可参考这篇文章。通道服务通道服务是Tablestore的CDC技术,是支撑数据派生体系的核心功能, 具体能力可参考这篇文章。能够被利用在异构存储间的数据同步、 事件驱动编程、表增量数据实时订阅以及流计算场景。目前在云上 Tablest
30、ore与Blink能无缝对接,也是唯一一个能直接作为 Blink的stream source的结构化大数据存储。大数据处理架构大数据处理架构是数据系统架构的一部分, 其架构发展演进了多年, 有一些基本的核心架构设计思路产出, 例如影响最深远的 Lambda架构。Lambda架构比较基础,有一些缺陷, 所以在其基础上又逐渐演进出了 Kappa、Kappa+等新架构来部分解决 Lambda架构中存在的一些问题,详情介绍可以看下这篇文章的介绍。 Tablestore基于CDC技术来与计算引擎相结合,基于Lambda架构设计了一个全新的 Lambda plus架构。Lambda plus 架构Lambda架构的核心思想是将不可变的数据以追加的方式并行写到批和流处理系统内, 随后将相同的计算逻辑分别在流和批系统中实现, 并且在查询阶段合并流和批的计算视图并展示给用户。基于 Tablestore CDC技术我们将Tablestore与Blink进行了完整对接,可作为Blink 的 stream source、dim 禾R sink, 推出了 Lambda plus 架构:Lambda plus架构中数据只需要写入 Tablestore, Blink流计算框架通过通道服务 API直读表内的实时更新数据,不需要用户双写队列或者自己实现数据同步。存储上,La
copyright@ 2008-2022 冰豆网网站版权所有
经营许可证编号:鄂ICP备2022015515号-1