ImageVerifierCode 换一换
格式:DOCX , 页数:20 ,大小:147.17KB ,
资源ID:12269570      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/12269570.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(实现多级缓存架构设计方案.docx)为本站会员(b****5)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

实现多级缓存架构设计方案.docx

1、实现多级缓存架构设计方案实现多级缓存架构设计方案为什么要做 TMC多级缓存解决方案的痛点TMC 整体架构TMC 本地缓存如何透明整体结构热点发现整体流程数据收集热度滑窗热度汇聚热点探测特性总结实战效果快手商家某次商品营销活动双十一期间部分应用 TMC 效果展示*功能展望TMC,即“透明多级缓存(Transparent Multilevel Cache)”,是有赞 PaaS 团队给公司内应用提供的整体缓存解决方案。TMC 在通用“分布式缓存解决方案(如 CodisProxy + Redis,如有赞自研分布式缓存系统 zanKV)”基础上,增加了以下功能:应用层热点探测应用层本地缓存应用层缓存命中

2、统计以帮助应用层解决缓存使用过程中出现的热点访问问题。为什么要做 TMC使用有赞服务的电商商家数量和类型很多,商家会不定期做一些“商品秒杀”、“商品推广”活动,导致“营销活动”、“商品详情”、“交易下单”等链路应用出现缓存热点访问的情况:活动时间、活动类型、活动商品之类的信息不可预期,导致 缓存热点访问 情况不可提前预知;缓存热点访问 出现期间,应用层少数热点访问 key产生大量缓存访问请求:冲击分布式缓存系统,大量占据内网带宽,最终影响应用层系统稳定性;为了应对以上问题,需要一个能够 自动发现热点 并 将热点缓存访问请求前置在应用层本地缓存的解决方案,这就是 TMC 产生的原因。多级缓存解决

3、方案的痛点基于上述描述,我们总结了下列多级缓存解决方案需要解决的需求痛点:热点探测:如何快速且准确的发现热点访问 key?数据一致性:前置在应用层的本地缓存,如何保障与分布式缓存系统的数据一致性?效果验证:如何让应用层查看本地缓存命中率、热点 key 等数据,验证多级缓存效果?透明接入:整体解决方案如何减少对应用系统的入侵,做到快速平滑接入?TMC 聚焦上述痛点,设计并实现了整体解决方案。以支持“热点探测”和“本地缓存”,减少热点访问时对下游分布式缓存服务的冲击,避免影响应用服务的性能及稳定性。TMC 整体架构TMC 整体架构如上图,共分为三层:存储层:提供基础的 kv 数据存储能力,针对不同

4、的业务场景选用不同的存储服务(codis/zankv/aerospike);代理层:为应用层提供统一的缓存使用入口及通信协议,承担分布式数据水平切分后的路由功能转发工作;应用层:提供统一客户端给应用服务使用,内置“热点探测”、“本地缓存”等功能,对业务透明;本篇聚焦在应用层客户端的“热点探测”、“本地缓存”功能。TMC 本地缓存如何透明TMC 是如何减少对业务应用系统的入侵,做到透明接入的?对于公司 Java 应用服务,在缓存客户端使用方式上分为两类:基于spring.data.redis包,使用RedisTemplate编写业务代码;基于youzan.framework.redis包,使用R

5、edisClient编写业务代码;不论使用以上那种方式,最终通过JedisPool创建的Jedis对象与缓存服务端代理层做请求交互。TMC 对原生 jedis 包的JedisPool和Jedis类做了改造,在 JedisPool 初始化过程中集成 TMC“热点发现”+“本地缓存”功能Hermes-SDK包的初始化逻辑使Jedis客户端与缓存服务端代理层交互时先与Hermes-SDK交互,从而完成 “热点探测”+“本地缓存”功能的透明接入。对于 Java 应用服务,只需使用特定版本的 jedis-jar 包,无需修改代码,即可接入 TMC 使用“热点发现”+“本地缓存”功能,做到了对应用系统的最

6、小入侵。整体结构模块划分TMC 本地缓存整体结构分为如下模块:Jedis-Client:Java 应用与缓存服务端交互的直接入口,接口定义与原生 Jedis-Client 无异;Hermes-SDK:自研“热点发现+本地缓存”功能的 SDK 封装,Jedis-Client 通过与它交互来集成相应能力;Hermes 服务端集群:接收 Hermes-SDK 上报的缓存访问数据,进行热点探测,将热点 key 推送给 Hermes-SDK 做本地缓存;缓存集群:由代理层和存储层组成,为应用客户端提供统一的分布式缓存服务入口;基础组件:etcd 集群、Apollo 配置中心,为 TMC 提供“集群推送”

7、和“统一配置”能力;基本流程1)key 值获取Java 应用调用Jedis-Client接口获取 key 的缓存值时,Jedis-Client会询问Hermes-SDK该 key 当前是否是热点key;对于热点key,直接从Hermes-SDK的 热点模块 获取热点 key 在本地缓存的 value 值,不去访问缓存集群,从而将访问请求前置在应用层;对于非热点key,Hermes-SDK会通过Callable回调Jedis-Client的原生接口,从缓存集群拿到 value 值;对于Jedis-Client的每次 key 值访问请求,Hermes-SDK都会通过其 通信模块 将key 访问事件

8、异步上报给Hermes 服务端集群,以便其根据上报数据进行“热点探测”;2)key 值过期Java 应用调用Jedis-Client的set()del()expire()接口时会导致对应 key 值失效,Jedis-Client会同步调用Hermes-SDK的invalid()方法告知其“key 值失效”事件;对于热点 key,Hermes-SDK的 热点模块 会先将 key 在本地缓存的 value 值失效,以达到本地数据强一致。同时 通信模块 会异步将“key 值失效”事件通过etcd 集群推送给 Java 应用集群中其他Hermes-SDK节点;其他Hermes-SDK节点的 通信模块

9、收到 “key 值失效”事件后,会调用 热点模块 将 key 在本地缓存的 value 值失效,以达到集群数据最终一致;3)热点发现Hermes 服务端集群不断收集Hermes-SDK上报的key 访问事件,对不同业务应用集群的缓存访问数据进行周期性(3s 一次)分析计算,以探测业务应用集群中的热点 key列表;对于探测到的热点 key列表,Hermes 服务端集群将其通过etcd 集群推送给不同业务应用集群的Hermes-SDK通信模块,通知其对热点 key列表进行本地缓存;4)配置读取Hermes-SDK在启动及运行过程中,会从Apollo 配置中心读取其关心的配置信息(如:启动关闭配置、

10、黑白名单配置、etcd 地址);Hermes 服务端集群在启动及运行过程中,会从Apollo 配置中心读取其关心的配置信息(如:业务应用列表、热点阈值配置、etcd 地址)稳定性TMC 本地缓存稳定性表现在以下方面:数据上报异步化:Hermes-SDK使用rsyslog技术对“key 访问事件”进行异步化上报,不会阻塞业务;通信模块线程隔离:Hermes-SDK的 通信模块 使用独立线程池+有界队列,保证事件上报&监听的 I/O 操作与业务执行线程隔离,即使出现非预期性异常也不会影响基本业务功能;缓存管控:Hermes-SDK的 热点模块 对本地缓存大小上限进行了管控,使其占用内存不超过 64

11、MB(LRU),杜绝 JVM 堆内存溢出的可能;一致性TMC 本地缓存一致性表现在以下方面:Hermes-SDK的 热点模块 仅缓存热点 key数据,绝大多数非热点 key数据由缓存集群存储;热点 key变更导致 value 失效时,Hermes-SDK同步失效本地缓存,保证本地强一致;热点 key变更导致 value 失效时,Hermes-SDK通过etcd 集群广播事件,异步失效业务应用集群中其他节点的本地缓存,保证集群最终一致;热点发现整体流程TMC 热点发现流程分为四步:数据收集:收集Hermes-SDK上报的 key 访问事件;热度滑窗:对 App 的每个 Key,维护一个时间轮,记

12、录基于当前时刻滑窗的访问热度;热度汇聚:对 App 的所有 Key,以的形式进行 热度排序汇总;热点探测:对 App,从 热 Key 排序汇总 结果中选出 TopN 的热点 Key ,推送给Hermes-SDK;数据收集Hermes-SDK通过本地rsyslog将key 访问事件以协议格式放入kafka,Hermes 服务端集群的每个节点消费 kafka 消息,实时获取key 访问事件。访问事件协议格式如下:appName:集群节点所属业务应用uniqueKey:业务应用 key 访问事件 的 keysendTime:业务应用 key 访问事件 的发生时间weight:业务应用 key 访问事

13、件 的访问权值Hermes 服务端集群节点将收集到的key 访问事件存储在本地内存中,内存数据结构为Mapstring,map,对应业务含义映射为Mapappname,map。热度滑窗时间滑窗Hermes 服务端集群节点,对每个 App 的每个 key,维护了一个时间轮:时间轮中共 10 个时间片,每个时间片记录当前 key 对应 3 秒时间周期的总访问次数;时间轮 10 个时间片的记录累加即表示当前 key 从当前时间向前 30 秒时间窗口内的总访问次数;映射任务Hermes 服务端集群节点,对每个 App 每 3 秒 生成一个映射任务,交由节点内 “缓存映射线程池” 执行。映射任务内容如下

14、:对当前 App,从Map appname,map中取出 appName 对应的 MapMap;遍历Map中的 key,对每个 key 取出其热度存入其时间轮对应的时间片中;热度汇聚完成第二步“热度滑窗”后,映射任务继续对当前 App 进行“热度汇聚”工作:遍历 App 的 key,将每个 key 的时间轮热度进行汇总(即 30 秒时间窗口内总热度)得到探测时刻滑窗总热度;将以排序集合的方式存入 Redis 存储服务 中,即热度汇聚结果;热点探测在前几步,每 3 秒一次的映射任务执行,对每个 App 都会产生一份当前时刻的热度汇聚结果Hermes 服务端集群中的“热点探测”节点,对每个 App

15、,只需周期性从其最近一份热度汇聚结果中取出达到热度阈值的 TopN 的 key 列表,即可得到本次探测的热点 key 列表;TMC 热点发现整体流程如下图:特性总结实时性Hermes-SDK基于rsyslog + kafka 实时上报key 访问事件。映射任务3 秒一个周期完成“热度滑窗” + “热度汇聚”工作,当有热点访问场景出现时最长 3 秒即可探测出对应热点 key。准确性key 的热度汇聚结果由“基于时间轮实现的滑动窗口”汇聚得到,相对准确地反应当前及最近正在发生访问分布。扩展性Hermes 服务端集群节点无状态,节点数可基于 kafka 的 partition 数量横向扩展。“热度滑

16、窗” + “热度汇聚” 过程基于 App 数量,在单节点内多线程扩展。实战效果快手商家某次商品营销活动有赞商家通过快手直播平台为某商品搞活动,造成该商品短时间内被集中访问产生访问热点,活动期间 TMC 记录的实际热点访问效果数据如下:某核心应用的缓存请求&命中率曲线图*上图蓝线为应用集群调用get()方法访问缓存次数上图绿线为获取缓存操作命中TMC本地缓存的次数上图为本地缓存命中率曲线图可以看出活动期间缓存请求量及本地缓存命中量均有明显增长,本地缓存命中率达到近 80%(即应用集群中 80% 的缓存查询请求被 TMC 本地缓存拦截)。热点缓存对应用访问的加速效果*上图为应用接口 QPS 曲线上图为应用接口 RT 曲线可以看出活动期间应用接口的请求量有明显增长,由于 TMC 本地缓存的效果应用接口的 RT 反而出现下降。双十一期间部分应用 TMC 效果展示*商品域核心应用效果活动域核心应用效果功能展望TMC 目前已为商品中心、物流中心、库存中心、营销活动、用户中心、网关&消息等多个核心应用模块提供服务,后续应用也在陆续接入中。TMC 在提供“热点探测” + “本地缓存”的核心能力同时,也为应用服务提供了灵活的配置选择,应用服务可以结合实际业务情况在“热点阈值”、“热点 key 探测数量”、“热点黑白名单”维度进行自由配置以达到更好的使用效果。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1