ImageVerifierCode 换一换
格式:PPTX , 页数:32 ,大小:1.11MB ,
资源ID:14648245      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/14648245.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(大数据技术与应用基础-第章事件流OLAP之Druid事件数据流引擎FlinkPPT推荐.pptx)为本站会员(b****1)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

大数据技术与应用基础-第章事件流OLAP之Druid事件数据流引擎FlinkPPT推荐.pptx

1、Druid既可以运行在商业的硬件上,也可以运行在云上。它可以从多种数据系统中注入数据,包括Hadoop,Spark,Kafka,Storm和Samza等。丰富的社区。,Druid简介,Druid集群,Druid单机环境,Druid应用场所,二、Druid应用场所,应用场所,Druid应用最多的是类似于广告分析创业公司Metamarkets中的应用场景,如广告分析、互联网广告系统监控以及网络监控等。当业务中出现以下情况时,Druid是一个很好的技术方案选择:需要交互式聚合和快速探究大量数据时;需要实时查询分析时;具有大量数据时,如每天数亿事件的新增、每天数10T数据的增加;对数据尤其是大数据进行

2、实时分析时;需要一个高可用、高容错、高性能数据库时。,Druid应用场所,Druid简介,Druid单机环境,Druid集群,三、Druid集群,Druid集群是由很多功能不同的节点组成的。,三、Druid集群,Druid集群是由很多功能不同的节点组成的。,Historical Nodes:Historical Nodes可以看做是Druid集群的脊椎,它将segment固化到本地,供集群查询时使用。Broker Nodes:Broker Nodes 是客户端和相关应用从Druid集群上查询数据的节点,它的职责是对客户端过来的查询做负载,聚集和合并查询结果。Coordinator Nodes:

3、Coordinator Nodes用来管理Druid集群放在Historical Nodes上的segment。Real-time Processing:实时数据处理可以在单点实时节点或者索引服务(indexing service)完成Overload Nodes:主要是用于批量索引服务。ZooKeeper:用于集群内部通讯。Metadata Storage:用户存储segment,configuration等的metadata信息,三、Druid集群,Druid集群是由很多功能不同的节点组成的。,Druid应用场所,Druid集群,Druid简介,Druid单机环境,四、Druid单机环境,

4、安装Druid,下载并安装Druid,命令如下:curl-O http:/static.druid.io/artifacts/releases/druid-0.9.1.1-bin.tar.gztar-xzvf druid-0.9.1.1-bin.tar.gz C/hadoop/cd/hadoop/druid-0.9.1.1,安装ZooKeerper前几章以讲过,此处不赘述。,启动Druid:首先进入到Druid的根目录,执行bin/init。Druid会自动创建一个var目录,内含两个目录。一个是druid,用于存放本地环境下Hadoop的临时文件、缓存和任务的临时文件等。另一个是tmp用于存

5、放其他临时文件。,四、Druid单机环境,启动Druid服务,在单机情况下,我们可以在一台机器上启动所有的Druid服务进程,分5个终端在Druid根目录下进行。1.java cat conf-quickstart/druid/historical/jvm.config|xargs-cp conf-quickstart/druid/_common:conf-quickstart/druid/historical:lib/*io.druid.cli.Main server historical2.java cat conf-quickstart/druid/broker/jvm.config|x

6、args-cp conf-quickstart/druid/_common:conf-quickstart/druid/broker:lib/*io.druid.cli.Main server broker3.java cat conf-quickstart/druid/coordinator/jvm.config|xargs-cp conf-quickstart/druid/_common:conf-quickstart/druid/coordinator:lib/*io.druid.cli.Main server coordinator4.java cat conf-quickstart/

7、druid/overlord/jvm.config|xargs-cp conf-quickstart/druid/_common:conf-quickstart/druid/overlord:lib/*io.druid.cli.Main server overlord5.java cat conf-quickstart/druid/middleManager/jvm.config|xargs-cp conf-quickstart/druid/_common:conf-quickstart/druid/middleManager:lib/*io.druid.cli.Main server mid

8、dleManager,四、Druid单机环境,批量加载数据,服务启动之后,我们就可以将数据load到druid中进行查询了。向Druid提交一个注入数据的任务,并将目录指向我们需要加载的数据文件:wikiticker-2015-09-12-sampled.json在Druid根目录下执行如下命令:curl-X POST-H Content-Type:application/json d quickstart/wikiticker-index.json localhost:8090/druid/indexer/v1/task此时,可以在overload控制台 http:/localhost:80

9、90/console.html来查看任务的运行情况,当状态为“SUCCESS”时,说明任务执行成功。,四、Druid单机环境,加载流数据,下载并安装tranquility:/static.druid.io/tranquility/releases/tranquility-distribution-0.8.0.tgztar-xzvf tranquility-distribution-0.8.0.tgzcd tranquility-distribution-0.8.0Druid根目录中自带了一个配置文件 conf-quickstart/tranquility/server.json启动tranqu

10、ility服务进程,就可以向druid的metrics datasource推送实时数据。bin/tranquility server-configFile/conf-quickstart/tranquility/server.json在linux上具体执行如下命令:hadoopmaster:/hadoop/tranquility-distribution-0.8.0/bin$./tranquility server-configFile/hadoop/druid-0.9.1.1/conf-quickstart/tranquility/server.json,四、Druid单机环境,数据查询,

11、1、直接通过Druid查询Druid提供基于json的富文本查询方式。提供的示例中quickstart/wikiticker-top-pages.json是一个topN的查询实例。通过curl命令向http:8082/druid/v2/请求服务,请求头设置参数Content-Type:application/json,post方式提交数据quickstart/wikiticker-top-pages.json返回数据格式显示为美化(pretty)的格式。/hadoop/druid-0.9.1.1$curl-L-HContent-Type:application/json-XPOST-data-

12、binary quickstart/wikiticker-top-pages.json http:8082/druid/v2/?pretty2、数据可视化Druid是面向用户分析应用的完美方案,有很多开源的应用支持Druid的数据可视化,如pivot,caravel和metabase等。3、查询组件有许多查询组件供我们使用,如SQL引擎,还有其他各种语言提供的组件,如Python和Ruby。,大数据技术与应用基础,21世纪高等院校“云计算和大数据”人才培养规划教材,第12章,事件数据流引擎Flink,人民邮电出版社,能力,CAPACITY,要求,了解Flink系统中包含的主要进程间的作用。,熟

13、悉Flink的简单操作。,Flink基本架构,Flink概述,单机安装Flink,Flink运行第一个例子,Flink集群部署,一、Flink概述,Apache Flink是一个开源的分布式批数据以及流数据处理平台。目前已经升级为Apache顶级开源项目。无论是Spark还是 Flink,他们的主要优势都是基于内存运行机器学习算法,运行速度非常快,而且Flink支持迭代计算。,Flink概述,单机安装Flink,Flink运行第一个例子,Flink集群部署,Flink基本架构,二、Flink基本架构,Flink系统的架构与Spark类似,是一个基于Master-Slave风格的架构。,Flin

14、k系统主要包含如上3个主要的进程:,JobManager,TaskManager,Client,(1)JobManager是Flink系统的协调者,它负责接收Flink Job,调度组成Job的多个Task的执行。它还负责收集Job的状态信息,并管理Flink集群中从节点TaskManager。(2)TaskManager也是一个Actor,它是实际负责执行计算的Worker,在其上执行Flink Job的一组Task。(3)Client需要从用户提交的Flink程序配置中获取JobManager的地址,并建立到JobManager的连接,将Flink Job提交给JobManager。,Fl

15、ink基本架构,Flink概述,Flink运行第一个例子,Flink集群部署,单机安装Flink,三、单机安装Flink,安装Flink,(1)安装Jdk 1.7.X 或者以上的版本。(2)进入Flink官网下载页面选择一个与你的Hadoop版本相匹配的Flink包。下载并解压。(3)单机本地启动Flink。在Flink目录中执行 bin/start-local.sh 启动local模式。bin/start-local.sh通过查看logs文件夹下的相关日志来检查Flink系统是否在正确的运行。tail log/flink-*-jobmanager-*.log在浏览器中输入:http:8081/,Flink默认监听8081端口,防止其他进程占用此端口。此时出现下面的管理界面如下图所示。,三、单机安装Flink,安装Flink,到这里Flink已启动成功,接下来可以运行实例。,Flink基本架构,单机安装Flink,Flink概述,Flink集群部署,Flink运行第一个例子,四、Flink运行第一个例子,实例:Word

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1