ImageVerifierCode 换一换
格式:DOCX , 页数:14 ,大小:107.61KB ,
资源ID:11225127      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/11225127.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(大数据职业进展方向.docx)为本站会员(b****7)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

大数据职业进展方向.docx

1、大数据职业进展方向大数据职业进展方向一、大数据的概念及特点:大数据本身确实是一个很抽象的概念,提及大数据很多人也只能从数据量上去感知大数据的规模,大数据被概念为“代表着人类认知进程的进步,数据集的规模是无法在可容忍的时刻内用目前的技术、方式和理论去获取、治理、处置的数据。大数据不是一种新技术,也不是一种新产品,而是一种新现象,是近来研究的一个技术热点。大数据具有以下4个特点,即4个“V”: (1) 数据体量(Volumes) 庞大。大型数据集,从TB级别,跃升到PB级别。 (2) 数据类别(Variety) 繁多。数据来自多种数据源,数据种类和格式冲破了以前所限定的结构化数据范围,囊括了半结构

2、化和非结构化数据。 (3) 价值(Value) 密度低。以视频为例,持续不中断监控进程中,可能有效的数据仅仅一两秒钟。 (4) 处置速度(Velocity) 快。包括大量在线或实时数据分析处置的需求,1秒定律。最后这一点也是和传统的数据挖掘技术有着本质的不同。物联网、云计算、移动互联网、车联网、电话、平板电脑、PC和遍及地球各个角落的各类各样的传感器,无一不是数据来源或承载的方式。二、大数据处置流程: 从大数据的特点和产生领域来看,大数据的来源相当普遍,由此产生的数据类型和应用途理方式千差万别。可是总的来讲,大数据的大体处置流程多数是一致的。整个处置流程能够归纳为四步,别离是搜集、导入和预处置

3、、统计和分析,最后是数据挖掘。三、大数据分解结构: 第一层面是理论,理论是认知的必经途径,也是被普遍认同和传播的基线。我会从大数据的特点概念明白得行业对大数据的整体刻画和定性;从对大数据价值的探讨来深切解析大数据的宝贵所在;从对大数据的此刻和以后去洞悉大数据的进展趋势;从大数据隐私那个专门而重要的视角凝视人和数据之间的长久博弈。第二层面是技术,技术是大数据价值表现的手腕和前进的基石。我将别离从云计算、散布式处置技术、存储技术和感知技术的进展来讲明大数据从搜集、处置、存储到形成结果的整个进程。第三层面是实践,实践是大数据的最终价值表现。 。四、大数据相关的技术:一、云技术大数据常和云计算联系到一

4、路,因为实时的大型数据集分析需要散布式处置框架来向数十、数百或乃至数万的电脑分派工作。能够说,云计算充当了工业革命时期的发动机的角色,而大数据那么是电。二、散布式处置技术:散布式处置系统能够将不同地址的或具有不同功能的或拥有不同数据的多台运算机用通信网络连接起来,在操纵系统的统一治理操纵下,和谐地完成信息处置任务-这确实是散布式处置系统的概念。目前最经常使用的是Hadoop技术,Hadoop是一个实现了MapReduce模式的能够对大量数据进行散布式处置的软件框架,是以一种靠得住、高效、可伸缩的方式进行处置的。Hadoop用到的一些技术有:HDFS: Hadoop散布式文件系统(Distrib

5、uted File System) - HDFS (HadoopDistributed File System)MapReduce:并行计算框架HBase: 类似Google BigTable的散布式NoSQL列数据库。Hive:数据仓库工具。Zookeeper:散布式锁设施,提供类似Google Chubby的功能。Avro:新的数据序列化格式与传输工具,将慢慢取代Hadoop原有的IPC机制。Pig:大数据分析平台,为用户提供多种接口。Ambari:Hadoop治理工具,能够快捷的监控、部署、治理集群。Sqoop:用于在Hadoop与传统的数据库间进行数据的传递。3、存储技术大数据能够抽象

6、的分为大数据存储和大数据分析,这二者的关系是:大数据存储的目的是支撑大数据分析。4、感知技术大数据的搜集和感知技术的进展是紧密联系的。以传感器技术,指纹识别技术,RFID技术,坐标定位技术等为基础的感知能力提升一样是物联网进展的基石。五、大数据人材方向:目前,大数据方面要紧有五大人材方向: 大数据核心研发方向(系统研发); 大数据性能调优方向; 大数据挖掘、分析方向; 大数据运维、云计算方向 数据分析师方向(CDA、CPDA)大数据是一项基于Java的散布式架构技术,用来治理及分析海量数据。大数据核心研发(系统研发)方向:基础课程篇:1、Java基础课程(大数据任何方向必学内容)2、Linux

7、基础基础课程(大数据任何方向必学内容)3、Shell编程从程序员的角度来看, Shell本身是一种用C语言编写的程序,从用户的角度来看,Shell是用户与Linux操作系统沟通的桥梁。用户既能够输入命令执行,又能够利用 Shell脚本编程,完成加倍复杂的操作。软件语言篇:4、Hadoop是一个开发和运行处置大规模数据的软件平台,是Appach的一个用java语言实现开源软件框架,实此刻大量运算机组成的集群中对海量数据进行散布式计算。5、HDFS6、YARN7、MapReduce8、ETL(数据仓库技术)9、Hive(数据仓库工具)10、Sqoop1一、Flume12、HBase13、Storm

8、14、Scala15、KafkaMQ16、Spark17、Spark核心源码剖析18、CM治理19、CDH集群HDFSHadoop散布式文件系统(HDFS)被设计成适合运行在通用硬件(commodity hardware)上的散布式文件系统。全 称: Hadoop Distributed File System 简 称: hdfs 实 质: 散布式文件系统 作 用: 作为Apache Nutch的基础架构 特 点: 高容错性 适 用: 大规模数据集原 理: HDFS就像一个传统的分级文件系统。能够创建、删除、移动或重命名文件,等等。HDFS是Hadoop兼容最好的标准文件系统,因为Hadoop

9、是一个综合性的文件系统抽象,因此HDFS不是Hadoop必需的。因此也能够明白得为Hadoop是一个框架,HDFS是Hadoop中的一个部件。优 点:1)存储超大文件,存储文件为TB,乃至PB;2)流式数据读取,一次写入多次读取,是最高效的访问模式;3)商用硬件,设计运行一般的廉价的PC上。缺 点:1)数据访问延迟高,设计于大吞吐量数据的,这是以必然的延迟为代价; 2)文件数受限,存储的文件总数受限于NameNode的内存容量; 3)不支持多用户写入,也不支持任意修改文件。替代品:1)DataStax不是文件系统,而是一个开源的代码,NoSQL键/值存储,依托快速的数据访问。 2)CEPH 一

10、个开源代码,是一家名为Inktank做多种存储系统的商业软件。其特点是高性能并行文件系统。 3)Dispersed Storage Network Cleversafe这一新产品将Hadoop MapReduce与企业分散存储网络系统相融合。跨过集群完全分派元数据,也不依托于复制,Cleversafe以为与HDFS相较,Dispersed Storage Network的速度更快,更靠得住。 4)Lustre 是一个开发源代码的高性能文件系统,一些人宣称在性能灵敏区域其能够作为HDFS的一个替代方案。YARN Apache Hadoop YARN (另一种资源和谐者)是一种新的 Hadoop

11、资源治理器,它是一个通用资源治理系统,可为上层应用提供统一的资源治理和调度,它的引入为集群在利用率、资源统一治理和数据共享等方面带来了庞大益处。YARN从某种那个意义上来讲应该算做是一个云操作系统,它负责集群的资源治理。实 质:一种新的Hadoop资源治理器作 用:修复MapReduce实现里的明显不足,并对可伸缩性(支持一万个节点和二十万个内核的集群)、靠得住性和集群利用率进行了提升缺 点:这种架构存在不足,要紧表此刻大型集群上。当集群包括的节点超过 4,000 个时(其中每一个节点可能是多核的),就会表现出必然的不可预测性。其中一个最大的问题是级联故障,由于要尝试复制数据和重载活动的节点,

12、因此一个故障会通过网络泛洪形式致使整个集群严峻恶化。优 点:大大减小了 JobTracker(也确实是此刻的 ResourceManager)的资源消耗,而且让监测每一个 Job 子任务 (tasks) 状态的程序散布式化了,更平安、更优美。MapReduce MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算。概念Map(映射)和Reduce(归约),是它们的要紧思想,都是从函数式编程语言里借来的,还有从矢量编程语言里借来的特性。它极大地址便了编程人员在可不能散布式并行编程的情形下,将自己的程序运行在散布式系统上。本 质:一种编程模型 用 途:大规模数据集的并行运算

13、特 点:散布靠得住应 用:大规模的算法图形处置、文字处置等要紧功能:1)数据划分和计算任务调度; 2)数据/代码互定位; 3)系统优化; 4)犯错检测和恢复。技术特点:1)向“外”横向扩展,而非向“上”纵向扩展 2)失效被以为是常态3)把处置向数据迁移4)顺序处置数据、幸免随机访问数据5)为应用开发者隐藏系统层细节6)滑腻无缝的可扩展性 ETL(数据仓库技术) 用来描述将数据从来源端通过抽取(extract)、转换(transform)、加载(load)至目的端的进程。ETL一词较经常使用在数据仓库,但其对象并非限于数据仓库。 ETL是构建数据仓库的重要一环,用户从数据源抽掏出所需的数据,通过

14、数据清洗,最终依照预先概念好的数据仓库模型,将数据加载到数据仓库中去。软件名称:Extract-Transform-Load 过 程:数据抽取、清洗、转换、装载 应 用:Informatica、Datastage、OWB、 数据集成:快速实现ETL特 性:正确性、完整性、一致性、完备性、有效性、时效性和可获取性等几个特性。阻碍特性缘故:业务系统不同时期系统之间数据模型不一致;业务系统不同时期业务进程有转变;旧系统模块在运营、人事、财务、办公系统等相关信息的不一致;遗留系统和新业务、治理系统数据集成不完备带来的不一致性。转换进程:1)空值处置:可捕捉字段空值,进行加载或替换为其他含义数据,并可依

15、照字段空值实现分流加载到不同目标库。2)标准化数据格式:可实现字段格式约束概念,关于数据源中时刻、数值、字符等数据,可自概念加载格式。3)拆分数据:依据业务需求对字段可进行分解4)验证数据正确性:可利用Lookup及拆分功能进行数据验证5)数据替换:关于因业务因素,可实现无效数据、缺失数据的替换。6)Lookup:查获丢失数据 Lookup实现子查询,并返回用其他手腕获取的缺失字段,保证字段完整性。7)成立ETL进程的主外键约束:对无依托性的非法数据,可替换或导出到错误数据文件中,保证主键唯一记录的加载。功能特点:1)治理简单2)标准概念数据3)拓展新型应用Hive(数据仓库工具)hive是基

16、于Hadoop的一个数据仓库工具,能够将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,能够将sql语句转换为MapReduce任务进行运行。Hive是成立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具,能够用来进行数据提取转化加载(ETL),这是一种能够存储、查询和分析存储在 Hadoop 中的大规模数据的机制。兼容性: hadoop生态圈 依 赖: jdk,hadoop 定 义: 在 Hadoop 上的数据仓库基础构架适 用: Hive 构建在基于静态批处置的Hadoop 之上,Hadoop 通常都有较高的延迟而且在作业提交和调度的时候需要大量的开销。因此,H

17、ive 并非能够在大规模数据集上实现低延迟快速的查询。特 性:1)支持索引,加速数据查询。2)不同的存储类型,例如,纯文本文件、HBase 中的文件。3)将元数据保留在关系数据库中,大大减少了在查询进程中执行语义检查的时刻。4)能够直接利用存储在Hadoop 文件系统中的数据。5)内置大量用户函数UDF 来操作时刻、字符串和其他的数据挖掘工具,支持用户扩展UDF 函数来完成内置函数无法实现的操作。6)类SQL 的查询方式,将SQL 查询转换为MapReduce 的job 在Hadoop集群上执行。体系结构:1)用户接口用户接口要紧有三个:CLI,Client 和 WUI 2)元数据存储Hive

18、 将元数据存储在数据库中,如 mysql、derby 3)说明器、编译器、优化器、执行器说明器、编译器、优化器完成 HQL 查询语句从词法分析、语法分析、编译、优化和查询打算的生成。生成的查询打算存储在 HDFS 中,并在随后由 MapReduce 挪用执行。SqoopSqoop是一款开源的工具,要紧用于在Hadoop(Hive)与传统的数据库(mysql、postgresql.)间进行数据的传递,能够将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也能够将HDFS的数据导进到关系型数据库中。 特 点:能够通过hadoop

19、的mapreduce把数据从关系型数据库中导入数据到HDFS。flume Flume是Cloudera提供的一个高可用的,高靠得住的,散布式的海量日记搜集、聚合和传输的系统,Flume支持在日记系统中定制各类数据发送方,用于搜集数据;同时,Flume提供对数据进行简单处置,并写到各类数据同意方(可定制)的能力。 中文名:水槽 特 点:聚合和传输的系统 实 质:孵化项目是经济方面的用于,一项鉴定成功,付诸实施的项目。功 能:1)日记搜集;2)数据处置 HBase HBase是一个散布式的、面向列的开源数据库,一个结构化数据的散布式存储系统。HBase不同于一样的关系数据库,它是一个适合于非结构化

20、数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。 结 构:散布式存储系统 优 点:HBase Hadoop Database,是一个高靠得住性、高性能、面向列、可伸缩的散布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。 模 型:逻辑模型要紧从用户角度动身; 物理模型要紧从实现Hbase的角度来讨论;StormStorm是一个散布式的,靠得住的,容错的数据流处置系统。它会把工作任务委托给不同类型的组件,每一个组件负责处置一项简单特定的任务。Storm集群的输入流由一个被称作spout的组件治理,spout把数据传递给bolt, bol

21、t要么把数据保留到某种存储器,要么把数据传递给其它的bolt。优 点:1)简单的编程模型。类似于MapReduce降低了并行批处置复杂性,Storm降低了进行实时处置的复杂性。2)能够利用各类编程语言。你能够在Storm之上利用各类编程语言。默许支持Clojure、Java、Ruby和Python。要增加对其他语言的支持,只需实现一个简单的Storm通信协议即可。3)容错性。Storm会治理工作进程和节点的故障。4)水平扩展。计算是在多个线程、进程和效劳器之间并行进行的。5)靠得住的消息处置。Storm保证每一个消息至少能取得一次完整处置。任务失败时,它会负责从消息源重试消息。6)快速。系统的

22、设计保证了消息能取得快速的处置,利用MQ作为其底层消息队列。7)本地模式。Storm有一个“本地模式”,能够在处置进程中完全模拟Storm集群。这让你能够快速进行开发和单元测试。 缺 点:1)单调乏味性; 2)脆弱性; 3)可伸缩性差; 利用性:Storm有许多应用领域,包括实时分析、在线机械学习、信息流处置、持续性的计算、散布式RPC、ETL等。 术 语:Storm的术语包括Stream、Spout、Bolt、Task、Worker、Stream Grouping和Topology。 同 品:能够和Storm相提并论的系统有Esper、Streambase、HStreaming和Yahoo

23、S4。其中和Storm最接近的确实是S4。ScalaScala是一门多范式的编程语言,一种类似java的编程语言,设计初衷是实现可伸缩的语言、并集成面向对象编程和函数式编程的各类特性。 类 型:编程语言 特 性:1)面向对象风格; 2)函数式风格; 3)更高层的并发模式; 4)轻量级的函数语法高阶、嵌套、局部套用(Currying)、匿名; 5)与XML集成可在Scala程序中直接书写XML;可将XML转换成Scala类; 6)与JAV无缝的互操作;KafkaMQ Kafka MQ是一个高吞吐量散布式消息系统。Kafka就跟那个名字一样,设计超级独特。 性 质:高吞吐量散布式消息系统;架 构:

24、消息的持久化缓和存;特 性:1)通过O(1)的磁盘数据结构提供消息的持久化,这种结构关于即便数以TB的消息存储也能够维持长时刻的稳固性能。2)高吞吐量:即便是超级一般的硬件,也能够支持每秒数十万的消息。3)支持通过kafka效劳器和消费机集群来分区消息。4)支持Hadoop并行数据加载。 目 的:提供一个发布定阅解决方案,它能够处置消费者规模的网站中的所有动作流数据。 这种动作(网页阅读,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据一般是由于吞吐量的要求而通过处置日记和日记聚合来解决。 设计理念:持久化消息、高吞吐量、consumer决定消息状态、系统中各个角色都是散布式集群、consumer有逻辑组的概念。 Spark Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优势;但不同于MapReduce的是Job中间输出结果能够保留在内存中,从而再也不需要读写HDFS,因此Spark能更好地适用于数据挖掘与机械学习等需要迭代的MapReduce的算法。基 于:MapReduce算法实现的散布式计算特 点:1)自动容错 2)位置感

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1