ImageVerifierCode 换一换
格式:DOCX , 页数:35 ,大小:573.14KB ,
资源ID:23258450      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/23258450.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(云计算平台搭建方案样本.docx)为本站会员(b****1)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

云计算平台搭建方案样本.docx

1、云计算平台搭建方案样本Hadoop云计算平台搭建方案一、平台搭建概述 1.1总体思路针对于电网公司在营销服务领域展开大数据分析解决,搭建Hadoop云计算平台进行海量数据存储,并作深层次加工、解决,挖掘出无法简朴直观便可得到新模式,为电力公司决策提供指引。平台采用Hadoop-2.2.0作为海量数据存储和分析工具,将其布置在4个物理计算机节点上,搭建Hadoop集群,其中1个节点作为master节点,别的3个作为slave节点。为了获取更好稳定性,平台搭建在Linux系统(ubuntu-14.04-desktop-i386)环境下。 1.2软件列表软件描述版本VMware Workstatio

2、n虚拟化软件VMware Workstation 10.0.2.46408UbuntuLinux操作系统ubuntu-14.04-desktop-i386JDKJava软件开发工具包jdkl.8.0_20Hadoop开源云计算基本框架Hadoop-2.2.0HBase分布式数据存储系统Hbase-0.96.2ZookeeperHadoop可靠协调系统Zookeeper-3.4.5Sqoop数据迁移工具Sqoop-1.99.31.3平台搭建总流程和节点信息一览表在平台搭建前,给出实现总流程图和节点信息一览表,从而对平台搭建过程和各节点信息有一种全局结识,平台搭建总流程如下图所示。 各节点信息如下

3、表所示:机器名IP地址顾客名充当角色master172.19.17.102hadoopJobTracker、Namenodeslave1172.19.17.104hadoopTaskTracker、Datanodeslave2172.19.17.105hadoopTaskTracker、Datanodeslave3172.19.17.106hadoopTaskTracker、Datanode二、基本平台搭建环节本次大数据存储和解决平台搭建,需要4台物理节点来布置Hadoop平台环境。咱们使用虚拟机软件VMware Workstation创立4台虚拟机,承载平台搭建工作。此外,由于对4台虚拟机配

4、备大某些是相似,因此运用VMware Workstation克隆功能,可以减少布置工作量。2.1安装虚拟机软件VMware Workstation一方面在4台PC机器上均安装虚拟化软件VMware Workstation,并输入相应序列号。2.2在master节点上安装Linux系统Ubuntu在设定为master PC节点上一方面安装Linux系统(版本为ubuntu-11.04-desktop-i386),在安装过程中为提高后期安装软件兼容性和稳定性,在系统语言上选取英语。创立顾客名为“hadoop”普通顾客,设立统一密码。安装完毕后将系统terminal命令窗口调出来,以便使用。同步,为

5、实现虚拟机Ubuntu系统与本机Windows系统之间以便快捷文字复制粘贴以及物理主机系统与虚拟机系统互相拖放文献进行共享,需要安装VMare Tools工具,详细操作如下:启动虚拟机,进入Ubuntu系统,在VM菜单栏“虚拟机(M)”下拉菜单点击“安装VMare Tools(T)”后,会弹出一种“VMare Tools”文献夹,里面包括VMare Tools安装包VMwareTools-9.6.2-1688356.tar.gz,将该安装包拷贝到/home/hadoop目录下,输入命令进行解压安装:tar xzvf VMwareTools-9.6.2-1688356.tar.gz此时在/hom

6、e/hadoop/目录下产生vmware-tools-distrib文献夹,进入该目录,通过在terminal终端输入相应命令,运营vmware-install.pl脚本:cd /home/hadoop/vmware-tools-distrib /进入目录sudo ./ vmware-install.pl /执行vmware-install.pl脚本按提示多次“回车”直至显示安装成功信息,再重启系统即可。在完毕上述操作后,为保障Hadoop集群各节点之间无障碍通信,需关闭系统防火墙。在重启系统后,在terminal终端输入命令:sudo ufw disable当显示“Firewall stop

7、ped and disable on system startup”时表达防火墙已关闭,若后续服务布置过程中机器重启无法实现节点之间互相通信,可尝试检查防火墙与否关闭。2.3 master节点JDK安装与配备由于Hadoop底层实现是用JAVA语言编写,因而它运营离不开JAVA运营环境(JRE)支持,这就需要JDK。JDK有各种更新版本,安装过程大体相似,这里选取安装近来更新版本jdkl.8.0_20。先将安装文献jdk-8u20-linux-i586.gz拷贝到master节点目录/home/hadoop/下,在终端输入命令:tar xzvf jdk-8u20-linux-i586.gz进行

8、解压安装,此时会产生文献夹“jdk1.8.0_20”,所得JDK安装途径为“/home/hadoop/jdk1.8.0_20”。安装结束后打开/etc/profile文献,配备JDKclass path:在terminal终端键入命令:sudo gedit /etc/profile打开profile文献,在文献末尾加上如下语句:#set java environmentexport JAVA_HOME=/home/hadoop/jdk1.8.0_20export JRE_HOME=/home/hadoop/jdk1.8.0_20/jreexport CLASSPATH=.:$JAVA_HOME

9、/lib:$JRE_HOME/lib:$CLASSPATHexport PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH / /home/hadoop/是hadoop文献夹所在途径,不可照抄,要以实际途径为准保存之后,在terminal终端输入命令:source /etc/profile使其生效。并键入命令java version查看与否配备成功,若浮现如下信息,则表达java环境变量配备成功。 java version 1.8.0_20Java(TM) SE Runtime Environment (build 1.8.0_20-b26)Java HotSpot

10、(TM) Client VM (build 25.20-b23,mixed mode)注:以上灰色背景标注文字表达Linux命令,红色字体颜色标注文本表达需要写入Hadoop环境配备文献中信息,绿色字体颜色标注小5号文本表达注释,下同2.4 master节点hadoop安装与配备Hadoop安装是Hadoop平台搭建核心环节,将从下载安装包hadoop-2.2.0.tar.gz拷贝到master节点目录/home/hadoop/下,进行解压安装,输入命令:tar xzvf hadoop-2.2.0.tar.gz安装完毕后配备环境变量:在系统文献/etc/profile以及Hadoop安装目录/

11、home/hadoop/hadoop-2.2.0文献夹下各种文献添加相应配备信息。2.4.1 添加环境变量打开/etc/profile文献,在terminal终端键入命令:sudo gedit /etc/profile调出profile文献,在文献末尾加上:# set hadoop environmentexport HADOOP_HOME=/home/hadoop/hadoop-2.2.0export PATH=$HADOOP_HOME/bin:$PATHexport PATH=$HADOOP_HOME/sbin:$PATH然后保存,在终端键入命令source /etc/profile使其生

12、效。异常解决1:问题:保存添加环境变量并使其生效后,terminal也许会浮现如下警告:(gedit:2949):Gtk-WARNING *:Attempting to set the permissions of /root/.local/share/recently-used.xbel,but failed:No such file or directory(gedit:2949):Gtk-WARNING *:Attempting to store changes into /root/.local/share/recently-used.xbel,but failed:Failed to

13、 create file /root/.local/share/recently-used.xbel.MN6R3V:No such file or directory(gedit:2949):Gtk-WARNING *:Attempting to set the permissions of /root/.local/share/recently-used.xbel,but failed:No such file or directory解决办法:只需直接在终端中输入命令:sudomkdir-p/root/.local/share/,创立警告信息中所提示目录即可。若无视警告重启ubuntu后将

14、会浮现如下状况:输入密码无法进入系统,始终处在输入密码后又跳转回输入密码界面。此时解决办法是:在输入密码界面同步按下alt+ctrl+F2进入ubuntu命令模式,并使用root顾客及相应密码登陆系统,然后键入:/usr/bin/vi /etc/profile打开etc/profile文献,找到近来在末尾加上hadoop配备文献,按delete键删除这些行,然后键入命令:wq!(注意此处有冒号,不可省略)保存文献。然后同步按下ctrl+alt+del重启系统即可使系统恢复正常登陆,然后按照上述办法重新配备。2.4.2 目录设立在普通顾客hadoop下创立hadoop数据存储目录(若使用root

15、顾客创立上述文献夹则会因权限问题导致无法向这些文献夹中写入并读取数据),可自行选取数据存储途径,咱们选取在/home/hadoop/文献夹下创立dfs和tmp作为数据存储与互换目录,并在dfs文献夹下创立name和data两个子文献夹。分别执行命令:mkdir /home/hadoop/dfs/name /创立/home/hadoop/下dfs子文献夹namemkdir /home/hadoop/dfs/data /创立/home/hadoop/下dfs子文献夹datamkdir /home/hadoop/tmp /创立/home/hadoop/tmp2.4.3 /home/hadoop/ha

16、doop-2.2.0/etc/hadoop下配备文献修改接下来在/home/hadoop/hadoop-2.2.0/etc/hadoop目录下需要修改如下文献内容: 在slaves文献下分别写入三个slave节点名称,完毕节点信息配备,并分别通过对hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、yarn-env.sh等文献分别进行Hadoop核心文献配备、HDFS配备、Mapreduce配备和Yarn配备。对/home/hadoop/hadoop-2.2.0/etc/hadoop文献夹下几种文献做一

17、定修改,配备每个文献时先单击文献右键,选取“open with text editor”方式打开,按照如下方式修改,需要配备文献如下:(1)配备hadoop-env.sh文献,打开该文献,检索 “#export JAVA_HOME=$JAVA_HOME”文本,在该语句下一行添加: export JAVA_HOME=/home/hadoop/jdk1.8.0_20这样配备目是为Hadoop守护进程设立环境变量,让Hadoop可以获取到JDK服务支持。(2)配备slaves文献,打开该文献,将其内容修改为slave1、slave2、slave3。文献名打开后,将其内容修改为:slavesslave

18、1slave2slave3(3)配备core-site.xml文献,打开该文献,在文献末尾添加如下语句。文献名打开文献后,在其末尾添加语句:core-site.xml fs.defaultFS hdfs:/172.19.17.102:9000 io.file.buffer.size 131072 hadoop.tmp.dir file:/home/hadoop/tmp Abase for other temporary directories. hadoop.proxyuser.tan.hosts * hadoop.proxyuser.tan.groups * (4)配备hdfs-site.x

19、ml文献,打开该文献,在文献末尾添加如下语句。文献名打开文献后,在其末尾添加语句:hdfs-site.xml dfs.namenode.secondary.http-address 172.19.17.102:9001 dfs.namenode.name.dir file:/home/hadoop/dfs/name dfs.datanode.data.dir file:/home/hadoop/dfs/data dfs.replication 4 dfs.webhdfs.enabled true 注意:需要在hdfs-site.xml中配备dfs.replication属性时,dfs.repl

20、ication属性指定HDFS中文献块复制份数,其默认值为3,当datanode节点少于3台便会报错。在普通状况下,当其属性值为3时候,HDFS布置方略是在本地机柜中一种节点放置一种备份,在本地机柜不同结点再放置一种备份,然后再在另一种机柜中一种结点放置一种备份 。(5)配备mapred-site.xml文献。事实上在进行配备之前,mapred-site.xml文献默认并不存在,需要一方面将该目录下mapred-site.xml.template文献进行复制,并重命名为mapred-site.xml,接下来打开mapred-site.xml,添加如下语句。文献名打开文献后,在其末尾添加语句:m

21、apred-site.xml mapreduce.framework.name yarn mapreduce.jobhistory.address 172.19.17.102:10020 mapreduce.jobhistory.webapp.address 172.19.17.102:19888 (6)配备yarn-site.xml文献,打开该文献,在文献末尾添加如下语句。文献名打开文献后,在其末尾添加语句:yarn-site.xml yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.m

22、apreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.address 172.19.17.102:8032 yarn.resourcemanager.scheduler.address 172.19.17.102:8030 yarn.resourcemanager.resource-tracker.address 172.19.17.102:8031 yarn.resourcemanager.admin.address 172.19.17.102:8033 yarn.resourc

23、emanager.webapp.address 172.19.17.102:8088 (7)配备yarn-env.sh文献,打开该文献,检索“# export JAVA_HOME=/home/y/libexec/jdk1.6.0/”语句,在该语句下一行添加: export JAVA_HOME=/home/hadoop/jdk1.8.0_20通过对上述文献修改,完毕对Hadoop配备。事实上,配备过程并不复杂,普通而言,除了规定端口、IP地址、文献存储位置外,其她配备都不是必要修改,可以依照需要决定是采用默认配备还是自行修改。尚有一点需要注意是以上配备都被默以为最后参数,这些参数都不可以在程序中

24、被再次修改。2.5 Hadoop集群布置与各节点通信2.5.1 安装SSH服务通过建立SSH无密码互访,可以实现Hadoop虚拟机群之间无密码登录互访。在安装SSH服务之前,一方面需要更新软件源,并保证每台机器上都安装了SSH服务器,且都能正常启动。更新软件源命令为:sudo apt-get update软件源更新完毕后,在terminal输入如下命令开始安装openssh-server:sudo apt-get install openssh-server输入如下命令,检查openssh-server与否成功安装:which ssh如显示/usr/bin/ssh表达ssh安装成功which

25、sshd如显示/usr/bin/sshd表达sshd安装成功如果以上两者都成功显示,表达open-server安装成功2.5.2 克隆虚拟机作为Slave节点将上面配备好虚拟机作为master,关闭作为masterubuntu系统,然后修改虚拟机网络连接设立,改为“桥接模式”,即在master虚拟机主界面点击“虚拟机设立硬件网络适配器”,在弹出对话“网络连接”项目下选取“桥接模式(B)”此举目在于使主节点和各从节点都能连上网络,从而使各台机器之间可以互访。接下来对master进行克隆,得到slave1、slave2、slave3雏形,即点击VM菜单下“虚拟机管理克隆”,进入克隆虚拟机向导界面,

26、依照向导提示,在“克隆类型”引导界面选取“创立完整克隆”,详细设立如下图所示:然后输入被克隆虚拟机名称,先暂输入slave1,点击确认进行克隆,将克隆好系统复制到除master之外三台PC节点上,用虚拟机VMware辨认并将其启动,并在虚拟机启动界面点击“虚拟机设立选项常规”设立中,分别修改虚拟机名称为slave1、slave2和 slave3,如下图所示。2.5.3 设立IP地址在Hadoop平台上,各个节点之间互访是基于TCP/IP合同,因此要为各个节点分派IP地址。在四个PC节点上,点击桌面右上角从左到右第一种数据连接图标在下拉菜单中选取最后一项“Edit Connections”在弹出

27、“Network Connections”框中选取“Edit”,显示“Editing Ethernet connection1”框,点击“IPv4Settings”将弹出Method选取框设立为Manual,然后添加IP地址。添加同一网关内IP地址、子网掩码、默认网关,目是让各个节点机器可以互访。需要注意是在设立IP地址时,需要一方面在DNS servers输入相应IP地址,否则无法填写“Addresses”项内容。因而,咱们将DNS服务器(DNS servers)地址设立为:202.96.128.166,接下来将master节点IP地址(Address)设立为:172.19.17.102,子网掩码(Netmask)设立为:255.255.255.0,默认网关(Gateway)设立为:172.19.17.1。用同样办法,将虚拟机salve1

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1