ImageVerifierCode 换一换
格式:DOCX , 页数:75 ,大小:3.73MB ,
资源ID:1146035      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/1146035.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(大数据平台部署方案完整版.docx)为本站会员(b****2)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

大数据平台部署方案完整版.docx

1、大数据平台部署方案完整版大数据平台部署方案完整版1.环境配置主机地址主机地址用户名密码172.26.40.74rootcloud4c172.26.40.75rootcloud4c172.26.40.76rootcloud4c172.26.40.77rootcloud4c172.26.40.78rootcloud4c查看服务器硬件环境信息查看CPU型号:cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq c查看物理CPU颗数:cat /proc/cpuinfo | grep physical | uniq c四颗一核的CPU查看CPU运行模式:g

2、etconf LONG_BIT查看CPU是否支持64位:cat /proc/cpuinfo | grep flags | grep lm | wcl结果大于0, 说明支持64bit计算. lm指long mode, 支持lm则是64bit查看操作系统版本和内核查看操作系统版本:cat /etc/issue或者lsb_release -a查看内核信息:关闭防火墙和SELinex1.关闭防火墙:service iptables stop(临时关闭)chkconfig iptables off(重启后生效)2.关闭SELINUX,SELinux功能是一种强制存取控制的实现,能够进一步的增强Linux

3、系统的安全性,但是开启此项功能会给初学者带来很多的不便,大多都关闭此项功能setenforce 0 (临时生效) 修改 /etc/selinux/config 下的 SELINUX=disabled (重启后永久生效)所有主机时间同步1.查看目前主机时间:date2.修改时间:date -s 00:00:003.时间同步(主机),将172.26.40.74的本地时钟作为时间供给源,这样,即便它失去网络连接,它也可以继续为网络提供服务yum install ntpvi /etc/ntp.confserver 127.127.1.0fudge 127.127.1.0 stratum 104.重新启

4、动服务service ntpd stopservice ntpd start5.其他机器同步,等待大概五分钟,再到其他机上同步该机器时间(先确保时区一样,否则同步以后时间也是有时区差的)ntpdate 172.26.40.746.date查看时间是否同步完成安装JDK1.查看Linux自带的JDK是否已安装:java version2.获得如下信息,表明有自带JDK需要卸载3.查看jdk的信息:rpm -qa|grep java4.卸载自带的jdk:rpm -e -nodeps java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64rpm -e -node

5、ps java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_645.解压安装新的Oracle JDK,将jdk-7u79-linux-x64.tar.gz放在/usr/local目录下,解压tar -zxvf jdk-7u79-linux-x64.tar.gz6.配置环境变量vi /etc/profileexport JAVA_HOME=/usr/local/jdk1.7.0_79export PATH=$PATH:$JAVA_HOME/bin:export CLASS_PATH=.:%JAVA_HOME%/lib/dt.jar:%JAVA_HOME%/

6、lib/tools.jar7.查看JDK是否配置成功source /etc/profilejava version8.卸载自己安装的JDK方法rpm -e -nodeps jdk-1.7.0_67(jdk-1.7.0_67为自己安装的JDK版本)Maven安装1.去maven官网下载maven的安装包,并上传。2.解压缩maven的安装包tar -zxvf apache-maven-3.3.9-bin.tar.gz3.配置maven环境变量vim .bash_profileexport MAVEN_HOME=/home/hadoop/apache-maven-3.3.9export PATH=

7、$PATH:$MAVEN_HOME/bin4.测试maven是否配置成功配置主机名1.在172.26.40.74执行如下命令vi /etc/sysconfig/networkNETWORKING=yesHOSTNAME=Master1 执行如下命令查看主机名是否修改成功service network restarthostname2.在172.26.40.75执行如下命令vi /etc/sysconfig/networkNETWORKING=yesHOSTNAME=Master23.在172.26.40.76执行如下命令vi /etc/sysconfig/networkNETWORKING=y

8、esHOSTNAME=Slave14.在172.26.40.77执行如下命令vi /etc/sysconfig/networkNETWORKING=yesHOSTNAME=Slave25.在172.26.40.78执行如下命令vi /etc/sysconfig/networkNETWORKING=yesHOSTNAME=Slave3配置hosts映射在所有节点添加如下配置:vi /etc/hosts172.26.40.74 Master1172.26.40.75 Master2172.26.40.76 Slave1172.26.40.77 Slave2172.26.40.78 Slave3新建

9、hadoop用户为所有节点新建一个hadoop用户配置SSH免密码登录配置主机之间hadoop用户的SSH免密码登录1.在所有节点执行如下命令以生成秘钥:ssh-keygen -t rsa2.进入.ssh/目录,并复制id_rsa.pub文件生成一个新的文件 authorized_keys3.验证每个节点自己的免密码登录是否成功4.将其它节点的秘钥拷贝到Master1节点ssh-copy-id -i Master15.将Master1最终生成的密码拷贝到Master2、Slave1、Slave2、Slave36.测试节点之间免密码登录是否配置成功2.安装Zookeeper因为zookeeper

10、有这样一个特性:集群中只要有过半的机器是正常工作的,那么整个集群对外就是可用的,所以本次选择在Master1、Master2、Slave1、Slave2、Slave3上安装Zookeeper1.在Master1上解压安装Zookeepertar -zxvf zookeeper-3.4.8.tar.gz修改配置文件2.修改配置文件zoo.cfgcd /home/hadoopR/zookeeper-3.4.8/confcp zoo_sample.cfg zoo.cfgvim zoo.cfgdataDir=/home/hadoopR/tmp/zookeeperdataLogDir=/home/had

11、oopR/tmp/zookeeper/datalogclientPort=2181initLimit=10syncLimit=5tickTime=2000autopurge.snapRetainCount=10autopurge.purgeInterval=1server.1=Master1:2888:3888server.2=Master2:2888:3888server.3=Slave1:2888:3888server.4=Slave2:2888:3888server.5=Slave3:2888:38881)server.X 用来配置ZooKeeper 集群中的各节点,并建议X 的值和my

12、id 保持一致。2)端口2181 用于监听客户端的连接,端口2888 用于Leader 监听Follower 的连接,而3888则用于Leader 选举。3)dataDir 用来指定快照文件存放目录,便于快速恢复;dataLogDir 用来指定事务日志文件存放目录。如果只指定了dataDir,而没指定dataLogDir,则事务日志文件也存放于dataDir 指定的目录。为了达到性能最大化,一般建议把dataDir和dataLogDir分到不同的磁盘上,这样就可以充分利用磁盘顺序写的特性。4)默认,autopurge 的两个参数是被注释的。“autopurge.purgeInterval”指定

13、自动清理快照文件和事务日志文件的时间,单位为小时,默认为0 表示不自动清理,这个时候可以使用脚本zkCleanup.sh 手动清理。不清理的结果是占用的磁盘空间越来越大。“autopurge.snapRetainCount”用于指定保留快照文件和事务日志文件的个数,默认为3。5)ticktickTime默认为2000,2-20倍的minSessionTimeout与maxSessionTimeout 注: tickTime 心跳基本时间单位毫秒,ZK基本上所有的时间都是这个时间的整数倍。3.修改/bin/zkEnv.sh1)设置环境变量ZOO_LOG_DIR 为zookeeper 的日志存放目

14、录,如:export ZOO_LOG_DIR=/home/hadoopR/tmp/zookeeper/datalog可将这一行放在ZOOKEEPER_PREFIX 之后。2)再修改下ZOO_LOG4J_PROP,以让日志不是输出到zookeeper.out,而是写入到日志文件,将:ZOO_LOG4J_PROP=INFO,CONSOLE,改成:ZOO_LOG4J_PROP=INFO,ROLLINGFILE4.修改conf/log4j.propertieslog4j.appender.ROLLINGFILE.MaxFileSize=100MBlog4j.appender.ROLLINGFILE.M

15、axBackupIndex=10设置每个日志文件大小为100M,滚动10 个。5.将Master1上配置好的Zookeeper安装文件拷贝到Master2、Slave1、Slave2、Slave3上scp -r /home/hadoopR/zookeeper-3.4.8 Master2:/home/hadoopR/scp -r /home/hadoopR/zookeeper-3.4.8 Slave1:/home/hadoopR/scp -r /home/hadoopR/zookeeper-3.4.8 Slave2:/home/hadoopR/scp -r /home/hadoopR/zookeeper-3.4.8 Slave3:/home/hadoopR/设置myid6.在Master1、Master

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1