ImageVerifierCode 换一换
格式:DOCX , 页数:20 ,大小:38.34KB ,
资源ID:15314650      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/15314650.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(Hadoop集群部署2X版本文档格式.docx)为本站会员(b****1)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

Hadoop集群部署2X版本文档格式.docx

1、 1.2 修改/etc/hosts 文件,增加集群机器的ip和hostname的映射关系: 以下步骤在master、slave服务器上都需要执行。红色部分以实际情况为准vi /etc/hosts添加:192.168.0.201 NameN192.168.0.202 DataN1192.168.0.203 DataN21.3 关闭SELinuxvi /etc/sysconfig/selinux修改:#SELINUX=enforcingSELINUX=disabled保存。命令行输入:setenforce 0getenforce 查看状态是否是:Permissive1.4 关闭防火墙chkconf

2、ig iptables off service iptables stop1.5 设置sshsu - appsssh-keygen -t dsa (再按3次回车,生成密钥)cd .ssh如本机也要实现ssh,直接在.ssh上 cat id_dsa.pub authorized_keys chmod 600 /home/apps/.ssh/authorized_keyschmod 700 /home/apps/.sshchmod 700 /home/apps$scp authorized_keys DataN1:/home/apps/.ssh/$scp authorized_keys DataN

3、2:验证: ssh DataN1 ssh DataN2 第一次需要输入yes,确认把信息记录到konwn_host里。注意:经常配置后会发现还是需要输入密码,这一般是.ssh、authorized_key的权限问题。在RedHat中,authorized_key设置600,.ssh、apps等父级目录设置为7001.6 JDK安装配置: 先卸载RedHat自带安装的jdk:yum remove java 下载相应版本的JDK,放到虚拟机上目录:/usr/jdk64下(实际上这里是32位的),解压:mkdir /usr/jdk64cd /usr/jdk64tar -zxvf jdk-7u67-l

4、inux-i586.tar.gz修改/etc/profile,在最后面添加如下内容:export JAVA_HOME=/usr/jdk64/jdk1.7.0_71export CLASS_PATH=.:$CLASS_PATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib#留位置给后面其他的变量export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/binsource /etc/profilejava -version如果显示出来的版本是我们刚刚配置的1.7.0_67,则说明成功。2 Hadoop安装配置 (本点除了有特殊说明,否则只

5、需要在master机器上执行)准备好安装包:hadoop-2.4.1.tar.gz创建几个后面需要用到的目录:cd /data/hadoopmkdir namemkdir data上面两个目录需要手动到各个slave机器上执行。mkdir -p hadoop-2.4.1/var把下载好的Hadoop安装包hadoop-2.4.1.tar.gz 放到/home/apps目录,解压:tar -zxvf hadoop-2.4.1.tar.gz配置Hadoop,一共有7个文件需要配置,2.4.1版本中这些文件路径是:/home/apps/hadoop-2.4.1/etc/hadoophadoop-en

6、v.shyarn-env.shslavescore-site.xmlhdfs-site.xmlmapred-site.xmlyarn-site.xml1、 hadoop-env.sh# The java implementation to use.export JAVA_HOME=/usr/jdk64/jdk1.7.0_672、 yarn-env.sh# some Java parameters3、 slaves写下所有slave:DataN1DataN24、 core-site.xml添加如下内容: namefs.defaultFSvaluehdfs:/NameN:49000/propert

7、yio.file.buffer.size131072hadoop.tmp.dirfile:/home/apps/hadoop-2.4.1/varAbase for other temporary directories.hadoop.proxyuser.hduser.hosts*hadoop.proxyuser.hduser.groups5、 hdfs-site.xmldfs.namenode.secondary.http-addressNameN:50070dfs.namenode.name.dir/data/hadoop/namedfs.datanode.data.dir/data/had

8、oop/datadfs.replication3dfs.webhdfs.enabledtrue注:dfs.replication:数据块副本数量6、 mapred-site.xml (该文件没有,需新建)mapreduce.framework.nameyarnmapreduce.jobhistory.address10020mapreduce.jobhistory.webapp.address198887、 yarn-site.xmlyarn.nodemanager.aux-servicesmapreduce_shuffleyarn.nodemanager.aux-services.mapre

9、duce.shuffle.classorg.apache.hadoop.mapred.ShuffleHandleryarn.resourcemanager.address8032yarn.resourcemanager.scheduler.address8030yarn.resourcemanager.resource-tracker.address8031yarn.resourcemanager.admin.address8033yarn.resourcemanager.webapp.address8088把HADOOP_HOME配置到/etc/profile (所有服务器)export HADOOP_HOME=/home/apps/hadoop-2.4.1export PATH=最后添加 :$HADOOP_HOME/bin:$HADOOP_HOME/sbinexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1