ImageVerifierCode 换一换
格式:DOCX , 页数:14 ,大小:404.77KB ,
资源ID:12359134      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/12359134.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(Hadoop的安装和配置.docx)为本站会员(b****5)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

Hadoop的安装和配置.docx

1、Hadoop的安装和配置云计算及应用实验报告 项目名称 Hadoop的安装和配置 专业班级 软件学院 学 号 姓 名 实验成绩:批阅教师:2016年 5 月 20 日实验1Hadoop的安装和配置实验学时: 2 每组人数: 3 实验类型: 2 (1:基础性 2:综合性 3:设计性 4:研究性)实验要求: 1 (1:必修 2:选修 3:其它)实验类别: 3 (1:基础 2:专业基础 3:专业 4:其它)一、实验目的1使学生进一步熟悉linux环境的基本操作命令及软件安装方法。2熟悉Hadoop平台的架构,掌握Hadoop平台的安装及配置。二、实验内容1Linux主机名及网络环境配置2Linux下

2、JDK的安装及环境配置3. Hadoop的安装与配置三、实验要求:1掌握基本的linux操作命令2. 熟悉Hadoop的基本架构及原理3配置Hadoop云计算平台,包括NameNode和DataNode的设置,测试Hadoop平台的运行情况。四、实验步骤1启动透明客户端并登录,账号为学号,密码为aaaaaa;2启动虚拟机,双击“SSH”桌面,登录CentOS系统,账号为root,密码为admin123;3. 修改主机名:vim /etc/hostname,将主节点主机名改为NameNode-组号-1,将2个子节点主机名改为:DataNode-组号-1和DataNode-组号-2;修改/etc/

3、hosts文件,添加3台机器的IP和主机名,譬如:10.10.12.111 NameNode-10-110.10.12.112 DataNode-10-110.10.12.113 DataNode-10-24. 安装jdk:yum install java-1.7.0-openjdk-devel5. 建立hadoop目录:安装文件在/hadoop/software/目录下复制 6. 修改环境变量/.bashrc,在末尾加入:export JAVA_HOME=/usr/lib/jvm/javaexport HADOOP_HOME=/hadoop/hadoop-2.6.0(修改成hadoop的根目

4、录)export HADOOP_CONFIG_HOME=$HADOOP_HOME/etc/hadoopexport PATH=$PATH:$HADOOP_HOME/binexport PATH=$PATH:$HADOOP_HOME/sbin使环境变量生效,执行命令source /.bashrc7. hadoop配置:建立3个文件夹:mkdir temp NameNode DataNode;配置core-site.xml,hdfs-site.xml和mapred-site.xml;配置slaves 文件;8. 建立3个节点互访:将hosts 及bashrc 文件同步到datanode1,data

5、node2 节点:scp /etc/hosts/ root10.10.12.112:/etc/hosts scp /etc/hosts/ root10.10.12.113:/etc/hosts scp /.bashrc rootdatanode1:/.bashrc scp /.bashrc rootdatanode2:/.bashrc生成访问秘钥ssh-keygen -t rsa,3台机器共享秘钥,可以无密码访问;9. 启动hadoop: 格式化工作空间 ./hadoop namenode format;使用start-all.sh启动hadoop;使用hdfs dfsadmin report测试是否配置成功。五、实验报告

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1