1、Hadoop的安装和配置云计算及应用实验报告 项目名称 Hadoop的安装和配置 专业班级 软件学院 学 号 姓 名 实验成绩:批阅教师:2016年 5 月 20 日实验1Hadoop的安装和配置实验学时: 2 每组人数: 3 实验类型: 2 (1:基础性 2:综合性 3:设计性 4:研究性)实验要求: 1 (1:必修 2:选修 3:其它)实验类别: 3 (1:基础 2:专业基础 3:专业 4:其它)一、实验目的1使学生进一步熟悉linux环境的基本操作命令及软件安装方法。2熟悉Hadoop平台的架构,掌握Hadoop平台的安装及配置。二、实验内容1Linux主机名及网络环境配置2Linux下
2、JDK的安装及环境配置3. Hadoop的安装与配置三、实验要求:1掌握基本的linux操作命令2. 熟悉Hadoop的基本架构及原理3配置Hadoop云计算平台,包括NameNode和DataNode的设置,测试Hadoop平台的运行情况。四、实验步骤1启动透明客户端并登录,账号为学号,密码为aaaaaa;2启动虚拟机,双击“SSH”桌面,登录CentOS系统,账号为root,密码为admin123;3. 修改主机名:vim /etc/hostname,将主节点主机名改为NameNode-组号-1,将2个子节点主机名改为:DataNode-组号-1和DataNode-组号-2;修改/etc/
3、hosts文件,添加3台机器的IP和主机名,譬如:10.10.12.111 NameNode-10-110.10.12.112 DataNode-10-110.10.12.113 DataNode-10-24. 安装jdk:yum install java-1.7.0-openjdk-devel5. 建立hadoop目录:安装文件在/hadoop/software/目录下复制 6. 修改环境变量/.bashrc,在末尾加入:export JAVA_HOME=/usr/lib/jvm/javaexport HADOOP_HOME=/hadoop/hadoop-2.6.0(修改成hadoop的根目
4、录)export HADOOP_CONFIG_HOME=$HADOOP_HOME/etc/hadoopexport PATH=$PATH:$HADOOP_HOME/binexport PATH=$PATH:$HADOOP_HOME/sbin使环境变量生效,执行命令source /.bashrc7. hadoop配置:建立3个文件夹:mkdir temp NameNode DataNode;配置core-site.xml,hdfs-site.xml和mapred-site.xml;配置slaves 文件;8. 建立3个节点互访:将hosts 及bashrc 文件同步到datanode1,data
5、node2 节点:scp /etc/hosts/ root10.10.12.112:/etc/hosts scp /etc/hosts/ root10.10.12.113:/etc/hosts scp /.bashrc rootdatanode1:/.bashrc scp /.bashrc rootdatanode2:/.bashrc生成访问秘钥ssh-keygen -t rsa,3台机器共享秘钥,可以无密码访问;9. 启动hadoop: 格式化工作空间 ./hadoop namenode format;使用start-all.sh启动hadoop;使用hdfs dfsadmin report测试是否配置成功。五、实验报告
copyright@ 2008-2022 冰豆网网站版权所有
经营许可证编号:鄂ICP备2022015515号-1