ImageVerifierCode 换一换
格式:PDF , 页数:11 ,大小:1.04MB ,
资源ID:3215128      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/3215128.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(虚拟机环境下Hadoop伪分布式平台搭建详细过程.pdf)为本站会员(b****2)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

虚拟机环境下Hadoop伪分布式平台搭建详细过程.pdf

1、大数据技术大数据技术平台搭建之平台搭建之HadoopHadoop 1.1.Hadoop(Hadoop(伪分布式伪分布式)平台平台搭建搭建详细过程详细过程 1.11.1 工具工具 VMware12 CentOS 6.4 JDK-6u24-Linux-i586.bin Hadoop-1.1.2.tar.gz Scala-2.9.3.tgz Spark-1.4.0-bin-hadoop1.tgz Win10系统环境 1.21.2 详细搭建过程详细搭建过程 1.2.11.2.1 安装虚拟机安装虚拟机VMwareVMware W Workstationorkstation 12 Pro12 Pro 图1

2、.1 VMware Workstation 12 Pro软件开始界面 1.2.21.2.2 在虚拟机环境上安装在虚拟机环境上安装LinuxLinux系统系统 (1)点击 创建新的虚拟机 按钮选择典型配置安装 图1.2 新建虚拟机向导(2)选择Linux镜像文件,开始虚拟安装 图1.3 选择安装镜像文件(3)为新建的虚拟机命名,并选择安装目录 图1.4 命名、选择安装目录(4)指定虚拟机磁盘大小 图1.5 指定磁盘大小(5)设置硬件、网络类型等虚拟机配置 图1.6 自定义虚拟机硬件(6)点击 完成 按钮完成虚拟机安装 图1.7 CentOS_Linux虚拟机系统安装成功 1.2.1.2.3 3

3、配置配置LinuxLinux环境,为安装环境,为安装HadoopHadoop做准备做准备 (1)关闭防火墙 执行命令 service iptables status可以查看防火墙状态 执行命令 service iptables stop 关闭防火墙 图1.8 关闭防火墙并检验 执行命令chkconfig iptables off,关闭防火墙某些功能自启动 图1.9 关闭防火墙自启功能并检验(2)设置网络连接 宿主机(Windows)和客户机(虚拟机中的Linux)采用host-only方式建立网络连接,具体步骤:右击桌面右上角网络连接图标,选择编辑网络连接,如下 图1.10 虚拟机网络设置窗口

4、 接着点击按钮,设置IPv4地址,注意要和主机IP在同一网段 192.168.80.X 图1.11 设置ip窗口 点击 Apply完成设置,并在虚拟机终端窗口输入service network restart,使设置生效 图1.12 在终端窗口执行命令使设置生效 输入ifconfig查看设置是否生效 图1.13 在终端窗口检验设置是否生效 修改主机网络设置,打开网络共享中心将以下两个适配器的地址设置为192.168.80网段。图1.14 Windows网络适配器窗口 检验:主机(Windows)ping客户机(linux)IP 图1.15 ping检验窗口(3)修改hostname 由于设置好

5、了主机和客户机之间的网络连接,我们可以使用工具PieTTY在Windows环境下就可以快捷登录虚拟机,对其配置进行修改,如下面来修改虚拟机的hostname为hadoop:图1.16 修改hostname指令(4)执行vi/etc/hosts,在打开的文件中添加ip和主机名,绑定Linux虚拟机的主机名和ip 图1.17 绑定ip指令(5)设置SSH自动登录 执行命令 ssh-keygen t rsa 产生秘钥,位于/.ssh文件夹下面 图1.18 产生加密的秘钥 执行命令 cp/.ssh/id_rsa.pub/.ssh/authorized_keys 图1.19 复制到authorized_

6、keys文件下 验证,输入ssh localhost 图1.20 验证免密登录结果(6)安装JDK 拷贝(借助winSCP软件实现主机和虚拟机之间文件共享)安装文件至虚拟机/usr/local目录下,并解压(命令:./jdk-6u24-linux-i586.bin):图1.21 拷贝并解压JDK安装文件 解压完成:图1.22 解压后的/usr/local目录 配置JDK环境变量:执行命令 vi/etc/profile 打开配置文件加入JAVA_HOMEPATH两个环境变量JAVA_HOMEJAVA_HOME=/usr/local/jdk;PATHPATH=.:$JAVA_HOME/bin:$P

7、ATH 图1.23 配置JDK环境变量 执行 source/etc/profile 使配置生效,并检验。图1.24 检验JDK环境变量配置成功 1.2.1.2.4 4安装安装HadoopHadoop 执行命令 tar-zxvf hadoop-1.1.2.tar.gz 进行解压缩hadoop安装包,并执行命令 mv hadoop-1.1.2 hadoop 重命名文件夹 图1.25 解压缩并重命名hadoop安装文件 配置hadoop环境变量,执行 vi/etc/profile 打开配置文件,并添加HADOOP_HOME和PATH:图1.26 配置hadoop环境变量 执行命令 source/et

8、c/profile 使配置生效。修改四个hadoop配置文件,位于$HADOOP_HOME/conf目录下(利用winSCP软件直接打开对应文件进行修改),分别是:hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml 如下:hadoop-env.sh export JAVA_HOME=/usr/local/jdk/export JAVA_HOME=/usr/local/jdk/图1.27 修改hadoop-env.sh配置文件 core-site.xml fs.default.namefs.default.name hdfs:/ha

9、doop0:9000hdfs:/hadoop0:9000 change your own hostnamechange your own hostname hadoop.tmp.dirhadoop.tmp.dir /usr/local/hadoop/tmp/usr/local/hadoop/tmp 图1.28 修改core-site.xml配置文件 hdfs-site.xml dfs.replicationdfs.replication 11 dfs.permissionsdfs.permissions falsefalse 图1.29 修改hdfs-site.xml配置文件 mapred-s

10、ite.xml mapred.job.trackermapred.job.tracker hadoop0:9001hadoop0:9001 change your own hostname 图1.30 修改mapred-site.xml配置文件 接下来,对hadoop进行格式化,执行命令:hadoop namenode-format 图1.31 hadoop格式化成功 执行命令 start-all.sh 启动hadoop 图1.32 完全启动hadoop,并检验java进程(5个)注:注:hadoophadoop启动的启动的几种几种方式方式 start-all.sh 启动所有的Hadoop守护

11、进程。(包括NameNode、Secondary NameNode、DataNode、JobTracker、TaskTrack)stop-all.sh 停止所有的Hadoop守护进程。start-dfs.sh 启动Hadoop HDFS守护进程 NameNode、SecondaryNameNode和DataNode stop-dfs.sh 停止Hadoop HDFS守护进程 NameNode、SecondaryNameNode和DataNode hadoop-daemons.sh start namenode 单独启动 NameNode 守护进程 hadoop-daemons.sh stop

12、namenode 单独停止 NameNode 守护进程 hadoop-daemons.sh start datanode 单独启动 DataNode 守护进程 hadoop-daemons.sh stop datanode 单独停止 DataNode 守护进程 hadoop-daemons.sh start secondarynamenode 单独启动SecondaryNameNode守护进程 hadoop-daemons.sh stop secondarynamenode 单独停止SecondaryNameNode守护进程 start-mapred.sh 启动Hadoop MapReduce

13、守护进程JobTracker和TaskTracker stop-mapred.sh 停止Hadoop MapReduce守护进程JobTracker和TaskTracker hadoop-daemons.sh start jobtracker 单独启动JobTracker守护进程 hadoop-daemons.sh stop jobtracker 单独停止JobTracker守护进程 hadoop-daemons.sh start tasktracker 单独启动TaskTracker守护进程 hadoop-daemons.sh stop tasktracker 单独启动TaskTracker守护进程 至此,hadoop伪分布式平台就已经搭建完成了,我们可以在web浏览器查看访问该平台下的服务器节点:图1.33 浏览器访问NameNode web services节点 图1.34 浏览器访问MapReduce web services节点

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1