ImageVerifierCode 换一换
格式:DOCX , 页数:12 ,大小:279.79KB ,
资源ID:4865369      下载积分:2 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/4865369.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(Win10平台下搭建hadoop分布式系统byfim.docx)为本站会员(b****3)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

Win10平台下搭建hadoop分布式系统byfim.docx

1、Win10平台下搭建hadoop分布式系统byfimWin10平台下搭建hadoop分布式系统1、安装Oracle VM VirtualBox2、在VirtualBox虚拟中添加3个虚拟主机,分别命令为Linux1,Linux2,Linux3注:我们建的虚拟主机都是Ubuntu版本的Linux主机3、在设置存储虚拟光驱中添加Ubuntu镜像注:如果没有虚拟光驱,可以自己添加一个留空的虚拟光驱,如下图:4、虚拟机网络设置1)在新建虚拟电脑的时候,默认只设置了网卡1,如下图:注:网络地址转换(NAT)的时候,如果主机插了网线,虚拟机可以正常上网.但是如果虚拟机中有多个虚拟电脑,则它们的ip都相同,

2、格式为:10.0.x.x2)如果要装hadoop集群的话,我们希望每个节点都有一个私有ip,以实现他们的互联3)因此,我们可以给虚拟主机添加一个网卡2,此网卡连接方式为Host-Only,这种模式下,每个虚拟主机都会分配一个独立的ip,如下:注:仅主机(Host-Only)适配器这种方式会给每个虚拟电脑分配一个独立ip,这个ip在主机的VirtualBox Host-Only Network的ip网段内.4)我搭建的分布式集群式在win10平台下进行的,由于VirtualBox不兼容win10,在安装VirtualBox的时候不会在主机中创建Host-Only连接,换了几个版本的Birtual

3、Box,有的能创建,但是Host-Only方式依然找不到界面名称。因为我们网卡2设置为Nat方式。如下介绍。5)如何配置一个Nat网络。1.在VirtualBox主界面管理全局设定网络Nat网络添加一个Nat网络2.在虚拟主机设置网络网卡2中的连接方式选则Nat网络,界面名称选择刚才建立的Nat网络。注:1/3台虚拟主机的网卡2的界面名称都必须选同一个Nat网络。 2/如果系统中本来存在Nat网络,可以不重建,每个虚拟主机选则同一个即可。截图如下:6)这样的网络设置,可以保证虚拟机既可以上网,又有私有ip.5、启动虚拟主机,安装Ubuntu操作系统注:每台主机的姓名要相同,计算机名必须不同。我

4、们这里计算机名取f1,f2,f36、耐心等待Ubuntu操作系统安装完成!7、虚拟主机和主机之间实现双向拖放和共享粘贴板以及文件夹。(非必需步骤)1)导致这些问题的原因是Linux中没有安装增强功能2)安装增强功能,点击-设备安装增强功能3)如果点击安装增强功能提示没有虚拟光驱,则在VirtualBox中添加一个留空的虚拟光驱即可.如下图:8、在每个Ubuntu系统中安装jdk1)官网下载后是一个jdk-8u51-linux-x64.tar.gz的压缩包2)sudo tar -zxvf jdk-8u51-linux-x64.tar.gz解压得到jdk1.8.0_51文件夹3)执行命令sudo

5、gedit /etc/profile,打开etc下的profile文件,在文件最后添加环境变量。export JAVA_HOME=/usr/java/jdk1.8.0_51export PATH=$JAVA_HOME/bin:$PATHexport CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar4)在终端输入命令source profile重新加载环境变量,输入java命令测试安装结果,如果不行请重启电脑再试。9、配置hosts文件1)在每台虚拟主机的终端输入ifconfig命令查看本机ip2)由于我是在win10平台,用的

6、是Nat网络,所以每台主机分配的ip为:10.0.2.4;10.0.2.5;10.0.2.6.3)执行sudo gedit /etc/hosts命令打开hosts文件,在host文件中添加每台主机名以及它们的ip,如下图红框:注:3台虚拟主机都得配置hosts文件。10、建立用户组、新用户(前面按照要求安装Ubuntu的,这步可省略)1)如果前面在安装Ubuntu的时候,3台虚拟主机的用户名都相同并且主机名都不相同,那么此步骤可以省略,我们可以直接使用当前的用户和主机。2)建立用户组sudo groupadd hadoop3)创建用户sudo useradd -s /bin/bash -d /

7、home/fim -m fim -g hadoop -G admin-s:指定用户的登陆shell-d:指定用户主目录-m:如果指定的主目录不存在,则创建主目录-g:指定用户所属的用户组,用“,”分隔多个附加组-G:指定用户所属的附加组4)如果系统报admin组不存在,那么我们需要给hadoop用户组分配权限,否则,该组用户不能执行sudo操作。如:给hadoop用户组赋sudo权限:1.打开/etc/sudoers文件2.添加%hadoop ALL=(ALL) ALL3.截图如下:5)建议我们在安装Ubuntu的时候就建好用户名,这样省得麻烦,否则在以后的分布式搭建过程中都得切换到新建的用户

8、名下。11、配置ssh免密码登陆1)Ubuntu默认只安装了openssh-client,没有安装spenssh-server。查看进程如下图:2)执行命令:sudo apt-get install openssh-server安装,完成后进程如下:注:如果安装时报错说:openssh-server 还没有可供安装的候选者,请执行sudo apt-get update更新apt-get。3)生成ssh公钥和私钥ssh-keygen -t dsa -P -f /.ssh/id_dsa注:1/如果生成过程中报.ssh目录不存在,可以自己在下创建该目录2/linux中“”表示用户目录,比如此处就表示

9、/home/fim4)查看.ssh目录下生成的文件注:id_dsa.pub就是生成的公钥5)将公钥加入自己所认证的密钥之中cat /.ssh/id_dsa.pub /.ssh/authorized_keys注:1/此处如果切换到.ssh目录下,也可以执行cat id_dsa.pub authorized_keys2/cat命令中,符号表示追加,表示创建,千万别搞错了。3/此处命令表示将id_dsa.pub文件内容追加到authorized_keys文件末尾4/此处也可以用cp id_dsa.pub authorized_keys替代,因为authorized_keys文件还没有创建,如果文件不

10、存在,cat和cp命令都会默认创建文件,cp命令表示将文件内容拷贝到另个文件中,需注意的是会覆盖原文件内容。注:此处我们用的cp命令拷贝后再查看文件就多了一个authorized_keys文件6)执行ssh localhost命令连接本机注:如果报错connect to host localhost port 22: Connection refused就是因为我们没有安装openssh-server7)3台虚拟主机都执行上面的操作8)将f1主机的公钥拷贝到f2,f3主机.ssh目录下,使用scp命令,s=securityscp fimf1:/.ssh/id_dsa.pub /.ssh/h1_

11、dsa.pub查看拷贝后目录注:1/此处可以用主机名的方式访问远程主机,就是因为前面配置了hosts,否则此处要写ip,显得更加麻烦2/访问远程主机需要输入密码,其实每次访问远程主机都需要输入一次密码,这就是我们配置ssh免密码登陆的原因。9)将拷贝过来的文件添加到我们所认证的密钥之中cat f1_dsa.pub authorized_keys10)切换到f1主机,用命令ssh f2登陆f2主机,你会发现此时已经不再需要输入f2了,登陆f3也一样。登陆之后,f1主机的命令行路径是这样,也就是说当前用户是f2主机的fim注:exit命令退出远程主机。11)在f1主机中,通过远程访问的方式,将f1

12、的公钥拷贝过来并添加到认证密钥中。scp fimf1:/.ssh/id_dsa.pub /.ssh/f1_dsa.pubcat /.ssh/f1_dsa.pub /.ssh/authorized_keys此处有点迷茫,这样理解:这命令是为了保证NameNode能够无密码连入自己本机。也可以说是NameNode能够无密码访问JobTracker。其实我是不明白这操作有什么意义,因为这操作仅仅让authorized_keys多了一段同样的密钥而已。12)自此,ssh免密码登陆就配置好了。12、下载并解压hadoop安装包1)将解压后的包命名为hadoop,并将其移动到/usr/java目录下2)配

13、置环境变量,执行sudo gedit /etc/profile打开profile文件,添加下面变量,保存export HADOOP_HOME=/usr/java/hadoopexport PATH=$PATH:$HADOOP_HOME/bin3)执行source /etc/profile加载配置文件4)终端执行echo $HADOOP_HOME,如果输出hadoop安装路径,则表示配置成功 13、配置hadoop1)修改 hadoop-env.shexport JAVA_HOME=/usr/java/jdk2)修改core-site.xml hadoop.tmp.dir /home/fim/h

14、dfs/hadooptmp fs.default.name hdfs:/f1:9000 3)修改hdfs-site.xml dfs.name.dir /home/fim/hdfs/name dfs.data.dir /home/fim/hdfs/data dfs.replication 2 4)修改mapred-site.xml mapred.job.tracker h1:9001 5)修改masters和slaves,在masters文件中加上namenode的主机名(ip),在slaves中加上datanode的主机名(ip)#mastersf1#slavesf2f314、将配置好的had

15、oop拷贝到各个子节点1)将hadoop拷贝到f2节点scp -r /usr/java/hadoop f2:/java/hadoop2)将hadoop拷贝到f3节点scp -r /usr/java/hadoop f3:/java/hadoop注:1.-r表示拷贝目录,不加-r表示拷贝的是文件 2.scp命令拷贝时,只能拷贝到用户目录下,即:/下3)配置各子节点的hadoop环境变量4)到此,我觉得我们的hadoop安装目录最好在用户目录为好。15、将hadoop安装目录所有权限给当前用户sudo chown -R fim hadoop注:-R表示向下递归,表示hadoop的所有子目录16、格式

16、化NameNode、启动hadoophadoop namenode -formatstart-all.sh17、检验 hadoop 的启动情况1)用jps命令检查hadoop启动情况NameNode:DataNode:2)http:/10.0.2.4:50070检查是否加入了新的 datanode 3)http:/10.0.2.4:50030检查 map reduce的运行情况 附:一、VirtualBox共享文件夹挂载1)创建挂载点mkdir home/fim/software2)挂载共享文件夹sudo mount -t vboxsf BaiduShare home/fim/software二、change该目录包括子目录的用户(owner)sudo chown -R 用户名:所属组 目录 (注:可编辑下载,若有不当之处,请指正,谢谢!)

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1