hadoop + zookeeper +hive + hbase安装学习12页文档资料Word格式.docx

上传人:b****3 文档编号:13828910 上传时间:2022-10-13 格式:DOCX 页数:15 大小:31.96KB
下载 相关 举报
hadoop + zookeeper +hive + hbase安装学习12页文档资料Word格式.docx_第1页
第1页 / 共15页
hadoop + zookeeper +hive + hbase安装学习12页文档资料Word格式.docx_第2页
第2页 / 共15页
hadoop + zookeeper +hive + hbase安装学习12页文档资料Word格式.docx_第3页
第3页 / 共15页
hadoop + zookeeper +hive + hbase安装学习12页文档资料Word格式.docx_第4页
第4页 / 共15页
hadoop + zookeeper +hive + hbase安装学习12页文档资料Word格式.docx_第5页
第5页 / 共15页
点击查看更多>>
下载资源
资源描述

hadoop + zookeeper +hive + hbase安装学习12页文档资料Word格式.docx

《hadoop + zookeeper +hive + hbase安装学习12页文档资料Word格式.docx》由会员分享,可在线阅读,更多相关《hadoop + zookeeper +hive + hbase安装学习12页文档资料Word格式.docx(15页珍藏版)》请在冰豆网上搜索。

hadoop + zookeeper +hive + hbase安装学习12页文档资料Word格式.docx

$JRE_HOME/lib:

$CLASSPATH

2.安装Hadoop-1.0.3

2.1.下载hadoop文件,地址为:

http:

//hadoop.apache.org/coases.html,下载完成后解压hadoop-1.0.3.tar.gz

sudotar-xzfhadoop-1.0.3.tar.gz

2.2.配置Hadoop环境变量

exportHADOOP_INSTALL=/user/local/hadoop-1.0.3

激活profile文件:

[root@localhostetc]#chmod+xprofile

[root@localhostetc]#sourceprofile

[root@localhostetc]#hadoopversion

2.3.查看hadoop版本

[root@localhost~]#hadoopversion

Hadoop1.0.3

Subversionhttps:

//svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0-r1335192

CompiledbyhortonfoonTueMay820:

31:

25UTC2012

Fromsourcewithchecksume6b0c1e23dcf76907c5fecb4b832f3be

输入hadoopversion命令后输入下图,则安装hadoop成功

2.4.修改配置文件

a)解压hadoop-1.0.3/hadoop-core-1.0.3.jar

b)去解压后的hadoop-core-1.0.3文件夹下,复制文件core-default.xml,hdfs-default.xml,mapred-default.xml三个文件到hadoop-1.0.3/conf/下,删除hadoop-1.0.3/conf/文件夹下的core-site.xml,hdfs-site.xml,mapred-site.xml,将复制过来的三个文件的文件名中的default修改为site

c)在hadoop-1.0.3文件夹同级创建文件夹hadoop,打开core-site.xml文件,修改属性节点下的name节点为hadoop.tmp.dir对应的value节点,修改为/user/local/${user.name}/hadoop/hadoop-${user.name},这样hadoop生成的文件会放入这个文件夹下.修改name节点为fs.default.name对应的value节点,修改为hdfs:

//localhost:

9000/

打开mapred-site.xml文件,修改property节点下name为mapred.job.tracker对应的的value,改为:

localhost:

9001

3.安装ssh

1.执行命令安装ssh:

sudoapt-getinstallssh

2.基于空口令创建一个新SSH密钥,以启用无密码登陆

a)ssh-keygen-trsa-P'

'

-f~/.ssh/id_rsa

执行结果:

b)cat~/.ssh/id_rsa.pub>

>

~/.ssh/authorized_keys

3.测试

sshlocalhost

测试结果:

输入yes

再次输入sshlocalhost:

成功之后,就不需要密钥

4.格式化HDFS文件系统

输入指令:

hadoopnamenode–format

[root@localhost~]#hadoopnamenode–format

13/07/1714:

26:

41INFOnamenode.NameNode:

STARTUP_MSG:

STARTUP_MSG:

StartingNameNode

host=localhost.localdomain/127.0.0.1

args=[–format]

version=1.0.3

build=https:

//svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0-r1335192;

compiledby'

hortonfo'

onTueMay820:

Usage:

javaNameNode[-format]|[-upgrade]|[-rollback]|[-finalize]|[-importCheckpoint]

SHUTDOWN_MSG:

SHUTDOWN_MSG:

ShuttingdownNameNodeatlocalhost.localdomain/127.0.0.1

5.启动和终止守护进程

启动和终止HDFS和MapReduce守护进程,键入如下指令

启动start-all.sh(start-dfs.sh,start-mapred.sh)

出错了,JAVA_HOMEisnotset

需要修改文件,打开hadoop-1.0.3/conf/hadoop-env.sh

将红线以内部分注释解开,修改为本机JAVA_HOME

再次执行启动命令start-all.sh

停止stop-all.sh(stop-dfs.sh,stop-mapred.sh)

到此,hadoop就已经安装完成了

6.Hadoop文件系统

6.1.查看hadoop所有块文件

执行命令:

hadoopfsck/-files–blocks

执行结果:

此结果显示,hadoop文件系统中,还没有文件可以显示

本机出错,出错原因:

datanode没有启动,具体见evernote笔记。

[root@localhost~]#hadoopfsck/-files–blocks

44:

15ERRORsecurity.UserGroupInformation:

PriviledgedActionExceptionas:

rootcause:

java.ConnectException:

Connectionrefused

Exceptioninthread"

main"

java.ConnectException:

atjava.PlainSocketImpl.socketConnect(NativeMethod)

atjava.PlainSocketImpl.doConnect(PlainSocketImpl.java:

351)

atjava.PlainSocketImpl.connectToAddress(PlainSocketImpl.java:

211)

atjava.PlainSocketImpl.connect(PlainSocketImpl.java:

200)

atjava.SocksSocketImpl.connect(SocksSocketImpl.java:

366)

atjava.Socket.connect(Socket.java:

529)

478)

atsunworkClient.doConnect(NetworkClient.java:

163)

atsun.http.HttpClient.openServer(HttpClient.java:

388)

523)

atsun.http.HttpClient.<

init>

(HttpClient.java:

227)

atsun.http.HttpClient.New(HttpClient.java:

300)

317)

atsun.protocol.http.HttpURLConnection.getNewHttpClient(HttpURLConnection.java:

970)

atsun.protocol.http.HttpURLConnection.plainConnect(HttpURLConnection.java:

911)

atsun.protocol.http.HttpURLConnection.connect(HttpURLConnection.java:

836)

atsun.protocol.http.HttpURLConnection.getInputStream(HttpURLConnection.java:

1172)

atorg.apache.hadoop.hdfs.tools.DFSck$1.run(DFSck.java:

141)

110)

atjava.security.AccessController.doPrivileged(NativeMethod)

atjavax.security.auth.Subject.doAs(Subject.java:

396)

atorg.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:

1121)

atorg.apache.hadoop.hdfs.tools.DFSck.run(DFSck.java:

atorg.apache.hadoop.util.ToolRunner.run(ToolRunner.java:

65)

79)

atorg.apache.hadoop.hdfs.tools

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 解决方案 > 学习计划

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1