hadoop+Spark 详细配置Word下载.docx

上传人:b****4 文档编号:15928547 上传时间:2022-11-17 格式:DOCX 页数:13 大小:3.20MB
下载 相关 举报
hadoop+Spark 详细配置Word下载.docx_第1页
第1页 / 共13页
hadoop+Spark 详细配置Word下载.docx_第2页
第2页 / 共13页
hadoop+Spark 详细配置Word下载.docx_第3页
第3页 / 共13页
hadoop+Spark 详细配置Word下载.docx_第4页
第4页 / 共13页
hadoop+Spark 详细配置Word下载.docx_第5页
第5页 / 共13页
点击查看更多>>
下载资源
资源描述

hadoop+Spark 详细配置Word下载.docx

《hadoop+Spark 详细配置Word下载.docx》由会员分享,可在线阅读,更多相关《hadoop+Spark 详细配置Word下载.docx(13页珍藏版)》请在冰豆网上搜索。

hadoop+Spark 详细配置Word下载.docx

greeter-show-manual-login=true

allow-guest=false

启动root帐号:

sudo?

passwd?

root

三台机器修改后,再次登录系统的时候用root用户登录:

 

安装ssh配置无密码登陆

依次运行如下安装命令:

sudodpkg-iopenssh-client_6.0p1-3ubuntu1_i386.deb

sudodpkg-iopenssh-server_6.0p1-3ubuntu1_i386.deb

sudodpkg-issh_6.0p1-3ubuntu1_all.deb

参见spark集群搭建第一步

安装JDK

创建目录/usr/myapp/java

tar–zxfjdk….

在barshrc中配置环境变量

gedit~/.bashrc

在最后添加

#zffjavaenviro

exportJAVA_HOME=/usr/myapp/java/jdk1.7.0_71

exportPATH=$JAVA_HOME/bin:

$JAVA_HOME/jre/bin:

$PATH

exportCLASSPATH=$CLASSPATH:

.:

$JAVA_HOME/lib:

$JAVA_HOME/jre/lib

安装scala

配置环境

安装spark

配置spark

exportSCALA_HOME=/usr/myapp/scala/scala-2.10.4

exportSPARK_HOME=/usr/myapp/spark/spark-1.0.2-bin-hadoop2

exportPATH=$SPARK_HOME/bin:

$SCALA_HOME/bin:

$JAVA_HOME/bin:

配置修改sparkMaster的Slaves

第二步:

配置spark-env.sh

首先把spark-env.sh.template?

拷贝到spark-env.sh:

打开“spark-env.sh”文件:

修改后的配置文件的内容如下所示:

exportSPARK_MASTER_IP=sparkMaster

exportSPARK_WORKER_MEMORY=2g

SparkWorker1和SparkWorker2采用和SparkMaster完全一样的Spark安装配置,在此不再赘述。

添加hadoop

1.解压

2.添加环境变量

exportHADOOP_HOME=/usr/myapp/hadoop-2.2.0

exportPATH=$HADOOP_HOME/bin:

$SPARK_HOME/bin:

3.添加一些文件夹

~/hadoop-2.2.0/etc/hadoop/hadoop-env.sh

~/hadoop-2.2.0/etc/hadoop/yarn-env.sh

~/hadoop-2.2.0/etc/hadoop/slaves

~/hadoop-2.2.0/etc/hadoop/core-site.xml

~/hadoop-2.2.0/etc/hadoop/hdfs-site.xml

~/hadoop-2.2.0/etc/hadoop/mapred-site.xml

~/hadoop-2.2.0/etc/hadoop/yarn-site.xml

/usr/myapp/java/jdk1.7.0_71

<

configuration>

property>

name>

fs.default.name<

/name>

value>

hdfs:

//sparkMaster:

9000<

/value>

/property>

<

hadoop.tmp.dir<

/usr/myapp/hadoop-2.2.0/tmp<

/configuration>

dfs.replication<

2<

dfs.name.dir<

/usr/myapp/hadoop-2.2.0/dfs/name<

dfs.data.dir<

/usr/myapp/hadoop-2.2.0/dfs/data<

mapreduce.framework.name<

yarn<

yarn.nodemanager.aux-services<

mapreduce_shuffle<

yarn.resourcemanager.hostname<

sparkMaster<

复制两份作为worker

修改三台机器的主机名和IP对应关系

见微软亚洲第一章第二步

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 小学教育 > 英语

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1