ImageVerifierCode 换一换
格式:DOCX , 页数:9 ,大小:18.84KB ,
资源ID:4903230      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/4903230.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(hadoop 命令手册.docx)为本站会员(b****4)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

hadoop 命令手册.docx

1、hadoop 命令手册hadoop命令手册 概述 o 常规选项 用户命令 o archive o distcp o fs o fsck o jar o job o pipes o version o CLASSNAME 管理命令 o balancer o daemonlog o datanode o dfsadmin o jobtracker o namenode o secondarynamenode o tasktracker 概述所有的hadoop命令均由bin/hadoop脚本引发。不指定参数运行hadoop脚本会打印所有命令的描述。 用法:hadoop -config confdir

2、 COMMAND GENERIC_OPTIONS COMMAND_OPTIONS Hadoop有一个选项解析框架用于解析一般的选项和运行类。 命令选项 描述 -config confdir覆盖缺省配置目录。缺省是$HADOOP_HOME/conf。GENERIC_OPTIONS多个命令都支持的通用选项。COMMAND 命令选项S各种各样的命令和它们的选项会在下面提到。这些命令被分为 用户命令 管理命令两组。常规选项下面的选项被 dfsadmin, fs, fsck和 job支持。 应用程序要实现 Tool来支持 常规选项。 GENERIC_OPTION 描述 -conf 指定应用程序的配置文件

3、。-D 为指定property指定值value。-fs 指定namenode。-jt 指定job tracker。只适用于job。-files 指定要拷贝到map reduce集群的文件的逗号分隔的列表。 只适用于job。-libjars 指定要包含到classpath中的jar文件的逗号分隔的列表。 只适用于job。-archives 指定要被解压到计算节点上的档案文件的逗号分割的列表。 只适用于job。用户命令 hadoop集群用户的常用命令。archive 创建一个hadoop档案文件。参考 Hadoop Archives. 用法:hadoop archive -archiveName

4、NAME * 命令选项 描述-archiveName NAME要创建的档案的名字。src文件系统的路径名,和通常含正则表达的一样。dest保存档案文件的目标目录。distcp 递归地拷贝文件或目录。参考DistCp指南以获取等多信息。 用法:hadoop distcp 命令选项 描述srcurl源Urldesturl目标Urlfs 用法:hadoop fs GENERIC_OPTIONS COMMAND_OPTIONS 运行一个常规的文件系统客户端。 各种命令选项可以参考HDFS Shell指南。 fsck 运行HDFS文件系统检查工具。参考Fsck了解更多。 用法:hadoop fsck G

5、ENERIC_OPTIONS -move | -delete | -openforwrite -files -blocks -locations | -racks 命令选项 描述 检查的起始目录。-move移动受损文件到/lost+found-delete删除受损文件。-openforwrite打印出写打开的文件。-files打印出正被检查的文件。-blocks打印出块信息报告。-locations打印出每个块的位置信息。-racks打印出data-node的网络拓扑结构。jar 运行jar文件。用户可以把他们的Map Reduce代码捆绑到jar文件中,使用这个命令执行。 用法:hadoop

6、 jar mainClass args. streaming作业是通过这个命令执行的。参考Streaming examples中的例子。 Word count例子也是通过jar命令运行的。参考Wordcount example。 job 用于和Map Reduce作业交互和命令。 用法:hadoop job GENERIC_OPTIONS -submit | -status | -counter | -kill | -events | -history all | -list all | -kill-task | -fail-task 命令选项 描述-submit 提交作业-status 打印

7、map和reduce完成百分比和所有计数器。-counter 打印计数器的值。-kill 杀死指定作业。-events 打印给定范围内jobtracker接收到的事件细节。-history all -history 打印作业的细节、失败及被杀死原因的细节。更多的关于一个作业的细节比如成功的任务,做过的任务尝试等信息可以通过指定all选项查看。 -list all-list all显示所有作业。-list只显示将要完成的作业。-kill-task 杀死任务。被杀死的任务不会不利于失败尝试。-fail-task 使任务失败。被失败的任务会对失败尝试不利。pipes 运行pipes作业。 用法:ha

8、doop pipes -conf -jobconf , , . -input -output -jar -inputformat -map -partitioner -reduce -writer -program -reduces 命令选项 描述-conf 作业的配置-jobconf , , .增加/覆盖作业的配置项-input 输入目录-output 输出目录-jar Jar文件名-inputformat InputFormat类-map Java Map类-partitioner Java Partitioner-reduce Java Reduce类-writer Java Recor

9、dWriter-program 可执行程序的URI-reduces reduce个数version 打印版本信息。 用法:hadoop version CLASSNAME hadoop脚本可用于调调用任何类。 用法:hadoop CLASSNAME 运行名字为CLASSNAME的类。 管理命令hadoop集群管理员常用的命令。balancer 运行集群平衡工具。管理员可以简单的按Ctrl-C来停止平衡过程。参考Rebalancer了解更多。 用法:hadoop balancer -threshold 命令选项 描述-threshold 磁盘容量的百分比。这会覆盖缺省的阀值。daemonlog

10、获取或设置每个守护进程的日志级别。 用法:hadoop daemonlog -getlevel 用法:hadoop daemonlog -setlevel 命令选项 描述-getlevel 打印运行在的守护进程的日志级别。这个命令内部会连接http:/logLevel?log=-setlevel 设置运行在的守护进程的日志级别。这个命令内部会连接http:/logLevel?log=datanode运行一个HDFS的datanode。 用法:hadoop datanode -rollback 命令选项 描述-rollback将datanode回滚到前一个版本。这需要在停止datanode,分发

11、老的hadoop版本之后使用。 dfsadmin 运行一个HDFS的dfsadmin客户端。 用法:hadoop dfsadmin GENERIC_OPTIONS -report -safemode enter | leave | get | wait -refreshNodes -finalizeUpgrade -upgradeProgress status | details | force -metasave filename -setQuota . -clrQuota . -help cmd 命令选项 描述-report报告文件系统的基本信息和统计信息。-safemode enter

12、| leave | get | wait安全模式维护命令。安全模式是Namenode的一个状态,这种状态下,Namenode 1. 不接受对名字空间的更改(只读)2. 不复制或删除块Namenode会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手动进入,但是这样的话也必须手动关闭安全模式。 -refreshNodes重新读取hosts和exclude文件,更新允许连到Namenode的或那些需要退出或入编的Datanode的集合。 -finalizeUpgrade终结HDFS的升级操作。Datanode删除前一个版本的工作目录,之后N

13、amenode也这样做。这个操作完结整个升级过程。 -upgradeProgress status | details | force请求当前系统的升级状态,状态的细节,或者强制升级操作进行。 -metasave filename保存Namenode的主要数据结构到hadoop.log.dir属性指定的目录下的文件。对于下面的每一项,中都会一行内容与之对应1. Namenode收到的Datanode的心跳信号2. 等待被复制的块3. 正在被复制的块4. 等待被删除的块-setQuota .为每个目录 设定配额。目录配额是一个长整型整数,强制限定了目录树下的名字个数。命令会在这个目录上工作良好,

14、以下情况会报错:1. N不是一个正整数,或者2. 用户不是管理员,或者3. 这个目录不存在或是文件,或者4. 目录会马上超出新设定的配额。-clrQuota .为每一个目录清除配额设定。命令会在这个目录上工作良好,以下情况会报错:1. 这个目录不存在或是文件,或者2. 用户不是管理员。如果目录原来没有配额不会报错。-help cmd显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮助信息。jobtracker 运行MapReduce job Tracker节点。 用法:hadoop jobtracker namenode 运行namenode。有关升级,回滚,升级终结的更多信息请参考

15、升级和回滚。 用法:hadoop namenode -format | -upgrade | -rollback | -finalize | -importCheckpoint 命令选项 描述-format格式化namenode。它启动namenode,格式化namenode,之后关闭namenode。-upgrade分发新版本的hadoop后,namenode应以upgrade选项启动。-rollback将namenode回滚到前一版本。这个选项要在停止集群,分发老的hadoop版本后使用。 -finalizefinalize会删除文件系统的前一状态。最近的升级会被持久化,rollback选

16、项将再不可用,升级终结操作之后,它会停掉namenode。-importCheckpoint从检查点目录装载镜像并保存到当前检查点目录,检查点目录由fs.checkpoint.dir指定。 secondarynamenode 运行HDFS的secondary namenode。参考Secondary Namenode了解更多。 用法:hadoop secondarynamenode -checkpoint force | -geteditsize 命令选项 描述-checkpoint force如果EditLog的大小 = fs.checkpoint.size,启动Secondary namenode的检查点过程。 如果使用了-force,将不考虑EditLog的大小。-geteditsize打印EditLog大小。tasktracker 运行MapReduce的task Tracker节点。 用法:hadoop tasktracker

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1