Get清风hadoop常用指令.docx
《Get清风hadoop常用指令.docx》由会员分享,可在线阅读,更多相关《Get清风hadoop常用指令.docx(8页珍藏版)》请在冰豆网上搜索。
Get清风hadoop常用指令
hadoop常用指令
HDFS常用文件操作命令
前言
HDFS命令根本格式:
hadoopfs-cmd
ls命令
hadoopfs-ls/
列出hdfs文件系统根目录下的目录和文件
hadoopfs-ls-R/
列出hdfs文件系统所有的目录和文件
put命令
hadoopfs-put
hdfsfile的父目录一定要存在,否那么命令不会执行
hadoopfs-put...
hdfsdir一定要存在,否那么命令不会执行
hadoopfs-put-
从键盘读取输入到hdfsfile中,按Ctrl+D结束输入,hdfsfile不能存在,否那么命令不会执行
moveFromLocal命令
hadoopfs-moveFromLocal...
与put相类似,命令执行后源文件localsrc被删除,也可以从从键盘读取输入到hdfsfile中
copyFromLocal命令
hadoopfs-copyFromLocal...
与put相类似,也可以从从键盘读取输入到hdfsfile中
get命令
hadoopfs-get
localfile不能和hdfsfile名字不能相同,否那么会提示文件已存在,没有重名的文件会复制到本地
hadoopfs-get...
拷贝多个文件或目录到本地时,本地要为文件夹路径
注意:
如果用户不是root,local路径要为用户文件夹下的路径,否那么会出现权限问题,
moveToLocal命令
当前版本中还未实现此命令
copyToLocal命令
hadoopfs-copyToLocal...
与get相类似
rm命令
hadoopfs-rm...
hadoopfs-rm-r...
每次可以删除多个文件或目录
mkdir命令
hadoopfs-mkdir
只能一级一级的建目录,父目录不存在的话使用这个命令会报错
hadoopfs-mkdir-p
所创立的目录如果父目录不存在就创立该父目录
getmerge命令
hadoopfs-getmerge
将hdfs指定目录下所有文件排序后合并到local指定的文件中,文件不存在时会自动创立,文件存在时会覆盖里面的内容
hadoopfs-getmerge-nl
加上nl后,合并到localfile中的hdfs文件之间会空出一行
cp命令
hadoopfs-cp
目标文件不能存在,否那么命令不能执行,相当于给文件重命名并保存,源文件还存在
hadoopfs-cp...
目标文件夹要存在,否那么命令不能执行
mv命令
hadoopfs-mv
目标文件不能存在,否那么命令不能执行,相当于给文件重命名并保存,源文件不存在
hadoopfs-mv...
源路径有多个时,目标路径必须为目录,且必须存在。
注意:
跨文件系统的移动〔local到hdfs或者反过来〕都是不允许的
count命令
hadoopfs-count
统计hdfs对应路径下的目录个数,文件个数,文件总计大小
显示为目录个数,文件个数,文件总计大小,输入路径
du命令
hadoopfs-du
显示hdfs对应路径下每个文件夹和文件的大小
hadoopfs-du-s
显示hdfs对应路径下所有文件和的大小
hadoopfs-du-h
显示hdfs对应路径下每个文件夹和文件的大小,文件的大小用方便阅读的形式表示,例如用64M代替67108864
text命令
hadoopfs-text
将文本文件或某些格式的非文本文件通过文本格式输出
setrep命令
hadoopfs-setrep-R3
改变一个文件在hdfs中的副本个数,上述命令中数字3为所设置的副本个数,-R选项可以对一个人目录下的所有目录+文件递归执行改变副本个数的操作
stat命令
hdoopfs-stat[format]
返回对应路径的状态信息
[format]可选参数有:
%b〔文件大小〕,%o〔Block大小〕,%n〔文件名〕,%r〔副本个数〕,%y〔最后一次修改日期和时间〕
可以这样书写hadoopfs-stat%b%o%n,不过不建议,这样每个字符输出的结果不是太容易分清楚
tail命令
hadoopfs-tail
在标准输出中显示文件末尾的1KB数据
archive命令
hadooparchive-archiveNamename.har-p*
命令中参数name:
压缩文件名,自己任意取;
:
压缩文件所在的父目录;
:
要压缩的文件名;
:
压缩文件存放路径
*例如:
hadooparchive-archiveNamehadoop.har-p/user1.txt2.txt/des
显示har的内容可以用如下命令:
显示har压缩的是那些文件可以用如下命令
注意:
har文件不能进行二次压缩。
如果想给.har加文件,只能找到原来的文件,重新创立一个。
har文件中原来文件的数据并没有变化,har文件真正的作用是减少NameNode和DataNode过多的空间浪费。
balancer命令
hdfsbalancer
如果管理员发现某些DataNode保存数据过多,某些DataNode保存数据相对较少,可以使用上述命令手动启动内部的均衡过程
dfsadmin命令
hdfsdfsadmin-help
管理员可以通过dfsadmin管理HDFS,用法可以通过上述命令查看
hdfsdfsadmin-report
显示文件系统的根本数据
hdfsdfsadmin-safemode
enter:
进入平安模式;leave:
离开平安模式;get:
获知是否开启平安模式;
wait:
等待离开平安模式
distcp命令
用来在两个HDFS之间拷贝数据
1.文件操作
(1)列出HDFS下的文件
/usr/local/hadoop$bin/hadoopdfs-ls
(2)列出HDFS文件下名为in的文档中的文件
/usr/local/hadoop$bin/hadoopdfs-lsin
(3)上传文件
将hadoop目录下的test1文件上传到HDFS上并重命名为test:
/usr/local/hadoop$bin/hadoopdfs-puttest1test
(4)文件被复制到本地系统中
将HDFS中的in文件复制到本地系统并命名为getin:
/usr/local/hadoop$bin/hadoopdfs-getingetin
(5)删除文档
删除HDFS下名为out的文档:
/usr/local/hadoop$bin/hadoopdfs-rmrout
(6)查看文件
查看HDFS下in文件中的内容:
/usr/local/hadoop$bin/hadoopdfs-catin/*
(7)建立目录
/usr/local/hadoop$bin/hadoopdfs-mkdir/user/hadoop/examples〔目录/目录名〕
只能一级一级的建目录。
(8)复制文件
/usr/local/hadoop$bin/hadoopdfs-copyFromLocal源路径路径
(9)通过Hadoop命令把两个文件的内容合并起来
hdfsdfs-getmerge位于hdfs中的原文件〔里面有多个文件〕合并后的文件名
例如:
hdfsdfs-getmergehdfs:
//Master:
9000/data/SogouResult.txtCombinedResult
注:
合并后的文件位于当前目录,不在hdfs中,是本地文件
2.管理与更新
(1)执行根本信息
查看HDFS的根本统计信息:
/usr/local/hadoop$bin/hadoopdfsadmin-report
(2)退出平安模式
NameNode在启动时会自动进入平安模式。
平安模式是NameNode的一种状态,在这个阶段,文件系统不允许有任何修改。
系统显示Namenodeinsafemode,说明系统正处于平安模式,这时只需要等待十几秒即可,也可通过下面的命令退出平安模式:
/usr/local/hadoop$bin/hadoopdfsadmin-safemodeleave
(3)进入平安模式
在必要情况下,可以通过以下命令把HDFS置于平安模式:
/usr/local/hadoop$bin/hadoopdfsadmin-safemodeenter
(4)节点添加
添加一个新的DataNode节点,先在新加节点上安装好Hadoop,要和NameNode使用相同的配置〔可以直接从NameNode复制〕,修改$HADOOP_HOME/conf/master文件,参加NameNode主机名。
然后在NameNode节点上修改$HADOOP_HOME/conf/slaves文件,参加新节点名,再建立新加节点无密码的SSH连接,运行启动命令为:
(5)负载均衡
HDFS的数据在各个DataNode中的分布可能很不均匀,尤其是在DataNode节点出现故障或新增DataNode节点时。
新增数据块时NameNode对DataNode节点的选择策略也有可能导致数据块分布不均匀。
用户可以使用命令重新平衡DataNode上的数据块的分布: