栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Hadoop HDFS 的基本shell命令操作

Hadoop HDFS 的基本shell命令操作

查看指定目录下信息  -ls

# -h 人性化显示
# -R 递归显示
hdfs dfs -ls [-h] [-R] 
创建文件夹   -mkdir
# -p 创建父目录
hdfs dfs -mkdir [-p] 
上传文件  -put
hdfs dfs -put  
# 将单个 src 或多个 srcs 从本地文件系统复制到目标文件系统
# src代表的是本地目录 所谓的本地指的是客户端所在的机器 
# dst代表的是HDFS
# -p:保留访问和修改时间,所有权和权限。
# -f:覆盖目的地(如果已经存在)

hdfs dfs -put file:///root/itcast.txt hdfs://node1:8020/itcast	

hdfs dfs -put itcast.txt /itcast

下载文件  -get

# 复制hdfs文件到本地文件系统。
hdfs dfs -get  

# 复制hdfs指定节点的文件到本地文件系统。
hdfs dfs -get hdfs://node1:8020/itcast/itcast.txt file:///root/
合并下载文件  -getmerge
# 合并下载多个文件,其功能和 appendToFile 相反的动作
hdfs dfs -getmerge /input/* ./merge.txt
# 查看合并下载后的文件
cat merge.txt 
文件移动 -mv、复制 -cp、删除 -rm
# 移动
hdfs dfs -mv  
# 复制
hdfs dfs -cp  
# 递归删除
hdfs dfs -rm -r  

# 跨集群复制 distcp
hadoop distcp hdfs://node1:8020/input/1.txt hdfs://node5:8020/test
追加内容进文件  -appendToFile
# 准备工作
echo 1 >> 1.txt
echo 2 >> 2.txt
echo 3 >> 3.txt
hadoop fs -put 1.txt /
hadoop fs -cat /1.txt

# 把本地文件 2.txt 和 3.txt 的内容追加到hdfs中的 1.txt
hdfs dfs -appendToFile 2.txt 3.txt /1.txt
hdfs dfs -cat /1.txt

# 追加的用途:把本地的小文件上传中合并成为大文件 解决小文件场景的。
查看文件内容  -cat
# cat 适合小文件
# tail 将文件的最后一千字节内容显示到stdout  -f参数支持实时追踪查看
hdfs dfs -cat /1.txt
修改权限  -chmod
# hdfs在设计的时候 借鉴模仿着linux权限管理模式
# 也有所谓的读写执行 user group others  777
# chgrp  修改所属组
# chmod  修改权限
# cgown  修改拥有者
hdfs dfs -chmod 777 /1.txt
统计HDFS可用空间  -df
hdfs dfs -df -h /
# 输出
# Filesystem            Size   Used  Available  Use%
# hdfs://node1:8020  111.1 G  5.0 M     98.3 G    0%
修改文件的副本数  -setrep
# hadoop fs -setrep -w N -R
# -w wait等待 修改副本客户端是否等待修改完毕再推出
# N 就是修改之后的副本数

hadoop fs -setrep -w 2 /input/1.txt
hadoop fs -setrep 2 /input/2.txt
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/741814.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号