栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 数据挖掘与分析

hadoop集群系类---hadoop命令的简单使用(超详细!!!)

hadoop集群系类---hadoop命令的简单使用(超详细!!!)

大家好!欢迎大家来打胖大牛hadoop集群课程第二课,今天向大家介绍下hadoop的部分操作命令:

目录:
  • 1. 基本语法
    • 1.1命令大全
  • 2.常用命令实操
    • 2.1 -help:输出这个命令参数
    • 2.2 创建/sanguo 文件夹为后续操作方便
      • 1)-moveFromLocal:从本地剪切粘贴到 HDFS(本地就没有了)
      • 2)-copyFromLocal:从本地文件系统中拷贝文件到 HDFS 路径去
      • 3)-put:等同于 copyFromLocal,生产环境更习惯用 put
      • 4)-appendToFile:追加一个文件到已经存在的文件末尾
    • 2.3 下载
      • 1)-copyToLocal:从 HDFS 拷贝到本地
      • 2)-get:等同于 copyToLocal,生产环境更习惯用 get
    • 2.4 HDFS 直接操作
      • 1)-ls: 显示目录信息
      • 2)-cat:显示文件内容
      • 3)-chgrp、-chmod、-chown:Linux 文件系统中的用法一样,修改文件所属权限
      • 4)-mkdir:创建路径
      • 5)-cp:从 HDFS 的一个路径拷贝到 HDFS 的另一个路径
      • 6)-mv:在 HDFS 目录中移动文件
      • 7)-tail:显示一个文件的末尾 1kb 的数据
      • 8)-rm:删除文件或文件夹 (一定慎用)
      • 9)-rm -r:递归删除目录及目录里面内容 (一定慎用)
      • 10)-du 统计文件夹的大小信息
      • 11)-setrep:设置 HDFS 中文件的副本数量

学习课程首先要安装hadoop集群:
如果还每安装请参考:Hadoop 3.x版本安装步骤
首先:要确保hadoop集群是启动状态:
启动命令:

  1. 在 102 上启动HDFS:
[abc@hadoop102 hadoop-3.1.3]$ start-dfs.sh

启动成功显示如下:

  1. 在103上启动yarn:
[abc@hadoop103 ~]$ start-yarn.sh

启动成功显示如下:

1. 基本语法

hadoop fs 具体命令 OR hdfs dfs 具体命令两个是完全相同的

1.1命令大全

使用前加上: hadoop fs 或者 hdfs dfs
启动集群后:输入命令:hadoop fs
如下命令是操作的所有命令,后面举例是一些简单的,日常操作命令,如果没有满足需求可以在这里查看:

2.常用命令实操 2.1 -help:输出这个命令参数

hadoop fs -help 后边加你想要了解的命令
简单举例:

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -help rm

2.2 创建/sanguo 文件夹为后续操作方便
hadoop fs -mkdir /sanguo

创建如下:

1)-moveFromLocal:从本地剪切粘贴到 HDFS(本地就没有了)

在 sanguo 问价夹下创建:

vim shuguo.txt

输入:

shuguo
hadoop fs -moveFromLocal ./shuguo.txt 

在hdfs上就有文件加,

2)-copyFromLocal:从本地文件系统中拷贝文件到 HDFS 路径去
vim weiguo.txt

输入:

weiguo
hadoop fs -copyFromLocal weiguo.txt 

在hdfs上就有这个文件:

/sanguo
3)-put:等同于 copyFromLocal,生产环境更习惯用 put
vim wuguo.txt

输入:

wuguo
hadoop fs -put ./wuguo.txt /sanguo
4)-appendToFile:追加一个文件到已经存在的文件末尾
vim liubei.txt

输入:

liubei
hadoop fs -appendToFile liubei.txt 
/sanguo/shuguo.txt
2.3 下载 1)-copyToLocal:从 HDFS 拷贝到本地
hadoop fs -copyToLocal 
/sanguo/shuguo.txt ./
2)-get:等同于 copyToLocal,生产环境更习惯用 get
hadoop fs -get 
/sanguo/shuguo.txt ./shuguo2.txt
2.4 HDFS 直接操作 1)-ls: 显示目录信息
hadoop fs -ls /sanguo
2)-cat:显示文件内容
hadoop fs -cat /sanguo/shuguo.txt
3)-chgrp、-chmod、-chown:Linux 文件系统中的用法一样,修改文件所属权限
hadoop fs -chmod 666 
/sanguo/shuguo.txt
hadoop fs -chown atguigu:atguigu 
/sanguo/shuguo.txt
4)-mkdir:创建路径
hadoop fs -mkdir /jinguo
5)-cp:从 HDFS 的一个路径拷贝到 HDFS 的另一个路径
hadoop fs -cp /原始路径 /目标地址
hadoop fs -cp /sanguo/shuguo.txt 
/jinguo
6)-mv:在 HDFS 目录中移动文件
hadoop fs -mv /sanguo/wuguo.txt /jinguo
hadoop fs -mv /sanguo/weiguo.txt /jinguo
7)-tail:显示一个文件的末尾 1kb 的数据
hadoop fs -tail /jinguo/shuguo.txt
8)-rm:删除文件或文件夹 (一定慎用)
hadoop fs -rm /sanguo/shuguo.txt
9)-rm -r:递归删除目录及目录里面内容 (一定慎用)
hadoop fs -rm -r /sanguo
10)-du 统计文件夹的大小信息

文件夹的总大小:

文件夹的总大小:

hadoop fs -du -s -h /jinguo
27 81 /jinguo

问价夹的各个分大小:

hadoop fs -du -h /jinguo
14 42 /jinguo/shuguo.txt

7 21 /jinguo/weiguo.txt

6 18 /jinguo/wuguo.tx

说明:27 表示文件大小;81 表示 27*3 个副本;/jinguo 表示查看的目录

11)-setrep:设置 HDFS 中文件的副本数量
hadoop fs -setrep 10 /jinguo/shuguo.txt

这里设置的副本数只是记录在 NameNode 的元数据中,是否真的会有这么多副本,还得看 DataNode 的数量。因为目前只有 3 台设备,最多也就 3 个副本,只有节点数的增加到 10台时,副本数才能达到 10。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/279073.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号