vi .bashrc
export HADOOP_HOEM=/home/gulyas/app/hadoop export PATH=$HADOOP/bin:$HADOOP/sbin:$PATH
hdfs dfs -lssource .bashrc
which hadoop # 检查是否配置成功
hdfs dfs -ls # 列出工作主目录下的信息 hdfs dfs -ls / # 列出hdfs文件系统中hdfs dfs -mkdir
# path可以是绝对路径,也可以是相对路径。 hdfs dfs -mkdir [-p]hdfs dfs -rm -rfhdfs dfs -mkdir tmp # 在hdfs文件系统中/user/gulyas目录下创建tmp目录 hdfs dfs -mkdir ./tmp # 同上 hdfs dfs -ls 查看 hdfs dfs -mkdir /tmp # 在hdfs文件系统的根目录下创建一个tmp目录 hdfs dfs -ls / # 查看根路径下的文件列表
hdfs dfs -rm [-r] [-f]hdfs dfs -appendToFile# 删除目录或文件,-r -f不能组合成-rf hdfs dfs -rm -r -f /test # 删除根目录下的test目录 hdfs dfs -rmdir /test # 删除目录:只能删除空目录
# appendToFile命令既可以将一个或多个文件添加到HDFS中,也可以将流中的数据读取到HDFS中。最终都是在hdfs中生成一个文件。 hdfs dfs -appendToFilehdfs dfs -cat# 将本地文件exp.log上传到hdfs中/user/gulyas/tmp目录,并重命名为:exception.log hdfs dfs -appendToFile ./exp.log ./tmp/exception.log # 将本地的test目录传到hdfs中,重命名为tst文件【注意这里并不是目录】。 hdfs dfs -appendToFile ./test ./tst
hdfs dfs -cathdfs dfs -find# 查看/user/gulyas/tmp/exception.log 文件内容 hdfs dfs -cat ./tmp/exception.log
# 从根目录下精确搜索exception.log文件 hdfs dfs -find / -name exception.log # 从/user/gulyas目录下搜索名称中包含ex字符串的文件 hdfs dfs -find /user/gulyas -name '*ex*'hdfs dfs -put
从本地文件系统拷贝文件到hdfs中。
hdfs dfs -put [-f] [-p] [-l] [-d] [-thdfs dfs -get] [ - | .. ]. # -f 如果已存在就覆盖 # -p 递归拷贝 hdfs dfs -put head.png tmp/head.png # 拷贝文件 hdfs dfs -put txt/ tmp/txt # 将目录txt拷贝到hdfs中的/user/gulyas/tmp/txt
从hdfs中下载文件到本地文件系统中。
hdfs dfs -get [-ignorecrc] [-crc] [-p] [-f]hdfs dfs -cp# -p 保留访问权限 修改时间等信息 # -f 如果目标文件已存在,直接覆盖。 hdfs dfs -get ./tmp ./hdfs-temp-dic # 将hdfs中的tmp目录下载到本地并重命名
hdfs dfs -cp [-f] [-p | -p[topax]] URI [URI ...]hdfs dfs -count# -f 如果存在,直接覆盖。 hdfs dfs -cp /user/hadoop/file1 /user/hadoop/file2 hdfs dfs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir hdfs dfs -cp tmp ./temp # 将tmp拷贝并重命名为temp
统计目录下文件夹数量 文件数量 目录下文件总字节数。
hadoop fs -count [-q] [-h] [-v] [-x] [-t []] [-u] [-e] [-s] hdfs dfs -count /user/gulyas # 对/user/gulyas目录进行统计
结果每列含义:目录数 文件数 总大小(字节) 目录名称
hdfs dfs -mvhdfs dfs -mv URI [URI ...]hdfs dfs -chown# mv命令只能在hdfs文件系统中使用,不能跨系统。 hdfs dfs -mv tmp /tmp_home
hdfs dfs -chmod [-R]hdfs dfs -chownURI [URI ...] # -R 递归目录授权
hdfs dfs -chown [-R]hdfs dfs -tailURI [URI ...] hdfs dfs -chown gulyas:gulyas temp # 更文件改用户组 hdfs dfs -chmod 700 temp # 给temp目录授权700
hadoop fs -tail [-f] URI # 输出文件的末尾输出到控制台 # -f 动态输出hdfs dfs -touch
hdfs dfs -touch [-a] [-m] [-t TIMESTAMP] [-c] URI [URI ...]hdfs dfs -touchz
hdfs dfs -touchz URI [URI ...] # 创建一个长度为0的文件



