栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Java

HDFS的API操作

Java 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

HDFS的API操作

文章目录

1)准备好hadoop相关的资料包2)配置环境变量![在这里插入图片描述](https://img-blog.csdnimg.cn/ff471f8afd8f4d679de0b9562c880bbd.png)4)在IDEA创建一个Maven工程HDFSClient(注:若不会初始配置Maven,可参照:https://www.bilibili.com/video/BV1Kr4y1T7zB?spm_id_from=333.1007.top_right_bar_window_history.content.click)5)在src/main/resources/java下创建包名com.yingzi.hdfs,创建HdfsClient类进行相关操作

1)准备好hadoop相关的资料包 2)配置环境变量

新建一个变量名为:HADOOP_HOME,值为所存放的地址

打开PATH,引入

4)在IDEA创建一个Maven工程HDFSClient(注:若不会初始配置Maven,可参照:https://www.bilibili.com/video/BV1Kr4y1T7zB?spm_id_from=333.1007.top_right_bar_window_history.content.click)

4.1配置pom.xml文件



    4.0.0

    org.example
    HDFSClient
    1.0-SNAPSHOT

    
        17
        17
    

    
        
            org.apache.hadoop
            hadoop-client
            3.1.3
        
        
            junit
            junit
            4.12
        
        
            org.slf4j
            slf4j-log4j12
            1.7.30
        
    



4.2在src/main/resources,新建一个“log4j.properties”文件,内容

log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
5)在src/main/resources/java下创建包名com.yingzi.hdfs,创建HdfsClient类进行相关操作
package com.yingzi.hdfs;



import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.junit.After;
import org.junit.Before;
import org.junit.Test;

import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
import java.util.Arrays;


public class HdfsClient {

    private FileSystem fs;

    @Before
    public void init() throws IOException, InterruptedException, URISyntaxException {
        //  连接的集群nn地址
        URI uri = new URI("hdfs://hadoop102:8020");

        //  创建一个配置文件
        Configuration configuration = new Configuration();

        configuration.set("dfs.replication", "2");

        //  用户
        String user = "yingzi";

        //  1.获取到客户端对象
        fs = FileSystem.get(uri, configuration, user);
    }

    @After
    public void close() throws IOException {
        //  3 关闭资源
        fs.close();

    }

    //  创建目录
    @Test
    public void testmkdir() throws URISyntaxException, IOException, InterruptedException {
        //  2.创建一个文件夹
        fs.mkdirs(new Path("/xiyou/huaguoshan1"));

    }

    //  上传

    
    @Test
    public void testPut() throws IOException {
        // 参数解读:参数一:删除原数据;参数二:是否允许覆盖;参数三:原数据路径;目的地路径
        fs.copyFromLocalFile(false, true, new Path("C:\Users\Admin\Desktop\sunwukong.txt"), new Path("/xiyou/huaguoshan"));
    }

    //  文件下载
    @Test
    public void testGet() throws IOException {
        // 参数解读:参数一:是否删除原数据;参数二:原数据路径HDFS;参数三:目标地址路径Win;参数四:
        fs.copyToLocalFile(false, new Path("/xiyou/huaguoshan"), new Path("C:\Users\Admin\Desktop"), true);
    }

    //  文件删除
    @Test
    public void testRm() throws IOException {

        //  参数解读:参数一:要删除的路径;参数二:是否递归删除;
        fs.delete(new Path("/xiyou/huaguoshan1"), false);

        //删除非空的目录
        fs.delete(new Path("/jinguo"), true);
    }

    //  文件的更名和移动
    @Test
    public void testMv() throws IOException {

        //参数解读:参数一:原文件路径;参数二:目标文件路径
//        fs.rename(new Path("/input/sunwukon.txt"),new Path("/input/ss.txt")); //对文件更名

//        fs.rename(new Path("/input/ss.txt"),new Path("/cls.txt"));

        //  目录的更名
        fs.rename(new Path("/input"), new Path("/output"));
    }

    // 获取文件详细信息
    @Test
    public void fileDetail() throws IOException {

        //获取所有文件信息
        RemoteIterator listFiles = fs.listFiles(new Path("/"), true);

        //遍历文件
        while (listFiles.hasNext()) {
            LocatedFileStatus fileStatus = listFiles.next();

            System.out.println("=========" + fileStatus.getPath() + "========");
            System.out.println(fileStatus.getPermission());
            System.out.println(fileStatus.getOwner());
            System.out.println(fileStatus.getGroup());
            System.out.println(fileStatus.getLen());
            System.out.println(fileStatus.getModificationTime());
            System.out.println(fileStatus.getReplication());
            System.out.println(fileStatus.getBlockSize());
            System.out.println(fileStatus.getPath().getName());

            //  获取块信息
            BlockLocation[] blockLocations = fileStatus.getBlockLocations();
            System.out.println(Arrays.toString(blockLocations));
        }

    }

    // 判断时文件夹还是文件
    @Test
    public void testFile() throws IOException {
        FileStatus[] listStatus = fs.listStatus(new Path("/"));

        for (FileStatus status : listStatus) {
            if (status.isFile()) {
                System.out.println("文件:" + status.getPath().getName());
            } else {
                System.out.println("目录:" + status.getPath().getName());
            }
        }
    }


}
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/704679.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号