栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

hadoop分布式文件系统(伪分布式hadoop安装)

hadoop分布式文件系统(伪分布式hadoop安装)

hadoop伪分布式环境搭建
角色服务器node01
namenode
secondarynamenode
datanode
一、环境准备

    下载jdk安装包

    下载hadoop安装包,下载地址

    ssh免密登录配置

    # 生成.ssh目录
    ssh localhost
    cd .ssh
    ssh-keygen -t dsa -P '' -f id_dsa
    cat id_dsa.pub >> authorized_keys
    chmod 600 authorized_keys
    #如果想让node01免密登录node02,则在node01执行
    scp id_dsa.pub node02:`pwd`/node01.pub
    #然后登录node02,在.ssh目录下执行
    cat node01.pub >> authorized_keys
    chmod 600 authorized_keys
    
二、配置文件修改

    jdk安装完要修改环境变量,并重新加载

    vim /etc/profile
    
    export JAVA_HOME=/usr/local/java
    export PATH=$PATH:$JAVA_HOME/bin
    
    source /etc/profile
    

    安装hadoop,配置hadoop的环境变量

    tar xf hadoop-2.6.5.tar.gz
    mv hadoop-2.6.5 /opt/bigdata
    vim /etc/profile
    
    export HADOOP_HOME=/opt/bigdata/hadoop-2.6.5
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    
    source /etc/profile
    cd $HADOOP_HOME/etc/hadoop
    

    修改hadoop-env.sh中java的环境变量

    export JAVA_HOME=/usr/local/java
    

    修改core-site.xml和hdfs-site.xml,内容参见此链接

    在core-site.xml中增加如下配置:

    
        
            fs.defaultFS
            hdfs://node01:9000
        
    
    

    在hdfs-site.xml中增加如下配置:

    
        
            dfs.replication
            1
        
        
        
            dfs.namenode.name.dir
            /var/bigdata/hadoop/local/dfs/name
        
    	
        
            dfs.datanode.data.dir
            /var/bigdata/hadoop/local/dfs/data
        
        
        
            dfs.namenode.secondary.http-address
            node01:50090
        
        
        
            dfs.namenode.checkpoint.dir
            /var/bigdata/hadoop/local/dfs/secondary
        
    
    
三、启动

配置过hadoop的环境变量后,可以在任意目录直接使用hadoop的命令

    格式化hdfs,正常来说安装完毕后只需要执行一次该命令,执行时会删掉所有数据

    hdfs namenode -format
    

    启动hdfs

    start-dfs.sh
    stop-dfs.sh
    
四、验证

启动后,可以打开浏览器输入地址(本地需要修改hosts文件):

    namenode地址:http://node01:50070/

    secondaryNamenode地址:http://node01:50090/

    可以在hdfs创建目录并上传文件

    hdfs dfs -mkdir -p /user/hadoop
    hdfs dfs -put /opt/soft/hadoop-2.6.5.tar.gz /user/hadoop
    

    在http://node01:50070/中,Utilities -> Browse the file system中查看上传的文件

    文件在上传过程中会展示成 文件名.CPOYING,上传成功后才显示为正常的文件名

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/771476.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号