栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

Hadoop单机配置

Hadoop单机配置

hadoop单机配置记录

1、配置环境
    1)VMware虚拟机,centos7最小化安装

2、centos最小化安装默认不开启网络
    1)开启网络
    命令:vi /etc/sysconfig/network-scripts/ifcfg-ens33 #版本不同最后文件名略有不同
    修改最后一行onBOOT=yes
    2)重启网络服务
    命令:service network restart
    3)查看ip
    命令:ip add
    
3、开启ssh服务
    命令:sudo service sshd start
    
    1)注:如果没有ssh请安装
    yum list installed | grep openssh-server
    参考:https://www.cnblogs.com/kinwing/p/11134179.html
    
4、配置免密
    1)ssh-keygen -t dsa -P ''
    2)cat ./.ssh/id_dsa.pub >> ./.ssh/authorized_keys

4、关闭防火墙
    1)查看防火墙状态:systemctl status firewalld.service
    2)关闭防火墙:systemctl stop firewalld.service
    3)设置开机不启动:systemctl disable firewalld.service

5、安装JDK配置环境变量
    1)解压java包 tar -zxvf ./OpenJDK11U-jdk_x64_linux_openj9_linuxXL_11.0.10_9_openj9-0.24.0.tar.gz
    2)vi /etc/profile
    3)JAVA_HOME  JRE_HOME  CLASSPATH  PATH 的配置
        export JAVA_HOME=/usr/jdk-11.0.10+9
        export JRE_HOME=/usr/jdk-11.0.10+9
        export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
        export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
    4)编辑完之后,执行命令  source /etc/profile    使配置生效
    5)输入命令:java -version    查看刚刚的JDK配置是否生效

5、安装配置hadoop文件
    1)解压hadoop包:tar -zxvf ./hadoop-3.2.2.tar.gz
    2)添加环境变量:
        export HADOOP_HOME=/usr//usr/hadoop-3.2.2
        export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
        export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
        export PATH=$PATH:$HADOOP_HOME/bin
    3)在root下创建文件夹,(测试环境用的root用户,偷懒了)
        mkdir  /root/hadoop  
        mkdir  /root/hadoop/tmp  
        mkdir  /root/hadoop/var  
        mkdir  /root/hadoop/dfs  
        mkdir  /root/hadoop/dfs/name  
        mkdir  /root/hadoop/dfs/data
    4)修改 core-site.xml
        
            hadoop.tmp.dir
            /root/hadoop/tmp
            Abase for other temporary directories.
        

            
            fs.default.name
            hdfs://localhost:9000
        

    5)修改 hadoop-env.sh
        执行命令  vi hadoop-env.sh,将${JAVA_HOME} 修改为自己的JDK路径
        export JAVA_HOME=/usr/jdk-11.0.10+9
    6)修改 hdfs-site.xml
        
            dfs.name.dir
            /root/hadoop/dfs/name
            Path on the local filesystem where theNameNode stores the namespace and transactions logs persistently.
        

        
            dfs.data.dir
            /root/hadoop/dfs/data
            Comma separated list of paths on the localfilesystem of a DataNode where it should store its blocks.
        

        
            dfs.replication
            1
        

        
            dfs.permissions
            false
            need not permissions
        

    7)修改 mapred-site.xml
        
            mapred.job.tracker
            localhaost:9001
        

        
            mapred.local.dir
            /root/hadoop/var
        

        
            mapreduce.framework.name
            yarn
        

    8)到此处Hadoop的单机模式配置就完成了
    
6、启动验证服务
    1)执行命令  ./bin/hadoop namenode -format ,初始化hadoop
    2)修改 ./sbin/start-dfs.sh
        在前面添加如下代码
        HDFS_DATANODE_USER=root
        HADOOP_SECURE_DN_USER=hdfs
        HDFS_NAMENODE_USER=root
        HDFS_SECONDARYNAMENODE_USER=root
    3)修改 ./sbin/start-yarn.sh
        在前面添加如下代码
        YARN_RESOURCEMANAGER_USER=root
        HADOOP_SECURE_DN_USER=yarn
        YARN_NODEMANAGER_USER=root
        
    4)启动服务
        ./sbin/start-all
        
    5)执行命令jps查看目前启动的进程
    6)网页验证服务是否清单
        http://localhost:8088/cluster
        http://localhost:9870/

****************************完****************************

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/761912.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号