栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

hadoop集群搭建

hadoop集群搭建

hadoop 1环境准备:
  • 服务器:10.202.80.109(Master+slave)
  • 服务器:10.202.80.110(Master+slave)
  • 服务器:10.202.80.196(Master+slave)

修改hostname:

vi /etc/hostname

分别修改为

  1. node1
  2. node2
  3. node3
vi /etc/hosts

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-g6VK9tc9-1639724576804)(C:UsersZYZAppDataRoamingTyporatypora-user-imagesimage-20211210101057924.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qL8XRXPm-1639724576814)(C:UsersZYZAppDataRoamingTyporatypora-user-imagesimage-20211210101128517.png)]

2 安装hadoop 2.1 免密登录
ssh-keygen -t rsa #一路回车
cd ~/.ssh/
cat id_rsa.pub >> ./authorized_keys
chmod 600 ./authorized_keys

把三台服务器生成的id_rsa.pub的内容复制到一个文件里取名为 authorized_keys

把authorized_keys分别复制到三台服务的 /root/.ssh/ 目录下。

ssh命令测试连接,此时已不需要密码便可连接

scp authorized_keys root@10.202.80.110:~/.ssh/
2.2 安装
  • 下载解压

    http://archive.apache.org/dist/hadoop/common/hadoop-3.1.3/

    tar -zvxf hadoop-3.1.3.tar.gz
    mv hadoop-3.1.3 hadoop
    
  • 配置环境变量:

    export HADOOP_HOME=/usr/local/software/hadoop
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    #export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    
    

    source /etc/profile

  • 创建文件夹:cd hadoop

    mkdir hdfs
    cd hdfs/
    mkdir name
    mkdir data
    mkdir temp
    

    chmod 777 hdfs

  • 修改配置文件

    vi hadoop-env.sh 
    
    
    # The java implementation to use. By default, this environment
    # variable is REQUIRED on ALL platforms except OS X!
     
    export JAVA_HOME=/usr/local/software/jdk
    
    vi yarn-env.sh
    vi mapred-env.sh
    JAVA_HOME=/usr/local/software/jdk
    

    如果是3.1.X的版本,里面的则是workers 也是只能放从节点的ip

    vi slaves
    
2.3 修改配置文件
  • 修改core-site.xml

    
    	hadoop.tmp.dir
       /usr/local/software/hadoop/hdfs/temp
       A base for other temporary directories.
     
    
     
      io.file.buffer.size
       131072
     
    
     
       fs.defaultFS
       hdfs://10.202.80.109:9000
     
    
    

指明集群中谁充当主节点,端口一般默认9000

  • 配置hdfs-site.xml

    
     dfs.replication
       1
     
    
     
       dfs.namenode.name.dir
       file:/usr/local/software/hadoop/hdfs/name
       true
    
    
     
       dfs.datanode.data.dir
       file:/usr/local/software/hadoop/hdfs/data
       true
     
    
    
     
       dfs.webhdfs.enabled
       true
     
    
     
       dfs.permissions
       false
     
    
    
  • 修改mapred-site.xml.template文件 并重命名为mapred-site.xml

    
       mapreduce.framework.name
       yarn
        true
     
    
  • 配置yarn-site.xml

    
        yarn.resourcemanager.hostname
        10.202.80.109
    
    
      
        To enable RM web ui2 application.
        yarn.webapp.ui2.enable
        true
      
    
     
        yarn.nodemanager.aux-services
        mapreduce_shuffle
     
    
     
      yarn.nodemanager.auxservices.mapreduce.shuffle.class
         org.apache.hadoop.mapred.ShuffleHandler
     
    

同步Hadoop文件到各主机服务器上:

scp -r hadoop root@10.202.80.110:/usr/local/software/
2.4 启动并查看
  • 启动

  • /bin/hdfs namenode -format 格式化hdfs
    
    cd /usr/local/software/hadoop/sbin/
    ./start-dfs.sh #启动hdfs
    ./start-yarn.sh #启动yarn
    
    #或者
    ./start-all.sh #全部启动
    

    10.202.80.109:9870

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wxAUd32a-1639724576814)(C:UsersZYZAppDataRoamingTyporatypora-user-imagesimage-20211209160011523.png)]

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CdSihHQT-1639724576815)(C:UsersZYZAppDataRoamingTyporatypora-user-imagesimage-20211209160141570.png)]

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-0F2X58Cf-1639724576816)(C:UsersZYZAppDataRoamingTyporatypora-user-imagesimage-20211209135050595.png)]

注意2.7.的版本默认端口号为:50070

2.5创建目录
  • 测试:

    cd /usr/local/software/hadoop
    mkdir test
    vi test/demo.txt
    
    hello word
    
    #上传文件
    hadoop fs -mkdir /test
    hadoop fs -put test/demo.txt /test
    
  • 查看:

遇到的问题 1.
  • 描述:

    启动报ERROR;

  • 解决方法:

在里面修改四个文件

对于start-dfs.sh和stop-dfs.sh文件,添加下列参数:

#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

对于start-yarn.sh和stop-yarn.sh文件,添加下列参数:

#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

重新开始start…就可以了。
————————————————
版权声明:本文为CSDN博主「hongxiao2016」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/hongxiao2016/article/details/88903289/

2.

描述:集群成功启动 但是web访问时发现livenode为0,重新配置后发现只有一个datanode:

解决方法:

访问从节点的9864端口,发现都可以出页面,而从节点的服务器也都是起了的,所以我认为应该是显示问题;

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/671300.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号