栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 系统运维 > 运维 > Linux

2021-10-23

Linux 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

2021-10-23

hadoop伪分布式安装教程: 在安装hadoop之前我们需要做一些准备工作:
  1. 准备好一台linux的的虚拟机(本人使用的是centos 8)
  2. 准备好一些安装资源包:
    jdk:国内镜像源下载
    hadoop:国内镜像源下载
    XshellH和Xftp:官网下载
  3. jdk和hadoop的部署
  • 因为hadoop是Java编写的,因此子啊部署hadoop时,一定要把JDK配置好
  • hadoop共有3种模式:完全分布式(集群分布模式)、伪分布式模式、本地运行模式。
  • 本文部署的是伪分布模式,完全分布式比较复杂,后期可能会作出一个此类的教程
  1. SSH免密登录
  2. 启动hadoop
  3. 关闭hadoop

1.虚拟机的安装相信大家已经安装成功了,但是我们一定要注意自己的网络一定要可以和外界相通,通过ping www.baidu.com可以查看自己的网络是否畅通 ,在这里笔者不进行详细的描述,此台Linux的hostname为hadoop200且IP地址为192.168.56.200。
2.下载对应的资源包,本人采用的是jdk为1.8版本,hadoop为3.1.3版本,可以到对应的链接进行下载。
3.我们打开linux,使用Xshell进行远程连接,在/opt目录中创建两个文件夹:software和module(在这里我们使用root用户),在对应的位置输入IP地址进行远程连接。

cd /opt/
mkdir software
mkdir module

接着我们使用Xftp传输jdk和hadoop,上传到linux/opt/software中

然后我们开始解压jdk和hadoop,目标位置为/opt/module

 # 解压jdk 
 tar -zxvf /opt/software/jdk-8u212-linux-x64.tar.gz -C /opt/module/
 
 # 解压hadoop
 tar -zxvf /opt/software/hadoop-3.1.3.tar.gz -C /opt/module/

接下来配置jdk和hadoop的环境变量

vim /etc/profile.d/my_env.sh
加入以下变量:

#JAVA_HOME
  
export JAVA_HOME=/opt/module/jdk-8u212 # 此变量为你解压jdk的目录
export PATH=$PATH:$JAVA_HOME/bin


#HADOOP_HOME

export HADOOP_HOME=/opt/module/hadoop-3.1.3 # 此变量为你解压hadoop目录 
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

下一步 `source /etc/profile
在命令行输入java和hadoop,查看是否成功配置环境变量。

在hadoop的官方文档中我们需要配置2个XML文件:

  • etc/hadoop/core-site.xml(注意是hadoop目录下的etc!)
  • /etc/hadoop/hdfs-site.xml(同上)

将下列配置复制到你的XML文档中

  • core-site.xml

  
     hadoop.tmp.dir 
     
     file:/opt/module/hadoop-3.1.3/hadoop/tmp
     Abase for other temporary directories。
   
   
       fs.defaultFS
       
       hdfs://hadoop200:9000
   



  • hdfs-site.xml


 
    dfs.replication
    1 
 
 
 
    dfs.namenode.name.dir
   file:/opt/module/hadoop3.1.3/tmp/dfs/name
 
 
 
    dfs.datanode.data.dir
    file:/opt/module/hadoop-3.1.3/tmp/dfs/data
 


基本配置已经完成,在启动hadoop中的hdfs时需要格式化namenode

hdfs namenode -format
# 出现successful 即可

然后进入hadoop的/sbin目录使用start-dfs.sh和stop-dfs.sh进行启动和关闭
···

在启动hdfs时需要配置一下SSH免密登录
cd /
ssh-keygen -t rsa # 然后3次回车


然后进入到.ssh目录中,将公钥文件 id_rsa.pub 中的文件内容复制到想同文件下的 authorized_keys 文件中

cat id_rsa.pub >> authorized_keys

完成SSH免密配置之后,我们可以启动hdfs,通过jps查看hdfs的进程

可能出现的问题
  1. 问题一:

大家在使用其他用户的时候可能会出现权限的问题,我们通过root权限赋予其权限

chmod 777 -R /opt/module/

2.问题二:

在使用root的权限开启时可能会出现一下错误:

WARNING: HADOOP_SECURE_DN_USER has been replaced by HDFS_DATANODE_SECURE_USER. Using value of HADOOP_SECURE_DN_USER.

我们只需要更新2个配置文件start-dfs.sh、stop-dfs.sh即可:
在shell脚本中加入一下内容:

HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

本人才疏学浅,初识大数据,用心整理的文章(本人的处女作),希望可以帮助一些迷茫的同学,当然本文可能会出现错误,希望大家随时指正,谢谢大家!

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/343794.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号