栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

记一次公司搭建hadoop集群

记一次公司搭建hadoop集群

hadoop集群搭建的准备工作

设置静态IP

# 检查网卡配置
vim /etc/sysconfig/network-scripts/ifcfg-ens33
# 将网卡启动方式设置为none或者static
# 如果是dhcp 则每次重启都会重新分配IP
BOOTPROTO=none
# 修改之后需要重启网络
systemctl restart network 

修改主机名

# 查看当前主机名
hostname
# 修改主机名
hostnamectl set-hostname 主机名

关闭防火墙

# 关闭防火墙
systemctl stop firewalld
# 禁用防火墙的开机启动
systemctl disable firewalld
# 查看防火墙服务状态
systemctl status firewalld

安装JDK

    上传安装包到Linux服务器解压安装包
# tar命令用来解压tar类型的存档文件
# z 进行gzip格式文件的压缩或解压
# x 解开压缩包
# v 显示解压或压缩细节
# f 将文件解压到当前目录
tar zxvf jdkxxxx.tar.gz
# 使用mv将文件夹修改为更简短的名称
# 软件名称-软件版本
    配置环境变量
# 可以在三个文件中配置环境变量
# 系统环境变量  /etc/profile
# 当前用户的环境变量  ~/.bashrc  ~/.bash_profile 

将服务器克隆为3台,并分别设置静态IP,分别设置主机名

192.168.30.71
192.168.30.72
192.168.30.73

设置ip和主机名映射

# Linux中使用/etc/hosts文件记录IP和主机名的映射
# 配置映射是为了将来访问其他机器时不需要记忆ip地址
# 配置映射 可以在所有的软件配置文件中使用主机名代替IP,将来IP改动时,只需要改动hosts文件,不需要改动软件配置文件
vim /etc/hosts
192.168.30.71  bd0701
192.168.30.72  bd0702
192.168.30.73  bd0703 

设置SSH免密登录

# 分布式程序中 集群之间需要进行大量的数据传输和通信,需要使用SSH协议进行远程连接,如果每次都需要验证密码,效率极差
# 可以通过配置免密登录 实现集群内部通畅的通信
# 1.移除之前的残留文件
rm -rf ~/.ssh
# 2.创建密钥文件
ssh-keygen -t rsa
# 3.分发密钥
ssh- -id bd0701
yes
密码
ssh- -id bd0702
yes
密码
ssh- -id bd0703
yes
密码 
三、安装完全分布HDFS服务

关于版本:

几乎所有的大数据组件,版本都有三组数字组成 x.y.zx : 大版本,通常x不同的版本之间,API有差异,不互相兼容y : 中版本,通常x相同y不同的版本之间,api相互兼容,会有少量的优化和重构z : 小版本,通常x,y相同,z不同的版本之间,功能和性能完全一样,修复了一些紧急的漏洞,不要使用小版本为0的版本 2.7.x是目前企业中使用的相对稳定版本,应用最广泛,与Spark兼容性优良2.6.x 和3.0.x也是企业中常见版本

    上传解压安装包
# 由于Hadoop的安装和使用是在Linux服务器上,所以可以直接删除所有的*.cmd的windows命令
bin # Hadoop集群的操作命令
etc # Hdoop的配置文件
include # 
lib  #    ->  需要依赖的c语言库
libexec # /
LICENSE.txt# 
NOTICE.txt # -> 声明和说明文档
README.txt # /
sbin  # 集群启动关闭之类的管理命令
share # Hadoop运行需要依赖的jar文件 
    修改配置文件

    hadoop-env.sh

# 设置JavaHome
export JAVA_HOME=/opt/jdk1.8 

core-site.xml


  

    hadoop.tmp.dir
    /opt/hadoop-2.7.7/data
  
  

    fs.defaultFS
    hdfs://bd0701:8020
  
 

hdfs-site.xml


  
 
     dfs.namenode.secondary.http-address
     bd0703:50090
  
 

salves
设置启动DataNode服务的节点

bd0701
bd0702
bd0703 
    分发安装包
# r 递归发送文件夹
# q 静默发送 不显示细节
scp -rq 本地文件夹  目标主机:目标路径
scp -rq /opt/hadoop-2.7.7  bd0702:/opt 
    配置环境变量
echo 'export HADOOP_HOME=/opt/hadoop-2.7.7' >> /etc/profile
echo 'export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH' >> /etc/profile
source /etc/profile 
    对Namenode进行格式化
hdfs namenode -format 
    启动集群尝试操作
start-dfs.sh 
[root@bd0701 ~]# jps
24952 DataNode
24827 NameNode
[root@bd0702 ~]# jps
5124 DataNode
[root@bd0703 ~]# jps
20851 DataNode
20924 SecondaryNameNode 

访问NameNode的webUIhadoop01:50070

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/758259.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号