侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

Hadoop分布式集群的搭建的方法步骤

技术  /  管理员 发布于 7年前   142

1 安装说明

1.1 用到的软件

软件 版本 下载地址
linux Ubuntu Server 18.04.2 LTS https://ubuntu.com/download/server
hadoop hadoop-2.7.1 http://archive.apache.org/dist/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz
java jdk-8u211-linux-x64 https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

1.2 节点安排

名称 ip hostname
主节点 192.168.233.200 Master
子节点1 192.168.233.201 Slave01
子节点2 192.168.233.202 Slave02

2 创建hadoop用户

所有的节点均创建一个名为hadoop的用户,并添加管理员权限。

注意:这里这是单纯为了方便管理,创建的用户名,也可以使用其他用户名,或者使用系统之前的用户,主要有管理员权限即可

$ sudo useradd -m hadoop -s /bin/bash #创建用户$ sudo passwd hadoop #修改密码$ sudo adduser hadoop sudo #添加管理员权限

3 配置网络环境

3.1 修改主机名

修改 /etc/hostname文件,每个节点都要修改。

  • 主节点修改为:Master
  • 从节点分别修改为:Slave01,Slave02,...

注意:如果是ubuntu18.04桌面版直接修改/etc/hostname文件即可,ubuntu18.04服务器版还需要修改/etc/cloud/cloud.cfg文件,修改如下:

# This will cause the set+update hostname module to not operate (if true)preserve_hostname: true #这里是将false改成true

3.2 添加IP与主机名的映射关系

在/etc/hosts文件里添加如下内容(每个节点都要修改,根据实际情况修改ip)

192.168.233.200 Master192.168.233.201 Slave01192.168.233.202 Slave02

检查各个节点是否能相互ping通。

3.3 设置SSH无密码登录节点

让Master能够通过SSH无密码登录各个Slave节点

如果修改过主机名,需要重新生成的新的公钥。

在Master上执行如下命令:

$ cd ~/.ssh       # 如果没有该目录,先执行一次ssh localhost$ rm ./id_rsa*      # 删除之前生成的公匙(如果已经存在)$ ssh-keygen -t rsa    # 执行该命令后,遇到提示信息,一直按回车就可以$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

接着将Master中的id_rsa.pub文件复制到各个Slave节点中

$ scp ~/.ssh/id_rsa.pub hadoop@Slave01:/home/hadoop/$ scp ~/.ssh/id_rsa.pub hadoop@Slave02:/home/hadoop/

在各个Slave节点中执行如下命令:

$ mkdir ~/.ssh    # 如果不存在该文件夹需先创建$ cat ~/id_rsa.pub >> ~/.ssh/authorized_keys$ rm ~/id_rsa.pub  # 用完以后就可以删掉

在Master中验证是否可以无密码登录,各个Slave节点。

如:

$ ssh Slave01 #如果成功登录,则配置完成$ ssh Slave02 #如果成功登录,则配置完成

4 安装java环境

每个节点都要安装,步骤相同

为了方便操作每个节点,默认在/usr/local/下新建一个名为bigdata的文件夹,存放所有的大数据相关的软件。

$ sudo mkdir /usr/local/bigdata$ sudo chown -R hadoop:hadoop /usr/local/bigdata/

4.1 解压

$ sudo mkdir /usr/local/bigdata/java$ sudo tar -zxvf jdk-8u211-linux-x64.tar.gz -C /usr/local/bigdata/java/

4.2 添加环境变量

在~/.bashrc文件中添加如下内容,并执行$ source ~/.bashrc命令使其生效

#javaexport JAVA_HOME=/usr/local/bigdata/java/jdk1.8.0_211export JRE_HOME=$JAVA_HOME/jreexport CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/libexport PATH=${JAVA_HOME}/bin:$PATH

5 解压hadoop

下载hadoop-2.7.1.tar.gz文件,并解压到/usr/local/bigdata/文件夹下

$ sudo tar -zxvf hadoop-2.7.1.tar.gz -C /usr/local/bigdata

6 修改hadoop配置文件

需要修改6个文件,文件位于/usr/local/bigdata/hadoop-2.7.1/etc/hadoop/下

6.1 slave 文件

将文件中原来的 localhost 删除,添加内容:

Slave01Slave02

6.2 core-site.xml 文件

内容修改为:

<configuration>    <!-- 指定HADOOP所使用的文件系统schema(URI)-->    <property>        <name>fs.defaultFS</name>        <value>hdfs://Master:9000</value>    </property>     <!-- 指定hadoop运行时产生文件的存储目录 -->    <property>        <name>hadoop.tmp.dir</name>        <value>file:/usr/local/bigdata/hadoop-2.7.1/tmp</value>        <description>Abase for other temporary directories.</description>    </property></configuration>

6.3 hdfs-site.xml文件

Hadoop的分布式文件系统HDFS一般采用冗余存储,一份文件通常保存3份副本,所以dfs.replication的值还是设置为3。
具体内容如下:

<configuration>    <property>        <!-- 指定SecondaryNamenode所在地址 -->        <name>dfs.namenode.secondary.http-address</name>        <value>Master:50090</value>    </property>    <property>        <name>dfs.replication</name>        <value>3</value>    </property>    <property>        <name>dfs.namenode.name.dir</name>        <value>file:/usr/local/bigdata/hadoop-2.7.1/tmp/dfs/name</value>    </property>    <property>        <name>dfs.datanode.data.dir</name>        <value>file:/usr/local/bigdata/hadoop-2.7.1/tmp/dfs/data</value>    </property></configuration>

6.4 mapred-site.xml 文件

修改内容如下:

<configuration>    <property>        <name>mapreduce.framework.name</name>        <value>yarn</value>    </property>    <property>        <name>mapreduce.jobhistory.address</name>        <value>Master:10020</value>    </property>    <property>        <name>mapreduce.jobhistory.webapp.address</name>        <value>Master:19888</value>    </property></configuration>

6.5 yarn-site.xml文件

内容如下:

<configuration>    <property>        <name>yarn.resourcemanager.hostname</name>        <value>Master</value>    </property>    <property>        <name>yarn.nodemanager.aux-services</name>        <value>mapreduce_shuffle</value>    </property></configuration>

6.6 hadoop-env.sh 文件

修改如下内容:

export JAVA_HOME=/usr/local/bigdata/java/jdk1.8.0_211# 可以不用export HADOOP_HOME=/usr/local/hadoop-2.7.1

7 设置hadoop环境变量

每个节点都要设置

在~/.bashrc文件中添加如下内容,并$ source ~/.bashrc使其生效

export PATH=$PATH:/usr/local/bigdata/hadoop-2.7.1/bin:/usr/local/bigdata/hadoop-2.7.1/sbin

8 slave节点配置

slave节点只需将master节点上/usr/local/下的bigdata文件夹和~/.bashrc文件,放到slave节点即可

注意切换到对应机器执行$ source ~/.bashrc使环境变量生效。

后续的软件均可使用此方式配置。

在master节点:

$ sudo rm -r /usr/local/bigdata/hadoop-2.7.1/tmp   # 删除 Hadoop 临时文件,如果之前有启动过$ sudo rm -r /usr/local/bigdata/hadoop-2.7.1/logs/*  # 删除日志文件,如果之前有启动过$ tar -zcvf ~/bigdata.tar.gz /usr/local/bigdata/ # 先压缩再复制$ scp ~/bigdata.tar.gz Slave01:/home/hadoop$ scp ~/bigdata.tar.gz Slave02:/home/hadoop$ scp ~/bashrc Slave01:/home/hadoop$ scp ~/bashrc Slave02:/home/hadoop

在各个slave节点上

$ sudo mkdir /usr/local/bigdata$ sudo chown -R hadoop:hadoop /usr/local/bigdata$ tar -zxvf ~/bigdata.tar.gz -C /usr/local/bigdata$ sudo source ~/.bashrc

9 启动Hadoop集群

在Master上执行

首次运行需要,执行

$ hdfs namenode -format

格式化名称节点,然后就可以启动hadoop了。

启动hadoop:

$ start-dfs.sh$ start-yarn.sh$ mr-jobhistory-daemon.sh start historyserver

使用jps查看启动的各个节点,缺少任何进程,都表示出错。

$ jps3585 JobHistoryServer2938 NameNode3148 SecondaryNameNode3308 ResourceManager3629 Jps

浏览器查看:http://192.168.233.200:50070/

查看相关信息:$ hdfs dfsadmin -report

关闭hadoop:

$ stop-yarn.sh$ stop-dfs.sh$ mr-jobhistory-daemon.sh stop historyserver

如果有问题,重复如下命令:

$ stop-dfs.sh  # 关闭$ rm -r /usr/local/bigdata/hadoop-2.7.1/tmp   # 删除 tmp 文件,注意这会删除 HDFS中原有的所有数据$ hdfs namenode -format  # 重新格式化名称节点$ start-dfs.sh # 重启

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。


  • 上一条:
    2019最新系统学习路线零基础如何转行大数据
    下一条:
    分享4个最受欢迎的大数据可视化工具
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 2024.07.09日OpenAI将终止对中国等国家和地区API服务(0个评论)
    • 2024/6/9最新免费公益节点SSR/V2ray/Shadowrocket/Clash节点分享|科学上网|免费梯子(0个评论)
    • 国外服务器实现api.openai.com反代nginx配置(0个评论)
    • 2024/4/28最新免费公益节点SSR/V2ray/Shadowrocket/Clash节点分享|科学上网|免费梯子(0个评论)
    • 近期文章
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 欧盟关于强迫劳动的规定的官方举报渠道及官方举报网站(0个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf文件功能(0个评论)
    • Laravel从Accel获得5700万美元A轮融资(0个评论)
    • 在go + gin中gorm实现指定搜索/区间搜索分页列表功能接口实例(0个评论)
    • 在go语言中实现IP/CIDR的ip和netmask互转及IP段形式互转及ip是否存在IP/CIDR(0个评论)
    • PHP 8.4 Alpha 1现已发布!(0个评论)
    • Laravel 11.15版本发布 - Eloquent Builder中添加的泛型(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2017-07
    • 2017-08
    • 2017-09
    • 2018-01
    • 2018-07
    • 2018-08
    • 2018-09
    • 2018-12
    • 2019-01
    • 2019-02
    • 2019-03
    • 2019-04
    • 2019-05
    • 2019-06
    • 2019-07
    • 2019-08
    • 2019-09
    • 2019-10
    • 2019-11
    • 2019-12
    • 2020-01
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2020-07
    • 2020-08
    • 2020-09
    • 2020-10
    • 2020-11
    • 2021-04
    • 2021-05
    • 2021-06
    • 2021-07
    • 2021-08
    • 2021-09
    • 2021-10
    • 2021-12
    • 2022-01
    • 2022-02
    • 2022-03
    • 2022-04
    • 2022-05
    • 2022-06
    • 2022-07
    • 2022-08
    • 2022-09
    • 2022-10
    • 2022-11
    • 2022-12
    • 2023-01
    • 2023-02
    • 2023-03
    • 2023-04
    • 2023-05
    • 2023-06
    • 2023-07
    • 2023-08
    • 2023-09
    • 2023-10
    • 2023-12
    • 2024-02
    • 2024-04
    • 2024-05
    • 2024-06
    • 2025-02
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客