您现在的位置: 主页 > 嵌入式操作系统 > Linux > Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)
本文所属标签:
为本文创立个标签吧:

Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)

来源:网络整理 网络用户发布,如有版权联系网管删除 2018-07-28 

一.概述

1.1 Hadoop1.0的单点问题

Hadoop中的NameNode好比是人的心脏,非常重要,绝对不可以停止工作。在hadoop1时代,只有一个NameNode。如果该NameNode数据丢失或者不能工作,那么整个集群就不能恢复了。这是hadoop1中的单点问题,也是hadoop1不可靠的表现。如下图所示,便是hadoop1.0的架构图;

1.2 hadoop2.0对hadoop1.0单点问题的解决

为了解决hadoop1中的单点问题,在hadoop2中新的NameNode不再是只有一个,可以有多个(目前只支持2个)。每一个都有相同的职能。一个是active状态的,一个是standby状态的。当集群运行时,只有active状态的NameNode是正常工作的,standby状态的NameNode是处于待命状态的,时刻同步active状态NameNode的数据。一旦active状态的NameNode不能工作,通过手工或者自动切换,standby状态的NameNode就可以转变为active状态的,就可以继续工作了。这就是高可靠。

1.3 使用JournalNode实现NameNode(Active和Standby)数据的共享

Hadoop2.0中,2个NameNode的数据其实是实时共享的。新HDFS采用了一种共享机制,Quorum Journal Node(JournalNode)集群或者Nnetwork File System(NFS)进行共享。NFS是操作系统层面的,JournalNode是hadoop层面的,我们这里使用JournalNode集群进行数据共享(这也是主流的做法)。如下图所示,便是JournalNode的架构图。

两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信。当active状态的NameNode的命名空间有任何修改时,会告知大部分的JournalNodes进程。standby状态的NameNode有能力读取JNs中的变更信息,并且一直监控edit log的变化,把变化应用于自己的命名空间。standby可以确保在集群出错时,命名空间状态已经完全同步了

1.4 NameNode之间的故障切换

对于HA集群而言,确保同一时刻只有一个NameNode处于active状态是至关重要的。否则,两个NameNode的数据状态就会产生分歧,可能丢失数据,或者产生错误的结果。为了保证这点,这就需要利用使用ZooKeeper了。首先HDFS集群中的两个NameNode都在ZooKeeper中注册,当active状态的NameNode出故障时,ZooKeeper能检测到这种情况,它就会自动把standby状态的NameNode切换为active状态。

下面关于Hadoop的文章您也可能喜欢,不妨看看:

Ubuntu14.04下Hadoop2.4.1单机/伪分布式安装配置教程 http://www.linuxidc.com/Linux/2015-02/113487.htm

Ubuntu 12.10 +Hadoop 1.2.1版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu上搭建Hadoop环境(单机模式+伪分布模式) http://www.linuxidc.com/Linux/2013-01/77681.htm

单机版搭建Hadoop环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

二.Hadoop(HA)集群的搭建

2.1 配置详细

主机名 IP NameNode DataNode Year Zookeeper JournalNode

2.2 安装jdk

(省略)安装jdk和配置环境变量

2.2 SSH免登录

2.4 Zookeeper集群搭建

(省略),参考,http://www.linuxidc.com/Linux/2016-03/128915.htm,这是我的solr集群部署,也是使用zookeeper进行管理,zookeeper这里步骤跟操作一模一样,最后我的zoo.cfg文件如下所示

[hadoop@Mast1 conf]$ cat zoo.cfg

# The number of milliseconds of each tick

tickTime=2000

# The number of ticks that the initial

# synchronization phase can take

initLimit=10

# The number of ticks that can pass between

# sending a request and getting an acknowledgement

syncLimit=5

# the directory where the snapshot is stored.

dataDir=/home/hadoop/zookeeper/data

dataLogDir=/home/hadoop/zookeeper/datalog

# the port at which the clients will connect

clientPort=2181

server.1=mast1:2888:3888

server.2=mast2:2888:3888

server.3=mast3:2888:3888

2.5配置Hadoop配置文件

先配置mast1这台机器,配置后了后,将配置环境,复制到mast2、mast3上面即可!

hadoop2.0的配置存放在~/etc/hadoop目录下面,

core.xml

fs.defaultFS

hdfs://ns

hadoop.tmp.dir

/home/hadoop/workspace/hdfs/temp

io.file.buffer.size

4096

ha.zookeeper.quorum

mast1:2181,mast2:2181,mast3:2181

hdfs-site.xml

dfs.nameservices

ns

dfs.ha.namenodes.ns

nn1,nn2

dfs.namenode.rpc-address.ns.nn1

mast1:9000

dfs.namenode.http-address.ns.nn1

mast1:50070

dfs.namenode.rpc-address.ns.nn2

mast2:9000

dfs.namenode.http-address.ns.nn2

mast2:50070

dfs.namenode.shared.edits.dir

qjournal://mast1:8485;mast2:8485;mast3:8485/ns

dfs.journalnode.edits.dir

/home/hadoop/workspace/journal

dfs.ha.automatic-failover.enabled

true

dfs.client.failover.proxy.provider.ns

org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider

dfs.ha.fencing.methods

sshfence

dfs.ha.fencing.ssh.private-key-files

/home/hadoop/.ssh/id_rsa

dfs.namenode.name.dir

file:///home/hadoop/workspace/hdfs/name

dfs.datanode.data.dir

file:///home/hadoop/workspace/hdfs/data

dfs.replication

2

dfs.webhdfs.enabled

true

mapred-site.xml

mapreduce.framework.name

yarn

yarn-site.xml

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.resourcemanager.hostname

mast3

slaves

[hadoop@Mast1 hadoop]$ cat slaves

mast1

mast2

mast3

修改JAVA_HOME

分别在文件hadoop-env.sh和yarn-env.sh中添加JAVA_HOME配置

#export JAVA_HOME=${JAVA_HOME} --原来

export JAVA_HOME=/usr/local/java/jdk1.7.0_67

虽然默认配置了${JAVA_HOME}的环境变量,但是hadoop启动时,会提示找不到,没有办法,指定绝对路径,这个是必须的。

配置hadoop的环境变量,参考我的配置

[hadoop@Mast1 hadoop]$ vim ~/.bash_profile

export HADOOP_HOME="/home/hadoop/hadoop-2.5.2"

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

将配置复制到mast2、mast3

scp -r ~/.bash_profile hadoop@mast2:/home/hadoop/

scp -r ~/.bash_profile hadoop@mast3:/home/hadoop/

scp -r $HADOOP_HOME/etc/hadoop hadoop@mast2:/home/hadoop/hadoop-2.5.2/etc/

scp -r $HADOOP_HOME/etc/hadoop hadoop@mast3:/home/hadoop/hadoop-2.5.2/etc/

至此Hadoop的配置完毕,接下来就是启动集群了



              查看评论 回复



嵌入式交流网主页 > 嵌入式操作系统 > Linux > Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)
 配置 状态 集群

"Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)"的相关文章

网站地图

围观()