hadoop,spark,kafka交流群:459898801

1,ssh无密钥登录

1,生产一对公钥和密钥

$ ssh-keygen -t rsa

2,拷贝公钥到各个机器上

$ ssh-copy-id hadoop.learn.com

3,ssh连接

$ ssh spark.learn.com
$ ssh hadoop.learn.com
$ ssh tachyon.learn.com

2,配置zookeeper

1,在spark-env.sh中添加如下配置

export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER "  
export SPARK_DAEMON_JAVA_OPTS="${SPARK_DAEMON_JAVA_OPTS} -Dspark.deploy.zookeeper.url=spark.learn.com:2181,hadoop.learn.com:2181,tachyon.learn.com:2181"  

2,各个参数的意义

参数默认值含义
spark.deploy.recoveryModeNONE恢复模式(Master重新启动的模式),有三种:1, ZooKeeper, 2, FileSystem, 3 NONE
spark.deploy.zookeeper.urlZooKeeper的Server地址
spark.deploy.zookeeper.dir/sparkZooKeeper 保存集群元数据信息的文件目录,包括Worker,Driver和Application。

Master可以在任何时候添加或移除。如果发生故障切换,新的Master将联系所有以前注册的Application和Worker告知Master的改变。
注意:不能将Master定义在conf/spark-env.sh里了,而是直接在Application中定义。涉及的参数是 export SPARK_MASTER_IP,这项不配置或者为空。否则,无法启动多个master。

1,启动spark的HA

1.zookeeper集群已经启动。

bin/zkServer.sh start
bin/zkServer.sh status

2.关闭集群后,重新启动spark集群:

sbin/stop-all.sh 
sbin/start-all.sh 

3.在另一个节点上,启动新的master:

sbin/start-master.sh 

4.运行applition

MASTER=spark://spark.learn.com:7077,tachyon.learn.com:7077 bin/spark-shell

启动成功一.png-61.6kB
启动成功二.png-66.6kB
webapp2.png-62.7kB
webapp3.png-86.1kB

5,kill 掉一个master

kill -9 masterID

changeMaster.png-87.5kB
kill后webapp.png-91.6kB
重启后.png-61.3kB

Logo

Kafka开源项目指南提供详尽教程,助开发者掌握其架构、配置和使用,实现高效数据流管理和实时处理。它高性能、可扩展,适合日志收集和实时数据处理,通过持久化保障数据安全,是企业大数据生态系统的核心。

更多推荐