日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【Spark篇】---Spark中Master-HA和historyServer的搭建和应用

發布時間:2025/3/20 编程问答 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【Spark篇】---Spark中Master-HA和historyServer的搭建和应用 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一、前述

?本節講述Spark Master的HA的搭建,為的是防止單點故障。

Spark-UI 的使用介紹,可以更好的監控Spark應用程序的執行。

二、具體細節

1、Master HA

??????? 1、Master的高可用原理

???????????? ?? Standalone集群只有一個Master,如果Master掛了就無法提交應用程序,需要給Master進行高可用配置,Master的高可用可以使用fileSystem(文件系統)和zookeeper(分布式協調服務)。

??????????????? fileSystem只有存儲功能,可以存儲Master的元數據信息,用fileSystem搭建的Master高可用,在Master失敗時,需要我們手動啟動另外的備用Master,這種方式不推薦使用。

??????????????? zookeeper有選舉和存儲功能,可以存儲Master的元素據信息,使用zookeeper搭建的Master高可用,當Master掛掉時,備用的Master會自動切換,推薦使用這種方式搭建Master的HA。

????? 2、Master高可用搭建

????????? 1)?Spark Master節點上配置主Master,配置spark-env.sh

?????????? 命令如下:-D指明配置

???????? ? export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=node02:2181,node03:2181,node04:2181 -Dspark.deploy.zookeeper.dir=/sparkmaster0821

??????????

?????? 2)?發送到其他worker節點上

?????????? scp spark-env.sh root@node03:`pwd`

?????? 3)?找一臺節點(非主Master節點)配置備用 Master,修改spark-env.sh配置節點上的MasterIP:

????????

??? 4) 啟動集群之前啟動zookeeper集群

??? 5) 在主節點上啟動spark Standalone集群:./start-all.sh ? 在從節點上(node02)啟動備用集群:在saprk的Sbin目錄下啟動備用節點./start-master.sh

??? 6)?打開主Master和備用Master WebUI頁面,觀察狀態。

主master :

?備用Master

?

切換過程中的Master的狀態:

?

注意:

  • 主備切換過程中不能提交Application。
  • 主備切換過程中不影響已經在集群中運行的Application。因為Spark是粗粒度資源調,二主要task運行時的通信是和Driver 與Driver無關。
  • 提交SparkPi程序應指定主備Master?

???????????? ./spark-submit?--master spark://node01:7077,node02:7077?--class org.apache.spark.examples.SparkPi?../lib/spark-examples-1.6.0-hadoop2.6.0.jar?10000

?

2、配置historyServer

?

???????? 1、臨時配置,對本次提交的應用程序起作用

????????? ./spark-shell --master spark://node1:7077

??????????? --name myapp1

?????????? --conf spark.eventLog.enabled=true

? ? ? ? ?? --conf spark.eventLog.dir=hdfs://node1:9000/spark/test

????? 停止程序,在Web UiCompleted Applications對應的ApplicationID中能查看history。

?

??? 2、spark-default.conf配置文件中配置HistoryServer,對所有提交的Application都起作用

????????? 在客戶端節點!!!,進入../spark-1.6.0/conf/?spark-defaults.conf最后加入:

???????? //開啟記錄事件日志的功能

?????? ? spark.eventLog.enabled ??????????true

??????? //設置事件日志存儲的目錄

???????? spark.eventLog.dir ???????????????????hdfs://node1:9000/spark/test

??????? //設置HistoryServer加載事件日志的位置

???????? spark.history.fs.logDirectory???hdfs://node1:9000/spark/test

???????? //日志優化選項,壓縮日志

???????? spark.eventLog.compress?????????true

?

3、啟動HistoryServer:./start-history-server.sh

????? 訪問HistoryServer:node4:18080,之后所有提交的應用程序運行狀況都會被記錄。

????? 4040 Driver-web-UI對應端口

????? 8081 Worker對應端口

轉載于:https://www.cnblogs.com/LHWorldBlog/p/8424882.html

總結

以上是生活随笔為你收集整理的【Spark篇】---Spark中Master-HA和historyServer的搭建和应用的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。