日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Spark分布式集群的搭建和运行

發布時間:2023/12/19 编程问答 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Spark分布式集群的搭建和运行 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

集群共三臺CentOS虛擬機,一個Matser,主機名為master;三個Worker,主機名分別為master、slave03、slave04。前提是Hadoop和Zookeeper已經安裝并且開始運行。

1.?在master上下載Scala-2.11.0.tgz,復制到/opt/下面,解壓,在/etc/profile加上語句:

export SCALA_HOME=/opt/scala-2.11.0 export PATH=$PATH:$SCALA_HOME/bin

然后運行命令:

source /etc/profile

在slave03、slave04上也執行相同的操作。

2. 在master上下載spark-2.1.0-bin-hadoop2.6,復制到/opt/下面。解壓,在/etc/profile加上語句:

export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.6 export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

然后運行命令:

source /etc/profile

3. 編輯${SPARK_HOME}/conf/spark-env.sh文件,增加下面的語句:

# JAVA_HOME export JAVA_HOME=/opt/jdk1.8.0_121 # SCALA_HOME export SCALA_HOME=/opt/scala-2.11.0 # SPARK_HOME export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.6 # Master主機名 export SPARK_MASTER_HOST=master # Worker的內存大小 export SPARK_WORKER_MEMORY=1g # Worker的Cores數量 export SPARK_WORKER_CORES=1 # SPARK_PID路徑 export SPARK_PID_DIR=$SPARK_HOME/tmp # Hadoop配置文件路徑 export HADOOP_CONF_DIR=/opt/hadoop-2.6.0-cdh5.9.0/etc/hadoop # Spark的Recovery Mode、Zookeeper URL和路徑 export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:12181,slave03:12181,slave04:12181 -Dspark.deploy.zookeeper.dir=/spark"

在${SPARK_HOME}/conf/slaves中增加:

matser slave03 slave04

這樣就設置了三個Worker。

修改文件結束以后,將${SPARK_HOME}用scp復制到slave03和slave04。

4. 在master上進入${SPARK_HOME}/sbin路徑,運行:

./start-master.sh

這是啟動Master。

再運行:

./start-slaves.sh

這是啟動Worker。

5. 在master上運行jps,如果有Master和Worker表明啟動成功:

在slave03、slave04上運行jps,有Worker表明啟動成功:

6. 訪問http://master:8081,出現下面的頁面表明啟動成功:

總結

以上是生活随笔為你收集整理的Spark分布式集群的搭建和运行的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。