CentOS7下Spark集群的安装
從物理部署層面上來看,Spark主要分為兩種類型的節(jié)點(diǎn),Master節(jié)點(diǎn)和Worker節(jié)點(diǎn),Master節(jié)點(diǎn)主要運(yùn)行集群管理器的中心化部分,所承載的作用是分配Application到Worker節(jié)點(diǎn),維護(hù)Worker節(jié)點(diǎn),Driver,Application的狀態(tài)。Worker節(jié)點(diǎn)負(fù)責(zé)具體的業(yè)務(wù)運(yùn)行。
從Spark程序運(yùn)行的層面來看,Spark主要分為驅(qū)動(dòng)器節(jié)點(diǎn)和執(zhí)行器節(jié)點(diǎn)。
1、機(jī)器準(zhǔn)備
準(zhǔn)備兩臺(tái)以上Linux服務(wù)器,安裝好JDK1.8
我這里的是
| Carlota1 | CentOS7.3 |
| Carlota2 | CentOS7.3 |
| Carlota3 | CentOS7.3 |
2、下載Spark安裝包
http://spark.apache.org/downloads.html
3、上傳解壓
//上傳 scp spark-3.0.1-bin-hadoop3.2.tgz root@Carlota1:/usr/local/apps/ scp spark-3.0.1-bin-hadoop3.2.tgz root@Carlota2:/usr/local/apps/ scp spark-3.0.1-bin-hadoop3.2.tgz root@Carlota3:/usr/local/apps/ //解壓 tar -zxvf spark-3.0.1-bin-hadoop3.2.tgz //改個(gè)名 mv spark-3.0.1-bin-hadoop3.2 spark-3.0.14、配置環(huán)境變量
- vi /etc/profile
- source /etc/profile
5、配置Spark【Standalone模式】
Spark的部署模式有Local、Local-Cluster、Standalone、Yarn、Mesos,我們選擇最具代表性的Standalone集群部署模式。
-
進(jìn)入到Spark安裝目錄cd /usr/local/apps/spark-3.0.1/conf
-
將slaves.template復(fù)制為slavescp slaves.template slaves
-
將spark-env.sh.template復(fù)制為spark-env.shcp spark-env.sh.template spark-env.sh
-
修改slaves文件,將work的hostname輸入vi slaves
- 修改spark-env.sh文件vi spark-env.sh,添加如下配置:
- 同步數(shù)據(jù)到Carlota2和Carlota3
-
進(jìn)入sbin目錄
-
vi spark-config.sh在下方添加
- 同步一下
Spark集群配置完畢,目前是1個(gè)Master,2個(gè)Wor
6、Spark啟動(dòng)集群
- Carlota1上啟動(dòng)集群./sbin/start-all.sh
- 啟動(dòng)后執(zhí)行jps命令,主節(jié)點(diǎn)上有Master進(jìn)程,其他子節(jié)點(diǎn)上有Work進(jìn)行
- 登錄Spark管理界面查看集群狀態(tài)(主節(jié)點(diǎn)):http://Carlota1:8080/
到此為止,Spark集群安裝完畢.
注意:如果遇到 “JAVA_HOME not set” 異常,可以在sbin目錄下的spark-config.sh 文件中加入如下配置:
export JAVA_HOME=XXXX
總結(jié)
以上是生活随笔為你收集整理的CentOS7下Spark集群的安装的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: DOCKERFILE参数注解
- 下一篇: TCP总结