日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 运维知识 > linux >内容正文

linux

Spark- Linux下安装Spark

發(fā)布時間:2023/12/10 linux 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Spark- Linux下安装Spark 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

?Spark- Linux下安裝Spark

前期部署

1.JDK安裝,配置PATH

可以參考之前配置hadoop等配置

2.下載spark-1.6.1-bin-hadoop2.6.tgz,并上傳到服務(wù)器解壓

[root@srv01 ~]# tar -xvzf spark-1.6.1-hadoop2.6.tgz /usr/spark-1.6.1-hadoop2.6

3.在?/usr?下創(chuàng)建軟鏈接到目標(biāo)文件夾

[root@srv01 usr]# ln -s spark-1.6.1-bin-hadoop2.6 spark

4.修改配置文件,目標(biāo)目錄?/usr/spark/conf/?

[root@srv01 conf]# ls docker.properties.template log4j.properties.template slaves.template spark-env.sh.template fairscheduler.xml.template metrics.properties.template spark-defaults.conf.template
這里需要把spark-env.sh.template改名為spark-env.sh export JAVA_HOME=/usr/jdk #這個是單機版的配置,不能實現(xiàn)高可用 export SPARK_MASTER_IP=srv01 export SPARK_MASTER_PORT=7077

再配置slaves ,都是我的集群的機器的hostname

srv01 srv02 srv03

5.分發(fā)到集群各個機器上,再軟鏈接一下,保持集群一致性,參考step-3

[root@srv01 usr]# scp -r spark-1.6.1-bin-hadoop2.6 srv02:/usr
[root@srv01 usr]# scp -r spark-1.6.1-bin-hadoop2.6 srv03:/usr

6.Spark-sell

配置好,啟動spark-shell,注意記得先關(guān)閉防火墻(也可以將spark寫進PATH中)

輸入?sc?,如果顯示下面的,表示安裝正常

scala> sc res0: org.apache.spark.SparkContext = org.apache.spark.SparkContext@18811c42

7.測試單詞計算案例

scala> sc.textFile("/root/file.log").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect.toBuffer
res7: scala.collection.mutable.Buffer[(String, Int)]
= ArrayBuffer((scala,2), (spark,2), (hive,1), (hadoop,2), (mapreduce,1), (zookeeper,1), (hello,1), (redis,1), (world,1))

?8.啟動Spark集群模式(前提是3臺機器的spark配置一樣,配置文件spark-env.sh和slaves文件保持一致)

進入Spark的sbin目錄下啟動 ./start-all.sh

這個腳本文件在sbin目錄

通過Jps查看角色

[root@srv01 conf]# jps

13079 Master

13148 Worker? //這個worker的啟動通過配置文件slaves

13234 Jps

下面是我的slaves的配置文件

srv01 srv02 srv03

slaves配置的決定了在哪幾臺機器上啟動worker

下面的配置文件決定了在哪臺機器上啟動Master

啟動Spark集群(如果有使用hdfs的場景,需要把hadoop的conf目錄下的core-site.xml和dhfs-site.xml拷貝到spark的conf目錄下,才能使用高可用的hdfs url)

?

?

然后在通過網(wǎng)頁查看spark的相關(guān)信息:

http://192.168.1.88:8080/

執(zhí)行第一個Spark程序

指定運行程序的主機名(Master)

?

./spark-submit --class org.apache.spark.examples.SparkPi --master spark://srv01:7077 --executor-memory 1G --total-executor-cores 2 /usr/spark-1.6.1-bin-hadoop2.6/lib/spark-examples-1.6.1-hadoop2.6.0.jar 500

?

?

?

?

IDEA上面編碼使用集群上的spark運行程序

package com.rz.spark.baseimport org.apache.log4j.{Level, Logger} import org.apache.spark.{SparkConf, SparkContext}object transactionApp {def main(args: Array[String]): Unit = {Logger.getLogger("org.apache.spark").setLevel(Level.OFF)val conf = new SparkConf().setAppName(this.getClass.getSimpleName).setMaster("spark://hdp:7077")val sc = new SparkContext(conf)val rdd1 = sc.parallelize(Array(1,2,3,4,5,6,7,8,9))println(rdd1.partitions.length)sc.stop()} }

  

?

轉(zhuǎn)載于:https://www.cnblogs.com/RzCong/p/7447638.html

總結(jié)

以上是生活随笔為你收集整理的Spark- Linux下安装Spark的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。