日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Spark 安装配置简单测试

發(fā)布時間:2025/3/19 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Spark 安装配置简单测试 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

簡介

Spark是UC Berkeley AMP lab (加州大學伯克利分校的AMP實驗室)所開源的類Hadoop MapReduce的通用并行框架,Spark,擁有Hadoop MapReduce所具有的優(yōu)點;但不同于MapReduce的是Job中間輸出結(jié)果可以保存在內(nèi)存中,從而不再需要讀寫HDFS,因此Spark能更好地適用于數(shù)據(jù)挖掘與機器學習等需要迭代的MapReduce的算法。
Spark 是一種與 Hadoop 相似的開源集群計算環(huán)境,但是兩者之間還存在一些不同之處,這些有用的不同之處使 Spark 在某些工作負載方面表現(xiàn)得更加優(yōu)越,換句話說,Spark 啟用了內(nèi)存分布數(shù)據(jù)集,除了能夠提供交互式查詢外,它還可以優(yōu)化迭代工作負載。
Spark 是在 Scala 語言中實現(xiàn)的,它將 Scala 用作其應用程序框架。與 Hadoop 不同,Spark 和 Scala 能夠緊密集成,其中的 Scala 可以像操作本地集合對象一樣輕松地操作分布式數(shù)據(jù)集。
盡管創(chuàng)建 Spark 是為了支持分布式數(shù)據(jù)集上的迭代作業(yè),但是實際上它是對 Hadoop 的補充,可以在 Hadoop 文件系統(tǒng)中并行運行。通過名為 Mesos 的第三方集群框架可以支持此行為。Spark 由加州大學伯克利分校 AMP 實驗室 (Algorithms, Machines, and People Lab) 開發(fā),可用來構(gòu)建大型的、低延遲的數(shù)據(jù)分析應用程序。
來源:百度百科

Hadoop 和 Spark 的異同

https://www.oschina.net/news/73939/hadoop-spark-%20difference

Hadoop安裝

http://blog.csdn.net/fenglailea/article/details/53318459

系統(tǒng)環(huán)境

Centos 7 服務器
當前用戶 hadoop

Scala下載安裝和配置

http://www.scala-lang.org/download/

wget http://downloads.lightbend.com/scala/2.12.0/scala-2.12.0.tgz tar zxvf scala-2.12.0.tgz mv scala-2.12.0 ~/scala

Scala環(huán)境變量設置

vim ~/.bashrc

增加

export SCALA_HOME=/home/hadoop/scala/bin export PATH=$PATH:$SCALA_HOME

Spark下載

http://spark.apache.org/downloads.html
http://archive.apache.org/dist/spark/

wget http://archive.apache.org/dist/spark/spark-2.0.2/spark-2.0.2-bin-without-hadoop.tgz tar zxvf spark-2.0.2-bin-without-hadoop.tgz

Spark安裝

mv spark-2.0.2-bin-without-hadoop ~/spark

Spark配置環(huán)境變量

vim ~/.bashrc

加入

export SPARK_HOME=/home/hadoop/spark/bin export PATH=$PATH:$SPARK_HOME

應用環(huán)境變量

. ~/.bashrc

配置

cp -rf /home/hadoop/spark/conf/log4j.properties.template /home/hadoop/spark/conf/log4j.properties cp -rf /home/hadoop/spark/conf/spark-env.sh.template /home/hadoop/spark/conf/spark-env.sh

修改日志級別

vim /home/hadoop/spark/conf/log4j.properties

修改為

log4j.rootCategory=WARN, console

編輯 spark-env.sh文件

vim /home/hadoop/spark/conf/spark-env.sh

最后一行加入:

export SPARK_DIST_CLASSPATH=$(/home/hadoop/hadoop/bin/hadoop classpath)

說明:hadoop 的執(zhí)行文件

測試

即計算 π 的近似值

/home/hadoop/spark/bin/run-example SparkPi 2>&1 | grep "Pi is roughly"

更多設置請看

http://blog.csdn.net/ouyangyanlan/article/details/52355350
http://dblab.xmu.edu.cn/blog/spark-quick-start-guide/
來源
http://blog.csdn.net/hangzhi22/article/details/52564148
http://blog.csdn.net/ouyangyanlan/article/details/52355350

總結(jié)

以上是生活随笔為你收集整理的Spark 安装配置简单测试的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。