在Ubuntu 14.04 64bit上搭建单机本地节点Spark 1.3.0环境
1.參見本博客前面的文章完成以下準(zhǔn)備工作:
(1)安裝JVM
(2)安裝Scala
(3)安裝Python或者IPython
2.官網(wǎng)下載Spark最新版并解壓
登陸官網(wǎng)
http://spark.apache.org/downloads.html
選擇包類型為"Pre-built for Hadoop 2.4 and later"并下載對應(yīng)的tarball文件spark-1.3.0-bin-hadoop2.4.tgz
cp -f spark-1.3.0-bin-hadoop2.4.tgz? ~/program
tar -xf spark-1.3.0-bin-hadoop2.4.tgz -C ~/program
cd spark-1.3.0-bin-hadoop2.4
ls
3.利用Spark自帶的Python shell
使用PySpark shell, 在Spark解壓的源碼路徑下,運(yùn)行
bin/pyspark
在提示符下,依次輸入下面的命令
>>> lines = sc.textFile("README.md")
>>> lines.count()
>>> lines.first()
4.修改打印日志的級別
經(jīng)過上面的運(yùn)行,發(fā)現(xiàn)shell環(huán)境中打印的日志過多, 為此我需要調(diào)整以下日志的級別.為此,我在
conf目錄下面新建一個文件log4j.properties,它是log4j.properties.template的副本,將其中
下面的行
log4j.rootCategory=INFO, console
改為
log4j.rootCategory=WARN, console
然后重新打開shell,發(fā)現(xiàn)調(diào)試信息少了很多
5.使用IPython或者IPython Notebook
在命令行, 我們可以使用下面的命令來開啟IPython
IPYTHON=1 ./bin/pyspark
使用下面的命令來開啟IPython Notebook
IPYTHON_OPTS="notebook" ./bin/pyspark這會在默認(rèn)瀏覽器中打開如下頁面
點(diǎn)擊上面的"New Notebook"打開一個新的頁面標(biāo)簽, 在其中輸入如下命令行,并按播放按鈕來執(zhí)行結(jié)果
按Ctrl-D退出shell環(huán)境
6.使用Scala shell測試line count小程序
打開Scala版本的shell,運(yùn)行
bin/spark-shell
scala> val lines = sc.textFile("README.md")
scala> lines.cout()
scala> lines.first()
按Ctrl-D退出shell環(huán)境
7.測試Spark性能
進(jìn)入到Spark的conf目錄下面, 根據(jù)當(dāng)前配置環(huán)境, 復(fù)制并修改spark_env.sh文件
cp -f spark-env.sh.template spark-env.sh
vim spark-env.sh
添加如下內(nèi)容
sbin/start-master.sh
啟動從服務(wù)器節(jié)點(diǎn)
sbin/start-slaves.sh spark://127.0.0.1:7077
關(guān)閉分別使用
sbin/stop-master.sh
sbin/stop-slaves.sh
瀏覽master UI
http://127.0.0.1:8080/
http://127.0.0.1:8081/
run-example org.apache.spark.examples.SparkPi local
run-example org.apache.spark.examples.SparkPi spark://127.0.0.1:7077
run-example org.apache.spark.examples.SparkLR spark://127.0.0.1:7077
未解決的問題:
在運(yùn)行樣例時,發(fā)現(xiàn)配置spark ip為127.0.0.1有錯誤, 最好是運(yùn)行在公網(wǎng)上的ip
參考文獻(xiàn)
[1].http://www.linuxidc.com/Linux/2014-06/103210.htm
[2].http://www.it165.net/os/html/201405/8430.html
[3].Learning Spark Lightning Fast Big Data Analysis.pdf總結(jié)
以上是生活随笔為你收集整理的在Ubuntu 14.04 64bit上搭建单机本地节点Spark 1.3.0环境的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 在Ubuntu 14.04 64bit上
- 下一篇: 使用python中的Matplotlib