日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

启动spark shell

發布時間:2025/3/11 编程问答 18 豆豆
生活随笔 收集整理的這篇文章主要介紹了 启动spark shell 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

spark集群安裝教程:http://blog.csdn.net/zengmingen/article/details/72123717


啟動spark shell.

在spark安裝目錄bin文件夾下

?./spark-shell --master spark://nbdo1:7077 --executor-memory 2g --total-executor-cores 2




參數說明:

--master spark://nbdo1:7077 指定Master的地址

--executor-memory 2g 指定每個worker可用內存為2G

--total-executor-cores 2 指定整個集群使用的cpu核數為2

?

注意:

如果啟動spark shell時沒有指定master地址,但是也可以正常啟動spark shell和執行spark shell中的程序,其實是啟動了sparklocal模式,該模式僅在本機啟動一個進程,沒有與集群建立聯系。

不指定 --executor-memory使用每臺worker內存總數-1GB的內存(如總的8gb,預留1gb給操作系統,使用7gb)。

不指定--total-executor-cores使用整個集群的cpu數。




scala> [hadoop@nbdo1 bin]$ ./spark-shell --master spark://nbdo1:7077
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
17/05/15 16:31:18 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
17/05/15 16:31:24 WARN ObjectStore: Failed to get database global_temp, returning NoSuchObjectException
Spark context Web UI available at http://192.168.18.146:4040
Spark context available as 'sc' (master = spark://nbdo1:7077, app id = app-20170515163119-0001).
Spark session available as 'spark'.
Welcome to
? ? ? ____ ? ? ? ? ? ? ?__
? ? ?/ __/__ ?___ _____/ /__
? ? _\ \/ _ \/ _ `/ __/ ?'_/
? ?/___/ .__/\_,_/_/ /_/\_\ ? version 2.1.1
? ? ? /_/
? ? ? ? ?
Using Scala version 2.11.8 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_73)
Type in expressions to have them evaluated.
Type :help for more information.


scala> 可以在這里直接運行scala代碼



-------------

更多的Java,Android,大數據,J2EE,Python,數據庫,Linux,Java架構師,教程,視頻請訪問:

http://www.cnblogs.com/zengmiaogen/p/7083694.html










總結

以上是生活随笔為你收集整理的启动spark shell的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。