Spark-shell 脚本批量执行命令,命令行批量执行命令
生活随笔
收集整理的這篇文章主要介紹了
Spark-shell 脚本批量执行命令,命令行批量执行命令
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
?
spark-shell 執行腳本,批量執行命令?
#!/bin/bashsource /etc/profileexec spark-shell --name spark-sql-test --executor-cores 8 --executor-memory 8g --num-executors 1 --conf spark.cleaner.ttl=240000 <<!EOF var startTime = System.currentTimeMillis() sql("select count(1) from ods_xxx.other_article_hive_textfile where created_date=2019 ").show() var endTime = System.currentTimeMillis() print("耗時:"+ (endTime - startTime)) !EOF?
總結
以上是生活随笔為你收集整理的Spark-shell 脚本批量执行命令,命令行批量执行命令的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 如何理解const char*, cha
- 下一篇: 勤学如春起之苗,不见其增,日有所长!