日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

spark 实现HDFS小文件合并

發(fā)布時(shí)間:2024/3/24 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 spark 实现HDFS小文件合并 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

一、首先使用sparksql讀取需要合并的數(shù)據(jù)。當(dāng)然有兩種情況,

  一種是讀取全部數(shù)據(jù),即需要合并所有小文件。

  第二種是合并部分?jǐn)?shù)據(jù),比如只查詢某一天的數(shù)據(jù),只合并某一個(gè)天分區(qū)下的小文件。

val df: DataFrame = spark.sql("sql")

二、將讀取到的數(shù)據(jù)寫入臨時(shí)文件中。此處需注意使用coalesce方法對(duì)文件進(jìn)行合并。

df.coalesce(1).write.mode(SaveMode.Overwrite).parquet(temp_path)

三、將臨時(shí)文件寫入待合并文件的目錄,并采用Overwrite的方式。

spark.read.parquet(tmp_path).write.mode(SaveMode.Overwrite).save(origin_table_path)

參考以下文章,感謝分享:https://www.cnblogs.com/zfwwdz/p/13154995.html

總結(jié)

以上是生活随笔為你收集整理的spark 实现HDFS小文件合并的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。