日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

通过DataWorks数据集成归档日志服务数据至MaxCompute进行离线分析

發布時間:2023/12/31 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 通过DataWorks数据集成归档日志服务数据至MaxCompute进行离线分析 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

2019獨角獸企業重金招聘Python工程師標準>>>

通過DataWorks歸檔日志服務數據至MaxCompute

官方指導文檔:https://help.aliyun.com/document_detail/68322.html
但是會遇到大家在分區上或者DataWorks調度參數配置問題,具體拿到真實的case模擬如下:

創建數據源:

步驟1 進入數據集成,點擊作業數據源,進入Tab頁面。
?

?

步驟2 點擊右上角
新增數據源,選擇消息隊列 loghub。

步驟3 編輯LogHub數據源中的必填項,包括數據源名稱、LogHub
Endpoint、Project、AK信息等,并點擊 測試連通性。
?

創建目標表:

步驟1 在左側tab也中找到臨時查詢,并右鍵>新建ODPS SQL節點。
?

?

步驟2 編寫建表DDL。
步驟3 點擊
執行 按鈕進行創建目標表,分別為ods_client_operation_log、ods_vedio_server_log、ods_web_tracking_log。

步驟4 直到日志打印成本,表示三條DDL語句執行完畢。
?

?

步驟5 可以通過desc 查看創建的表。
?

?

其他兩張表也可以通過desc 進行查詢。確認數據表的存在情況。

創建數據同步任務

數據源端以及在DataWorks中的數據源連通性都已經配置好,接下來就可以通過數據同步任務進行采集數據到MaxCompute上。
操作步驟
步驟1 點擊
新建業務流程 并 確認提交,名稱為 直播日志采集。
?

?

步驟2 在業務流程開發面板中依次創建如下依賴并命名。
?

?

依次配置數據同步任務節點配置:web_tracking_log_syn、client_operation_log_syn、vedio_server_log_syn。

步驟3 雙擊
web_tracking_log_syn 進入節點配置,配置項包括數據源(數據來源和數據去向)、字段映射(源頭表和目標表)、通道控制。
?

?

根據采集的時間窗口自定義參數為:

當然其消費點位也可以按照自定義設置5分鐘調度一次,從00:00到23:59,startTme=[yyyymmddhh24miss?10/24/60]系統前10分鐘到endTime=[yyyymmddhh24miss-5/24/60]系統前5分鐘時間(注意與上圖消費數據定位不同),那么應該配置為ds=[yyyymmdd-5/24/60],hr=[hh24-5/24/60],min=[mi-5/24/60]。

步驟4 可以點擊高級運行進行測試。
?

?

可以分別手工收入自定義參數值進行測試。

?

?

步驟3 使用SQL腳本確認是否數據已經寫進來。如下圖所示:
?

?

日志服務的日志正式的被采集入庫,接下來就可以進行數據加工。
比如可以通過上述來統計熱門房間、地域分布和卡頓率,如下所示:

?

具體SQL邏輯不在這里展開,可以根據具體業務需求來統計分析。依賴關系配置如上圖所示。

?

原文鏈接

本文為云棲社區原創內容,未經允許不得轉載。

轉載于:https://my.oschina.net/u/3889140/blog/3034137

總結

以上是生活随笔為你收集整理的通过DataWorks数据集成归档日志服务数据至MaxCompute进行离线分析的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。