Storm架构和编程模型总结
1. 編程模型
DataSource:外部數據源
Spout:接受外部數據源的組件,將外部數據源轉化成Storm內部的數據,以Tuple為基本的傳輸單元下發給Bolt
Bolt:接受Spout發送的數據,或上游的bolt的發送的數據。根據業務邏輯進行處理。發送給下一個Bolt或者是存儲到某種介質上。介質可以是Redis可以是mysql,或者其他。
Tuple:Storm內部中數據傳輸的基本單元,里面封裝了一個List對象,用來保存數據。
StreamGrouping:數據分組策略
7種:shuffleGrouping(Random函數),Non Grouping(Random函數),FieldGrouping(Hash取模)、Local or ShuffleGrouping 本地或隨機,優先本地。
2. 并發度
用戶指定的一個任務,可以被多個線程執行,并發度的數量等于線程的數量。一個任務的多個線程,會被運行在多個Worker(JVM)上,有一種類似于平均算法的負載均衡策略。盡可能減少網絡IO,和Hadoop中的MapReduce中的本地計算的道理一樣。
3. 架構
Nimbus:任務分配
Supervisor:接受任務,并啟動worker。worker的數量根據端口號來的。
Worker:執行任務的具體組件(其實就是一個JVM),可以執行兩種類型的任務,Spout任務或者bolt任務。
Task:Task=線程=executor。 一個Task屬于一個Spout或者Bolt并發任務。
Zookeeper:保存任務分配的信息、心跳信息、元數據信息。
4. Worker與topology
一個worker只屬于一個topology,每個worker中運行的task只能屬于這個topology。 反之,一個topology包含多個worker,其實就是這個topology運行在多個worker上。
一個topology要求的worker數量如果不被滿足,集群在任務分配時,根據現有的worker先運行topology。如果當前集群中worker數量為0,那么最新提交的topology將只會被標識active,不會運行,只有當集群有了空閑資源之后,才會被運行。
5. 如何指定驅動類中每個組件的并發度數量?如何設置worker的數量?
(1)?根據上游的數據量來設置Spout的并發度。
(2)?根據業務復雜度和execute方法執行時間來設置Bolt并發度。
(3) 根據集群的可用資源來配置,一般情況下70%的資源使用率。
? ? (4) Worker的數量理論上根據程序并發度總的Task數量來均分,在實際的業務場景中,需要反復調整
6.?Ack-fail機制
(1) 需要ack-fail時,請為每個tuple生成一個messageID,這個messagetId是用來標識你關心的tuple。當這個tuple被完全處理時,storm框架會調用Spout的ack方法,否則調用fail。至于你的消息是否重發,完全由自己處理。
?
(2)?在Spout有并發度的情況下,storm會根據tuple最開始的所屬的spout taskId,通知相應的spoutTask
?(3) 在流式計算中topology的bolt組件是可以配置多個的,在每個環節中,都需要bolt組件顯式告訴storm框架,自己對當前接受的這個tuple處理完成。
<spoutTaskId,<RootID,ackaValue=0>>
(4)?ack機制里面,發送兩種類型的tuple。一種是原始消息(DataTuple),另外一種是ackTuple<RootID,tupleID>,DataTuple中會包含一個MessageId的對象,
spout.emit(DataTuple(MessageId(ackTuple)))------->bolt1.execute(dataTuple)---->collector.ack(dataTuple) ackTuple--------------------->Acker.execute(tuple) dataTuple--->MessageId--->ackTuple Acker.execute(tuple)?
?
?
轉載于:https://www.cnblogs.com/sunfie/p/7268199.html
總結
以上是生活随笔為你收集整理的Storm架构和编程模型总结的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Centos6.8上httpd配置腾讯云
- 下一篇: Lucene6去掉了Filter但是可以