日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

MQ如何保证高可用

發布時間:2023/12/15 编程问答 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 MQ如何保证高可用 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

上一篇我們通過介紹MQ的基本功能簡單的分析了項目中MQ的選型,那么當我們項目中真正使用MQ的時候,必然會涉及到如何保證MQ的高可用,畢竟如果MQ宕機,可能會造成整個調用鏈路的失敗,因此接下來我們簡單聊聊MQ的高可用問題。

那么如何保證消息隊列的高可用呢?

由于MQ中間件的類型比較多,因此我們依次對常用的RabbitMq和Kafka進行高可用的剖析。

(1)RabbitMQ的高可用性

RabbitMQ是比較有代表性的,因為是基于主從做高可用性的。

rabbitmq有三種模式:單機模式,普通集群模式,鏡像集群模式

1)單機模式

就是本地級別的,一般就是測試環境用用,生產環境一般不會用到。

2)普通集群模式

意思就是在多臺機器上啟動多個rabbitmq實例,每個機器啟動一個。但是你創建的queue,只會放在一個rabbtimq實例上,但是每個實例都同步queue的元數據。完了你消費的時候,實際上如果連接到了另外一個實例,那么那個實例會從queue所在實例上拉取數據過來。

這種方式比較麻煩,不怎么好,并不是所謂的分布式,就是個普通集群。因為這導致你要么消費者每次隨機連接一個實例然后拉取數據,要么固定連接那個queue所在實例消費數據,前者有數據拉取的開銷,后者導致單實例性能瓶頸。

而且如果那個放queue的實例宕機了,會導致接下來其他實例就無法從那個實例拉取,如果你開啟了消息持久化,讓rabbitmq落地存儲消息的話,消息不一定會丟,得等這個實例恢復了,然后才可以繼續從這個queue拉取數據。

所以嚴格從理論上來說,這種模式并沒有實現所謂的高可用,僅僅是提高吞吐量的,就是說讓集群中多個節點來服務某個queue的讀寫操作。

3)鏡像集群模式

這種模式,才算得上是rabbitmq的高可用模式,跟普通集群模式不一樣的是,你創建的queue,無論元數據還是queue里的消息都會存在于多個實例上,然后每次你寫消息到queue的時候,都會自動把消息到多個實例的queue里進行消息同步。

這樣的話,好處在于,你任何一個機器宕機了,沒事兒,別的機器都可以用。壞處在于,第一,這個性能開銷也太大了,消息同步所有機器,導致網絡帶寬壓力和消耗很重!第二,這樣的話,就沒有擴展性可言了,因為這并不是所謂的分布式架構,如果某個queue負載很重,你加機器,新增的機器也包含了這個queue的所有數據,并沒有辦法線性擴展你的queue。

至于怎么開啟這個鏡像集群模式呢?我這里簡單說一下,就是在rabbitmq的管理控制臺,新增一個策略,這個策略是鏡像集群模式的策略,指定的時候可以要求數據同步到所有節點的,也可以要求就同步到指定數量的節點,然后你再次創建queue的時候,應用這個策略,就會自動將數據同步到其他的節點上去了。

?

(2)kafka的高可用性

kafka一個最基本的架構認識:多個broker組成,每個broker是一個節點;你創建一個topic,這個topic可以劃分為多個partition,每個partition可以存在于不同的broker上,每個partition就放一部分數據。

這就是天然的分布式消息隊列,就是說一個topic的數據,是分散放在多個機器上的,每個機器就放一部分數據。

實際上rabbitmq之類的,并不是分布式消息隊列,他就是傳統的消息隊列,只不過提供了一些集群、HA的機制而已,因為無論怎么玩兒,rabbitmq一個queue的數據都是放在一個節點里的,鏡像集群下,也是每個節點都放這個queue的完整數據。

kafka 0.8以前,是沒有HA機制的,就是任何一個broker宕機了,那個broker上的partition就廢了,沒法寫也沒法讀,沒有什么高可用性可言。

kafka 0.8以后,提供了HA機制,就是replica副本機制。每個partition的數據都會同步到其他機器上,形成自己的多個replica副本。然后所有replica會選舉一個leader出來,那么生產和消費都跟這個leader打交道,然后其他replica就是follower。寫的時候,leader會負責把數據同步到所有follower上去,讀的時候就直接讀leader上數據即可。只能讀寫leader?很簡單,要是你可以隨意讀寫每個follower,那么就要care數據一致性的問題,系統復雜度太高,很容易出問題。kafka會均勻的將一個partition的所有replica分布在不同的機器上,這樣才可以提高容錯性。

這么搞,就有所謂的高可用性了,因為如果某個broker宕機了,沒事兒,那個broker上面的partition在其他機器上都有副本的,如果這上面有某個partition的leader,那么此時會重新選舉一個新的leader出來,大家繼續讀寫那個新的leader即可。這就有所謂的高可用性了。

寫數據的時候,生產者就寫leader,然后leader將數據落地寫本地磁盤,接著其他follower自己主動從leader來pull數據。一旦所有follower同步好數據了,就會發送ack給leader,leader收到所有follower的ack之后,就會返回寫成功的消息給生產者。(當然,這只是其中一種模式,還可以適當調整這個行為)

消費的時候,只會從leader去讀,但是只有一個消息已經被所有follower都同步成功返回ack的時候,這個消息才會被消費者讀到。

以上就是kafka保證高可用的機制了。

?

tips:

最后簡單提一點關于kafka高性能的原因:

1.磁盤順序寫(寫磁盤為順序追加寫,consumer通過offset消費)

2.零拷貝(減少用戶中間層緩存)

3.分區partition,并行處理

4.批量發送消息

5.數據壓縮(gzip)

更細節的原因后續會整理成文章發出,請持續關注公眾號“蝦米聊吧

參考:石杉筆記

?

關注微信公眾號“蝦米聊吧”,后續持續放送“技術架構”干貨!!!

? ?一個熱衷于分享技術和生活的程序猿,讓我們一起交流吧~??????

?? ? ? ? ? ?? ? ?

? ? ? ? ? ? ? ? 微信掃描二維碼,關注我的公眾號

?

總結

以上是生活随笔為你收集整理的MQ如何保证高可用的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。