日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > centos >内容正文

centos

Apache Kafka-初体验Kafka(03)-Centos7下搭建kafka集群

發布時間:2025/3/21 centos 100 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Apache Kafka-初体验Kafka(03)-Centos7下搭建kafka集群 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

  • 概述
  • 部署信息
  • 配置信息
  • 驗證


概述

對于kafka來說,一個單獨的broker意味著kafka集群中只有一個節點。要想增加kafka集群中的節點數量,只需要多啟動幾個broker實例即可。

單個節點的安裝: Kafka-初體驗Kafka(02)-Centos7下搭建單節點kafka_2.11‐1.1.0

這里我們來搭建個3個節點的kafka集群來體驗下吧


部署信息

192.168.18.130 —> kafka 、 zookeeper(單節點的zk)
192.168.18.131 —> kafka
192.168.18.132 —> kafka

單節點的 zk , 部署上 130上,事實上生產環境的話,zk也是要搭建集群的,這里演示用的話,用單個節點的zk先。

3個節點的kafka注冊到 單節點的zk上。


配置信息

kafka的配置文件主要是配置文件 server.properties

130

[root@artisan config]# grep -Ev '^$|^[#;]' server.properties broker.id=0 listeners=PLAINTEXT://192.168.18.130:9092 num.network.threads=3 num.io.threads=8 socket.send.buffer.bytes=102400 socket.receive.buffer.bytes=102400 socket.request.max.bytes=104857600 log.dirs=/tmp/kafka-logs num.partitions=1 num.recovery.threads.per.data.dir=1 offsets.topic.replication.factor=1 transaction.state.log.replication.factor=1 transaction.state.log.min.isr=1 log.retention.hours=168 log.segment.bytes=1073741824 log.retention.check.interval.ms=300000 zookeeper.connect=192.168.18.130:2181 zookeeper.connection.timeout.ms=6000 group.initial.rebalance.delay.ms=0 [root@artisan config]#


131

[root@artisan config]# grep -Ev '^$|^[#;]' server.properties broker.id=1 listeners=PLAINTEXT://192.168.18.131:9092 num.network.threads=3 num.io.threads=8 socket.send.buffer.bytes=102400 socket.receive.buffer.bytes=102400 socket.request.max.bytes=104857600 log.dirs=/tmp/kafka-logs num.partitions=1 num.recovery.threads.per.data.dir=1 offsets.topic.replication.factor=1 transaction.state.log.replication.factor=1 transaction.state.log.min.isr=1 log.retention.hours=168 log.segment.bytes=1073741824 log.retention.check.interval.ms=300000 zookeeper.connect=192.168.18.130:2181 zookeeper.connection.timeout.ms=6000 group.initial.rebalance.de


132

[root@artisan config]# grep -Ev '^$|^[#;]' server.properties broker.id=2 listeners=PLAINTEXT://192.168.18.132:9092 num.network.threads=3 num.io.threads=8 socket.send.buffer.bytes=102400 socket.receive.buffer.bytes=102400 socket.request.max.bytes=104857600 log.dirs=/tmp/kafka-logs num.partitions=1 num.recovery.threads.per.data.dir=1 offsets.topic.replication.factor=1 transaction.state.log.replication.factor=1 transaction.state.log.min.isr=1 log.retention.hours=168 log.segment.bytes=1073741824 log.retention.check.interval.ms=300000 zookeeper.connect=192.168.18.130:2181 zookeeper.connection.timeout.ms=6000 group.initial.rebalance.delay.ms=0 [root@artisan config]#

還有一篇博主寫的 zk也是高可用的,可以參考下,寫的很不錯 ZooKeeper+Kafka 高可用集群搭建


驗證

啟動zookeeper 和 3個 kafka 后,我們創建一個新的topic,副本數設置為3,分區數設置為2

[root@artisan bin]# ./kafka-topics.sh --create --zookeeper 192.168.18.130:2181 --replication-factor 3 --partitions 2 --topic artisan-replicated-topic Created topic "artisan-replicated-topic". [root@artisan bin]#

查看topic的情況

[root@artisan bin]# ./kafka-topics.sh --describe --zookeeper 192.168.18.130:2181 --topic artisan-replicated-topic Topic:artisan-replicated-topic PartitionCount:2 ReplicationFactor:3 Configs:Topic: artisan-replicated-topic Partition: 0 Leader: 1 Replicas: 1,2,0 Isr: 1,2,0Topic: artisan-replicated-topic Partition: 1 Leader: 2 Replicas: 2,0,1 Isr: 2,0,1 [root@artisan bin]#

我們來解釋下上面的輸出內容

第一行是所有分區的概要信息,之后的每一行表示每一個partition的信息。

所有分區的概要信息:

Topic:artisan-replicated-topic PartitionCount:2 ReplicationFactor:3 Configs

每一個partition的信息:

Topic: artisan-replicated-topic Partition: 0 Leader: 1 Replicas: 1,2,0 Isr: 1,2,0 Topic: artisan-replicated-topic Partition: 1 Leader: 2 Replicas: 2,0,1 Isr: 2,0,1
  • leader節點負責給定partition的所有讀寫請求。
  • replicas 表示某個partition在哪幾個broker上存在備份。不管這個幾點是不是”leader“,甚至這個節點掛了,也會列出
  • isr 是replicas的一個子集,它只列出當前還存活著的,并且已同步備份了該partition的節點。

我們可以運行相同的命令查看之前創建的名稱為”artisan“的topic

[root@artisan bin]# ./kafka-topics.sh --describe --zookeeper 192.168.18.130:2181 --topic artisan Topic:artisan PartitionCount:1 ReplicationFactor:1 Configs:Topic: artisan Partition: 0 Leader: 0 Replicas: 0 Isr: 0 [root@artisan bin]#

之前設置了topic的partition數量為1,備份因子為1,因此顯示就如上所示了。當然我們也可以通過如下命令增加topic的分區數量(目前kafka不支持減少分區):

[root@artisan bin]# ./kafka-topics.sh --alter --partitions 3 --zookeeper 192.168.18.130:2181 --topic artisan WARNING: If partitions are increased for a topic that has a key, the partition logic or ordering of the messages will be affected Adding partitions succeeded!

重新查看

[root@artisan bin]# ./kafka-topics.sh --describe --zookeeper 192.168.18.130:2181 --topic artisan Topic:artisan PartitionCount:3 ReplicationFactor:1 Configs:Topic: artisan Partition: 0 Leader: 0 Replicas: 0 Isr: 0Topic: artisan Partition: 1 Leader: 1 Replicas: 1 Isr: 1Topic: artisan Partition: 2 Leader: 2 Replicas: 2 Isr: 2 [root@artisan bin]#

現在我們向新建的 artisan-replicated-topic 中發送一些message,kafka集群可以加上所有kafka節點:

[root@artisan bin]# ./kafka-console-producer.sh --broker-list 192.168.18.130:9092,192.168.18.131:9092,192.168.18.132:9092 --topic artisan-replicated-topic >artisan message test 1 >artisan message test 2 >artisan message test 3 >

現在131broker 開始消費:

[root@artisan bin]# ./kafka-console-consumer.sh --bootstrap-server 192.168.18.131:9092 --from-beginning --topic artisan-replicated-topic artisan message test 1 artisan message test 3 artisan message test 2

現在我們來測試我們 容錯性 ,因為broker1目前是artisan-replicated-topic的分區0的 leader,所以我們要將其kill , kill 掉 131 節點的 kafka

再執行

[root@artisan bin]# ./kafka-topics.sh --describe --zookeeper 192.168.18.130:2181 --topic artisan-replicated-topic Topic:artisan-replicated-topic PartitionCount:2 ReplicationFactor:3 Configs:Topic: artisan-replicated-topic Partition: 0 Leader: 2 Replicas: 1,2,0 Isr: 0,2Topic: artisan-replicated-topic Partition: 1 Leader: 2 Replicas: 2,0,1 Isr: 2,0 [root@artisan bin]#

我們可以看到,分區0的leader節點已經變成了broker 2。要注意的是,在Isr中,已經沒有了1號節點。leader的選舉也是從ISR(in-sync replica)中進行的。

131 重新起來以后,還是可以消費消息

[root@artisan bin]# ./kafka-server-start.sh -daemon ../config/server.properties [root@artisan bin]# jps 24436 Kafka 24455 Jps [root@artisan bin]# ./kafka-console-consumer.sh --bootstrap-server 192.168.18.131:9092 --from-beginning --topic artisan-replicated-topic artisan message test 1 artisan message test 3 artisan message test 2

再看下

[root@artisan bin]# ./kafka-topics.sh --describe --zookeeper 192.168.18.130:2181 --topic artisan-replicated-topic Topic:artisan-replicated-topic PartitionCount:2 ReplicationFactor:3 Configs:Topic: artisan-replicated-topic Partition: 0 Leader: 1 Replicas: 1,2,0 Isr: 0,2,1Topic: artisan-replicated-topic Partition: 1 Leader: 2 Replicas: 2,0,1 Isr: 2,0,1 [root@artisan bin]# [root@artisan bin]#

總結

以上是生活随笔為你收集整理的Apache Kafka-初体验Kafka(03)-Centos7下搭建kafka集群的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 欧州一区二区 | 在线不卡二区 | 九九在线观看免费高清版 | 日韩欧美一本 | 天堂在线观看 | 黄色大片中文字幕 | 性欧美久久久 | 美女被娇喘流出白 | 免费视频毛片 | 日韩欧美中文字幕一区 | 日韩 欧美 国产 综合 | 日本a∨视频 | 少妇高潮一区二区三区69 | 免费观看h片 | 亚洲av无码专区在线电影 | 日韩欧美性视频 | 茄子视频懂你更多在线观看 | 怡红院国产| 青青一区二区 | 日本黄色小视频 | 国产毛片电影 | 亚洲国产精品视频 | 深爱激情综合网 | 手机av在线免费 | 屁屁影院一区二区三区 | 亚洲一二三精品 | 中字幕视频在线永久在线观看免费 | 操操操免费视频 | 国产一区二区三区免费在线观看 | 亚洲美女屁股眼交 | 国产精品11| 欧美a级大片 | 国产精品久久久久永久免费看 | 97se.com| 成人在线影片 | 4438x全国最大成人网 | h片在线观看 | 亚洲狼人av | 中文字幕日韩久久 | 天堂欧美城网站网址 | 国产91精品久久久久久久网曝门 | 一级国产精品 | 中文在线a√在线 | 国产小视频网址 | 自拍偷拍日韩 | 蜜臀久久精品 | 毛片高清免费 | 国产午夜在线播放 | 精品一区二区免费看 | 久草视频在线观 | 国模小黎自慰gogo人体 | 91av观看 | 蜜乳av一区二区 | 麻豆精品一区二区 | 欧美日韩第一页 | 亚洲av成人精品日韩在线播放 | 国产传媒在线观看 | 亚洲区在线 | av手机免费在线观看 | 日韩一区二区三区在线 | 91在线综合 | 欧美国产日韩综合 | 欧美一线天 | 美国特色黄a大片 | 久久亚洲av无码精品色午夜麻豆 | 午夜福利电影一区二区 | 女的高潮流时喷水图片大全 | 色蜜桃av | 成人影视在线播放 | 中国黄色三级 | 国v精品久久久网 | 99ri国产| 精品久久久影院 | 粉豆av | 91丨九色丨丰满 | 快播91| 日韩精品区 | 亚洲性欧美色 | 一级片毛片 | 亚洲成人av免费在线观看 | 麻豆精品国产传媒av | 亚洲福利电影 | 福利在线国产 | 成人午夜激情影院 | 天堂av成人| 老熟妇午夜毛片一区二区三区 | 涩涩视频在线播放 | 精品久久久久久久中文字幕 | 亚洲欧洲免费无码 | www.sesehu| 在线观看日批视频 | 一区二区免费在线观看 | 在线免费三级 | 一区二区三区欧美精品 | 亚洲字幕| 四虎精品久久 | 岛国a视频| 色女综合| 男人天堂色|