日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > Ubuntu >内容正文

Ubuntu

Ubuntu下安装和使用zookeeper和kafka

發布時間:2025/4/16 Ubuntu 40 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Ubuntu下安装和使用zookeeper和kafka 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1.在清華鏡像站下載kafka_2.10-0.10.0.0.tgz 和 zookeeper-3.4.10.tar.gz

分別解壓到/usr/local目錄下

2.進入zookeeper目錄,在conf目錄下將zoo_sample.cfg文件拷貝,并更名為zoo.cfg

參考 https://my.oschina.net/phoebus789/blog/730787

zoo.cfg文件的內容

# The number of ticks that the initial # synchronization phase can take initLimit=10 # The number of ticks that can pass between # sending a request and getting an acknowledgement syncLimit=5 # the directory where the snapshot is stored. # do not use /tmp for storage, /tmp here is just # example sakes. dataDir=/home/common/zookeeper/zookeeperdir/zookeeper-data dataLogDir=/home/common/zookeeper/zookeeperdir/logs # the port at which the clients will connect clientPort=2181 server.1=10.10.100.10:2888:3888 # the maximum number of client connections. # increase this if you need to handle more clients #maxClientCnxns=60 # # Be sure to read the maintenance section of the # administrator guide before turning on autopurge. # # http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance # # The number of snapshots to retain in dataDir #autopurge.snapRetainCount=3 # Purge task interval in hours # Set to "0" to disable auto purge feature #autopurge.purgeInterval=1

新建下面這兩個目錄

/home/common/zookeeper/zookeeperdir/zookeeper-data /home/common/zookeeper/zookeeperdir/logs

在zookeeper-data目錄下新建一個myid文件,內容為1,代表這個服務器的編號是1,具體參考上面網址中的內容

最后在/etc/profile中添加環境變量,并source

export ZOOKEEPER_HOME=/usr/local/zookeeper export PATH=${ZOOKEEPER_HOME}/bin:$PATH

現在zookeeper就安裝好了,現在啟動zookeeper

bin/zkServer.sh start

查看狀態

bin/zkServer.sh status

啟動客戶端腳本

bin/zkCli.sh -server localhost:2181

停止zookeeper

bin/zkServer.sh stop

?

1.現在安裝kafka,同樣是解壓之后就安裝好了

參考 http://www.jianshu.com/p/efc8b9dbd3bd

2.進入kafka目錄下

kafka需要使用Zookeeper,首先需要啟動Zookeeper服務,上面的操作就已經啟動了Zookeeper服務

如果沒有的話,可以使用kafka自帶的腳本啟動一個簡單的單一節點Zookeeper實例

bin/zookeeper-server-start.sh config/zookeeper.properties

啟動 Kafka服務

bin/kafka-server-start.sh config/server.properties

停止 Kafka服務

bin/kafka-server-stop.sh config/server.properties

?

3.創建一個主題

首先創建一個名為test的topic,只使用單個分區和一個復本

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

?現在可以運行list topic命令看到我們的主題

bin/kafka-topics.sh --list --zookeeper localhost:2181

4.發送消息

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test This is a message This is another message

如果要批量導入文件數據到kafka,參考:2.1 本地環境下kafka批量導入數據

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test_topic < file_pat

如果要模擬實時數據到打入kafka的情況,可以寫一個shell腳本

#!/usr/bin/env bashcat XXXX.log | while read line dosleep 0.1echo "${line}"echo "${line}" | /home/lintong/software/apache/kafka_2.11-0.10.0.0/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic topicA done

?

5.啟動一個消費者,消費者會接收到消息

舊版消費者

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning 2>/dev/null

新版消費者

bin/kafka-console-consumer.sh --new-consumer --bootstrap-server localhost:9092 --topic input --from-beginning 2>/dev/null

6.查看指定的topic的offset信息

對于結尾是ZK的消費者,其消費者的信息是存儲在Zookeeper中的

對于結尾是KF的消費者,其消費者的信息是存在在Kafka的broker中的

都可以使用下面的命令進行查看

bin/kafka-consumer-offset-checker.sh --zookeeper localhost:2181 --group xxx --topic xxx

結果

bin/kafka-consumer-offset-checker.sh --zookeeper localhost:2181 --group test-consumer-group --topic xxx [2018-09-03 20:34:57,595] WARN WARNING: ConsumerOffsetChecker is deprecated and will be dropped in releases following 0.9.0. Use ConsumerGroupCommand instead. (kafka.tools.ConsumerOffsetChecker$) Group Topic Pid Offset logSize Lag Owner test-consumer-group xxx 0 509 0 -509 none

或者

./bin/kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zookeeper localhost:2181 --group xxxx --topic xxxx

結果

bin/kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zookeeper localhost:2181 --group test-consumer-group [2018-09-03 20:45:02,967] WARN WARNING: ConsumerOffsetChecker is deprecated and will be dropped in releases following 0.9.0. Use ConsumerGroupCommand instead. (kafka.tools.ConsumerOffsetChecker$) Group Topic Pid Offset logSize Lag Owner test-consumer-group xxx 0 509 509 0 none

lag是負數的原因是 topic中的消息數量過期(超過kafka默認的7天后被刪除了),變成了0,所以Lag=logSize減去Offset,所以就變成了負數

7.刪除一個topic

需要在 conf/server.properties 文件中設置

# For delete topic delete.topic.enable=true

否則在執行了以下刪除命令后,再 list 查看所有的topic,還是會看到該topic

bin/kafka-topics.sh --zookeeper localhost:2181 --delete --topic topicB

再到 配置文件 中的kafka數據存儲地址去刪除物理數據了,我的地址為

/tmp/kafka-logs

最后需要到zk里刪除kafka的元數據

./bin/zkCli.sh #進入zk shell ls /brokers/topics rmr /brokers/topics/topicA

?參考:kafka 手動刪除topic的數據

?

8.查看某個group的信息

新版

bin/kafka-consumer-groups.sh --new-consumer --bootstrap-server localhost:9092 --describe --group xxx

結果

bin/kafka-consumer-groups.sh --new-consumer --bootstrap-server localhost:9092 --describe --group group_id GROUP TOPIC PARTITION CURRENT-OFFSET LOG-END-OFFSET LAG     OWNER group_id     xxx 0 509 509 0 consumer-1_/127.0.0.1

如果這時候消費者進程關閉了之后,使用上面的命令和下面的-list命令將不會查出這個group_id,但是當消費者進程重新開啟后,這個group_id又能重新查到,且消費的offset不會丟失

舊版

bin/kafka-consumer-groups.sh --zookeeper 127.0.0.1:2181 --group xxx --describe

9.查看consumer group的列表

ZK的消費者可以使用下面命令查看,比如上面的例子中的 test-consumer-group

bin/kafka-consumer-groups.sh --zookeeper 127.0.0.1:2181 --list

KF的消費者可以使用下面命令查看,比如上面的例子中的 console-consumer-xxx ,但是只會查看到類似于 KMOffsetCache-lintong-B250M-DS3H 的結果,這是由于這種消費者的信息是存放在 __consumer_offsets 中

對于如何查看存儲于 __consumer_offsets 中的新版消費者的信息,可以參考huxihx的博文: Kafka 如何讀取offset topic內容 (__consumer_offsets)

bin/kafka-consumer-groups.sh --new-consumer --bootstrap-server localhost:9092 --list

10.在zk中刪除一個consumer group

rmr /consumers/test-consumer-group

11.查看topic的offset的最小值

參考:重置kafka的offset

bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list localhost:9092 -topic xxxx --time -2 xxxx:0:0

12.查看topic的offset的最大值

bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list localhost:9092 -topic xxxx --time -1

?

總結

以上是生活随笔為你收集整理的Ubuntu下安装和使用zookeeper和kafka的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 日韩一区二区三区在线免费观看 | 爆操91| 亚洲精品国产精品国自产观看 | 午夜一级黄色片 | 国产日韩精品在线观看 | 色播五月激情 | 欧美日免费 | 亚洲欧美韩国 | 69久久 | 粗大的内捧猛烈进出在线视频 | 2019毛片| 丰满人妻一区二区三区53视频 | 日韩精品综合 | 影音先锋黄色资源 | 狠狠爱综合网 | 欧美国产免费 | 欧美在线不卡 | 亚洲福利专区 | 欧美一区欧美二区 | 丰满人妻一区二区三区53号 | 久久久久无码国产精品不卡 | 国产制服91一区二区三区制服 | 免费午夜网站 | 亚洲乱亚洲 | 国产乱码一区二区三区在线观看 | 日韩城人网站 | 国产一区2 | 日韩一区在线观看视频 | 公侵犯人妻一区二区 | 国产在线观看免费高清 | 亚洲中午字幕 | 影音先锋啪啪资源 | 在线cao| 免费看成人啪啪 | 日韩中文字幕av | 老司机在线永久免费观看 | 热久久免费视频 | 国产免费视频 | 国产黄视频网站 | 国产性一乱一性一伧一色 | 美女av免费看 | 亚洲欧美黄| www av | 成 人片 黄 色 大 片 | 徐锦江一级淫片免费看 | 免费高清成人 | 韩国在线不卡 | 日日麻批免费视频播放 | 青青青青青青青青草 | 国模叶桐尿喷337p人体 | 久久久久免费视频 | www.成人av.com| 午夜视频在线观看国产 | caoporn视频在线观看 | 欧美aaa一级片 | 国产极品免费 | 天堂福利在线 | 中文字幕制服丝袜 | 天堂中文在线最新 | 精品国产一区二区三区日日嗨 | 免费麻豆av | 少妇婷婷| 超碰在线伊人 | 亚洲大色| 亚洲无码精品国产 | 青青青免费在线 | 久草在在线 | yw视频在线观看 | 国产精品人人爽人人爽 | 国产三级自拍视频 | 好邻居韩国剧在线观看 | 久久视奸 | 中国免费毛片 | 天堂亚洲网 | 成人免费观看在线视频 | 西西人体www大胆高清 | 在线观看免费中文字幕 | 在线艹 | 日韩不卡免费视频 | 中文一区二区 | 牲欲强的熟妇农村老妇女视频 | 国产人妖一区二区 | 免费男女乱淫真视频免费播放 | 午夜精品久久久久久久 | 红桃视频网站 | 久久久黄色 | 亚洲国产经典 | 69久久久久 | 在线观看麻豆 | 在线观看深夜视频 | √天堂资源在线 | 一卡二卡三卡四卡 | 91麻豆国产在线观看 | 国产一区第一页 | 日韩乱码一区二区 | 亚洲欧美另类激情 | 在线观看视频一区二区 | 黄色一级a毛片 | 国产91精品欧美 |