`
flylynne
  • 浏览: 374007 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

Kafka部署及使用(单节点/集群)

阅读更多

从kafka-0.9版本及以后,kafka的消费者组和offset信息就不存zookeeper了,而是存到broker服务器上

三种安装Kafka的方式,分别为:单节点单Broker部署、单节点多Broker部署、集群部署(多节点多Broker)。实际生产环境中使用的是第三种方式,以集群的方式来部署Kafka。
Kafka强依赖ZK,如果想要使用Kafka,就必须安装ZK,Kafka中的消费偏置信息、kafka集群、topic信息会被存储在ZK中。有人可能会说我在使用Kafka的时候就没有安装ZK,那是因为Kafka内置了一个ZK,一般我们不使用它。

一、Kafka 单节点部署

Kafka中单节点部署又分为两种,一种为单节点单Broker部署,一种为单节点多Broker部署。因为是单节点的Kafka,所以在安装ZK时也只需要单节点即可。

 

安装完Zookeeper后,输入命令启动后,jps中并没有查看到QuorumPeerMain进程

1.Kafka 单节点单Broker部署及使用

部署架构

http://kafka.apache.org/quickstart

配置Kafka

参考官网:http://kafka.apache.org/quickstart

> bin/zookeeper-server-start.sh config/zookeeper.properties 启动自带的zookeeper

nohup ./bin/zookeeper-server-start.sh ./config/zookeeper.properties >> /tmp/kafka-logs/zookeeper.out  2>&1 &

1、下载Kafka并解压

  • 下载:

  • 解压:

Kafka目录介绍

  • /bin 操作kafka的可执行脚本,还包含windows下脚本

  • /config 配置文件所在目录

  • /libs 依赖库目录

  • /logs 日志数据目录,目录kafka把server端日志分为5种类型,分为:server,request,state,log-cleaner,controller

配置zookeeper

请参考zookeeper

配置kafka

1)进入kafka安装工程根目录编辑config/server.properties

kafka最为重要三个配置依次为:broker.id、log.dir、zookeeper.connect,kafka server端config/server.properties参数说明和解释如下:

broker.id=0
num.network.threads=2
num.io.threads=8
socket.send.buffer.bytes=1048576
socket.receive.buffer.bytes=1048576
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs
num.partitions=2
log.retention.hours=168

log.segment.bytes=536870912
log.retention.check.interval.ms=60000
log.cleaner.enable=false
zookeeper.connect=localhost:2181

zookeeper.connection.timeout.ms=1000000

2、启动Kafka

  • 启动

进入kafka目录,敲入命令 bin/kafka-server-start.sh config/server.properties &
nohup ./bin/kafka-server-start.sh ./config/server.properties > /tmp/kafka-logs/kafka.out 2>&1 &
  • 检测2181与9092端口

netstat -tunlp|egrep "(2181|9092)"
tcp        0      0 :::2181                     :::*                        LISTEN      19787/java          
tcp        0      0 :::9092                     :::*                        LISTEN      28094/java 

查看端口lsof -i:2181

netstat -tunlp|grep 2181 #查看zookeeper端口

说明:

Kafka的进程ID为28094,占用端口为9092

QuorumPeerMain为对应的zookeeper实例,进程ID为19787,在2181端口监听

[2019-04-12 01:25:26,175] INFO [TransactionCoordinator id=0] Starting up. (kafka.coordinator.transaction.TransactionCoordinator)
[2019-04-12 01:25:26,176] INFO [Transaction Marker Channel Manager 0]: Starting (kafka.coordinator.transaction.TransactionMarkerChannelManager)
[2019-04-12 01:25:26,176] INFO [TransactionCoordinator id=0] Startup complete. (kafka.coordinator.transaction.TransactionCoordinator)
[2019-04-12 01:25:26,200] INFO [/config/changes-event-process-thread]: Starting (kafka.common.ZkNodeChangeNotificationListener$ChangeEventProcessThread)
[2019-04-12 01:25:26,211] INFO [SocketServer brokerId=0] Started data-plane processors for 1 acceptors (kafka.network.SocketServer)
[2019-04-12 01:25:26,214] INFO Kafka version: 2.2.0 (org.apache.kafka.common.utils.AppInfoParser)
[2019-04-12 01:25:26,214] INFO Kafka commitId: 05fcfde8f69b0349 (org.apache.kafka.common.utils.AppInfoParser)
[2019-04-12 01:25:26,215] INFO [KafkaServer id=0] started (kafka.server.KafkaServer)

配置环境变量/etc/profile

# Kafka Environment Variable
export KAFKA_HOME=/opt/applications/kafka
export PATH=$PATH:$KAFKA_HOME/bin

3、单机连通性测试

创建topic

方法一:
执行linux命令:

kafka 0.9版本及以前
bin/kafka-topics.sh --create --topic test --replication-factor 1 --partitions 1 --zookeeper localhost:2181

[wls81@master kafka]$ bin/kafka-topics.sh --create --topic test --replication-factor 1 --partitions 1 --zookeeper localhost:2181
Created topic test.

kafka 0.9版本以后

bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic test

–topic指定topic name 
–partitions指定分区数,这个参数需要根据broker数和数据量决定,正常情况下,每个broker上两个partition最好; 
–replication-factor指定partition的replicas数,建议设置为2;

方法二:
开启自动创建配置:auto.create.topics.enable=true 
使用程序直接往kafka中相应的topic发送数据,如果topic不存在就会按默认配置进行创建。

查看Topic

kafka 0.9版本及以前

bin/kafka-topics.sh --list --zookeeper localhost:2181

[wls81@master kafka]$ bin/kafka-topics.sh --list --zookeeper localhost:2181
test

kafka 0.9版本以后

bin/kafka-topics.sh --list --bootstrap-server localhost:9092

启动2个XSHELL客户端,一个用于生产者发送消息,一个用于消费者接受消息。

  • 运行producer,随机敲入几个字符,相当于把这个敲入的字符消息发送给队列。

bin/kafka-console-producer.sh --broker-list 192.168.1.15:9092 --topic test

说明:早版本的Kafka,--broker-list 192.168.1.15:9092需改为--zookeeper 192.168.1.15:2181

  • 运行consumer,可以看到刚才发送的消息列表。

before kafka 0.9 version

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning  
after kafka 0.9 version
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test--from-beginning 
  • 注意:

producer,指定的Socket(192.168.1.15+9092),说明生产者的消息要发往kafka,也即是broker

consumer, 指定的Socket(192.168.1.15+2181),说明消费者的消息来自zookeeper(协调转发)

总结:–from-beginning参数如果有表示从最开始消费数据,旧的和新的数据都会被消费,而没有该参数表示只会消费新产生的数据

上面的只是一个单个的broker,下面我们来实验一个多broker的集群。

二 搭建一个多个broker的伪集群

刚才只是启动了单个broker,现在启动有3个broker组成的集群,这些broker节点也都是在本机上。

(1)为每一个broker提供配置文件

我们先看看config/server0.properties配置信息:

broker.id=0
listeners=PLAINTEXT://:9092
port=9092
host.name=192.168.1.15
num.network.threads=4
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs
num.partitions=5
num.recovery.threads.per.data.dir=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
log.cleaner.enable=false
zookeeper.connect=192.168.1.15:2181
zookeeper.connection.timeout.ms=6000
queued.max.requests =500
log.cleanup.policy = delete

server1.properties:

server2.properties:

broker.id=2
listeners=PLAINTEXT://:9094
port=9094
host.name=192.168.1.15
num.network.threads=4
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs2
num.partitions=5
num.recovery.threads.per.data.dir=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
log.cleaner.enable=false
zookeeper.connect=192.168.1.15:2181
zookeeper.connection.timeout.ms=6000
queued.max.requests =500
log.cleanup.policy = delete

(2)启动所有的broker

命令如下:

nohup ./bin/kafka-server-start.sh config/server0.properties > /tmp/kafka-logs/kafka0.out 2>&1 &  #启动broker0

nohup ./bin/kafka-server-start.sh config/server1.properties > /tmp/kafka-logs/kafka1.out 2>&1 & #启动broker1

nohup ./bin/kafka-server-start.sh config/server2.properties > /tmp/kafka-logs/kafka2.out 2>&1 & #启动broker2
>/dev/null 2>&1这样的语句

会将标准输出,错误输出都重定向至/dev/null,也就是全部丢弃

查看2181、9092、9093、9094端口

查看端口lsof -i:2181

netstat -tunlp|egrep "(2181|9092|9093|9094)"
tcp        0      0 :::9093                     :::*                        LISTEN      29725/java          
tcp        0      0 :::2181                     :::*                        LISTEN      19787/java          
tcp        0      0 :::9094                     :::*                        LISTEN      29800/java          
tcp        0      0 :::9092                     :::*                        LISTEN      29572/java  

一个zookeeper在2181端口上监听,3个kafka cluster(broker)分别在端口9092,9093,9094监听。

(3)创建topic

0.9之前的版本,创建topic

bin/kafka-topics.sh --create --topic topic_1 --partitions 1 --replication-factor 3  \--zookeeper localhost:2181

查看topic创建情况:

bin/kafka-topics.sh --list --zookeeper localhost:2181 test topic_1 topic_2 topic_3

删除topic:
./bin/kafka-topics.sh --delete --zookeeper localhost:2181 --topic topic_1

0.9之后版本,目前使用这个之后版本
创建Topic
bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 3 --partitions 1 --topic topic_new


bin/kafka-topics.sh --describe --bootstrap-server localhost:9092 --topic topic_new

[wls81@master kafka]$ bin/kafka-topics.sh --describe --bootstrap-server localhost:9092 --topic topic_new

Topic:topic_new PartitionCount:1 ReplicationFactor:3 Configs:cleanup.policy=delete,segment.bytes=1073741824

Topic: topic_new Partition: 0 Leader: 2 Replicas: 2,1,0 Isr: 2,1,0

 

下面是输出的解释。第一行给出了所有分区的摘要,每一行给出了关于一个分区的信息。因为这个主题只有一个分区,所以只有一行。


“leader”是负责给定分区的所有读写的节点。每个节点都将是分区中随机选择的部分的领导者。

“replicas”是复制此分区日志的节点列表,不管它们是领头节点还是当前活动的节点。

“ISR”是一组“同步”副本。这是副本列表的一个子集,当前处于活动状态并被领导者捕获。

注意,在我的示例中,节点2是主题唯一分区的前导。

(4)发送消息:

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic topic_new

> bin/kafka-console-producer.sh --broker-list localhost:9092 --topic topic_new
...
my test message 1
my test message 2
^C

接受消息

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic topic_new

> bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic topic_new
...
my test message 1
my test message 2
^C

需要注意,此时producer将topic发布到了3个broker中,现在就有点分布式的概念了。


(5)测试一下容错性
broker 1是领导者,所以让我们杀了它

[wls81@master logs]$ ps aux | grep server2.properties

wls81 6910 2.1 2.5 8201816 416932 pts/2 Sl 00:42 0:15 /

...

[wls81@master logs]$ kill -9 6910

Leadership已切换到其中一个追随者节点1,节点2不再位于同步副本集中:

[wls81@master kafka]$ bin/kafka-topics.sh --describe --bootstrap-server localhost:9092 --topic topic_new

Topic:topic_new PartitionCount:1 ReplicationFactor:3 Configs:cleanup.policy=delete,segment.bytes=1073741824

Topic: topic_new Partition: 0 Leader: 1 Replicas: 2,1,0 Isr: 1,0

但是这些消息仍然可以被使用,即使最初记录这些内容的领导者已经下了

发送消息为

wls81@master kafka]$ bin/kafka-console-producer.sh --broker-list localhost:9092 --topic topic_new

>dsaf

>test

>Kill leader2,and then operation

>

消费消息:中间部分为删除Leader2造成的

[wls81@master kafka]$ bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic topic_new

dsaf

test

[2019-04-13 00:55:11,758] WARN [Consumer clientId=consumer-1, groupId=console-consumer-1287] Connection to node 2 (/192.168.1.15:9094) could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)

[2019-04-13 00:55:11,921] WARN [Consumer clientId=consumer-1, groupId=console-consumer-1287] Connection to node 2 (/192.168.1.15:9094) could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)

[2019-04-13 00:55:12,126] WARN [Consumer clientId=consumer-1, groupId=console-consumer-1287] Connection to node 2 (/192.168.1.15:9094) could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)

[2019-04-13 00:55:12,632] WARN [Consumer clientId=consumer-1, groupId=console-consumer-1287] Connection to node 2 (/192.168.1.15:9094) could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)

[2019-04-13 00:55:13,537] WARN [Consumer clientId=consumer-1, groupId=console-consumer-1287] Connection to node 2 (/192.168.1.15:9094) could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)

[2019-04-13 00:55:14,446] WARN [Consumer clientId=consumer-1, groupId=console-consumer-1287] Connection to node 2 (/192.168.1.15:9094) could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)

[2019-04-13 00:55:15,325] WARN [Consumer clientId=consumer-1, groupId=console-consumer-1287] Connection to node 2 (/192.168.1.15:9094) could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)

[2019-04-13 00:55:16,334] WARN [Consumer clientId=consumer-1, groupId=console-consumer-1287] Connection to node 2 (/192.168.1.15:9094) could not be established. Broker may not be available. (org.apache.kafka.clients.NetworkClient)

Kill leader2,and then operation

 

import/export data

Kafka Connect是Kafka附带的一个工具,用于将数据导入和导出到Kafka。它是一个可扩展的工具,运行连接器,实现与外部系统交互的自定义逻辑。在这个快速启动中,我们将看到如何使用简单的连接器运行Kafka Connect,这些连接器将数据从文件导入到Kafka主题,并将数据从Kafka主题导出到文件

创建测试数据

[wls81@master kafka]$ echo -e "foo\nbar" > test.txt

[wls81@master kafka]$ pwd

/opt/applications/kafka

我们将启动两个以独立模式运行的连接器,这意味着它们在一个单独的、本地的、专用的进程中运行。

我们提供三个配置文件作为参数。第一个始终是Kafka连接进程的配置,包含公共配置,如要连接的Kafka代理和数据的序列化格式。其余的配置文件都指定要创建的连接器。

这些文件包括唯一的连接器名称、要实例化的连接器类以及连接器所需的任何其他配置。

bin/connect-standalone.sh config/connect-standalone.properties config/connect-file-source.properties config/connect-file-sink.properties

输出内容:

[2019-04-14 23:31:33,339] INFO Kafka commitId: 05fcfde8f69b0349 (org.apache.kafka.common.utils.AppInfoParser:110)

[2019-04-14 23:31:33,341] INFO Created connector local-file-sink (org.apache.kafka.connect.cli.ConnectStandalone:110)

[2019-04-14 23:31:33,342] INFO [Consumer clientId=consumer-1, groupId=connect-local-file-sink] Subscribed to topic(s): connect-test (org.apache.kafka.clients.consumer.KafkaConsumer:936)

[2019-04-14 23:31:33,342] INFO WorkerSinkTask{id=local-file-sink-0} Sink task finished initialization and start (org.apache.kafka.connect.runtime.WorkerSinkTask:301)

[2019-04-14 23:31:33,346] INFO Cluster ID: zHJkKjVvQd6TaV1K97QBYQ (org.apache.kafka.clients.Metadata:365)

[2019-04-14 23:31:33,347] INFO [Consumer clientId=consumer-1, groupId=connect-local-file-sink] Discovered group coordinator 192.168.1.15:9092 (id: 2147483647 rack: null) (org.apache.kafka.clients.consumer.internals.AbstractCoordinator:675)

[2019-04-14 23:31:33,348] INFO [Consumer clientId=consumer-1, groupId=connect-local-file-sink] Revoking previously assigned partitions [] (org.apache.kafka.clients.consumer.internals.ConsumerCoordinator:459)

[2019-04-14 23:31:33,348] INFO [Consumer clientId=consumer-1, groupId=connect-local-file-sink] (Re-)joining group (org.apache.kafka.clients.consumer.internals.AbstractCoordinator:491)

[2019-04-14 23:31:33,352] INFO [Consumer clientId=consumer-1, groupId=connect-local-file-sink] (Re-)joining group (org.apache.kafka.clients.consumer.internals.AbstractCoordinator:491)

[2019-04-14 23:31:33,356] INFO [Consumer clientId=consumer-1, groupId=connect-local-file-sink] Successfully joined group with generation 5 (org.apache.kafka.clients.consumer.internals.AbstractCoordinator:455)

[2019-04-14 23:31:33,357] INFO [Consumer clientId=consumer-1, groupId=connect-local-file-sink] Setting newly assigned partitions: connect-test-0 (org.apache.kafka.clients.consumer.internals.ConsumerCoordinator:290)

[2019-04-14 23:31:33,364] INFO [Consumer clientId=consumer-1, groupId=connect-local-file-sink] Resetting offset for partition connect-test-0 to offset 0. (org.apache.kafka.clients.consumer.internals.Fetcher:584)

[2019-04-14 23:31:43,310] INFO WorkerSourceTask{id=local-file-source-0} Committing offsets (org.apache.kafka.connect.runtime.WorkerSourceTask:398)

[2019-04-14 23:31:43,310] INFO WorkerSourceTask{id=local-file-source-0} flushing 0 outstanding messages for offset commit (org.apache.kafka.connect.runtime.WorkerSourceTask:415)

[2019-04-14 23:31:43,317] INFO WorkerSourceTask{id=local-file-source-0} Finished commitOffsets successfully in 7 ms (org.apache.kafka.connect.runtime.WorkerSourceTask:497)

[2019-04-14 23:31:43,341] INFO WorkerSinkTask{id=local-file-sink-0} Committing offsets asynchronously using sequence number 1: {connect-test-0=OffsetAndMetadata{offset=2, leaderEpoch=null, metadata=''}} (org.apache.kafka.connect.runtime.WorkerSinkTask:344)

这些示例配置文件(包含在Kafka中)使用之前启动的默认本地集群配置并创建两个连接器:第一个是源连接器,它从输入文件读取行,并将每个行生成到Kafka主题;第二个是接收连接器,它从Kafka主题读取消息,并将每个消息生成输出文件的行

在启动期间,您将看到许多日志消息,包括一些指示连接器正在被实例化的消息。一旦kafka connect进程启动,源连接器应开始读取test.txt中的行并将其生成到主题连接测试,而接收器连接器应开始读取主题连接测试中的消息并将其写入文件test.sink.txt。

我们可以通过检查输出文件的内容来验证数据已通过整个管道传递:

 

[wls81@master kafka]$ more test.sink.txt

 

foo

 

bar

 

[wls81@master kafka]$ pwd

 

/opt/applications/kafka

 

 

注意,数据存储在Kafka Topic Connect测试中,因此我们还可以运行控制台使用者来查看主题中的数据

[wls81@master kafka]$ bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic connect-test --from-beginning

{"schema":{"type":"string","optional":false},"payload":"foo"}

{"schema":{"type":"string","optional":false},"payload":"bar"}

连接器继续处理数据,因此我们可以将数据添加到文件中,并看到它在管道中移动:

[wls81@master kafka]$ echo Another line2>> test.txt

[wls81@master kafka]$ echo Another line3>> test.txt

[wls81@master kafka]$

 

[wls81@master kafka]$ tail -f test.sink.txt
foo
bar
fdasd

dfa
test
taet

Another line
Another line2
Another line3

分享到:
评论

相关推荐

    快速部署单机kafka集群(win环境)

    kafka集群类型: single broker(单节点单boker集群,亦即kafka只启一个broker消息中间件服务,producer、consumer、broker均通过zookeeper集群交换消息,具体可参考:http://exp-blog.com/2018/08/03/pid-2187/

    Zookeeper以及kafka单节点发、服务部署

    ### Zookeeper及Kafka单节点部署详解 #### 一、Zookeeper单节点部署步骤与原理 **1. 安装介质准备** 为了部署Zookeeper单节点环境,首先需要下载安装包,官方提供的下载链接为:...

    使用sasl的kafka集群的搭建使用

    在搭建使用SASL机制的Kafka集群时,需要进行环境配置,包括下载最新版本的Kafka压缩包,并上传到指定的节点进行解压。接下来,需要编辑配置文件,例如`server.properties`文件,并设置必要的参数,如代理ID(broker....

    kafka部署和使用详尽PDF

    《Kafka部署与使用详解》 Kafka是一种分布式流处理平台,广泛应用于大数据实时处理、日志收集、消息系统等领域。这份详尽的PDF文档详细介绍了如何在Linux环境下部署和使用Kafka,包括单机部署和集群部署。 一、...

    Kafka集群配置样例_3节点_源码

    **Kafka集群配置详解——基于3节点实例** 在大数据处理领域,Apache Kafka作为一个高吞吐量、分布式的发布订阅消息系统,被广泛应用于实时数据流处理。本篇将详细解析如何在Linux环境下配置一个3节点的Kafka集群,...

    Kafka集群搭建(3台机)

    对于Zookeeper的配置,需要编辑zoo.cfg文件,设置几个关键的参数,例如tickTime、initLimit、syncLimit、dataDir、dataLogDir、clientPort以及集群中各节点的通信地址等。特别要注意的是,集群中每台服务器都有一个...

    Kafka集群及Kafka-Manager安装部署.docx

    ### Kafka集群及Kafka-Manager安装部署 #### 一、Kafka集群的安装与配置 **1. 工作环境准备** - **JDK**:确保安装了JDK 1.8.0_60版本。这一步骤至关重要,因为Kafka依赖于Java运行时环境。 - **Zookeeper**...

    kafka 部署成windows服务

    将Kafka部署在Windows服务器上并作为服务运行,可以方便地管理和监控Kafka实例。 在Windows上部署Kafka服务,首先需要安装Zookeeper。Zookeeper是Kafka集群中的关键组件,负责管理集群的状态信息,如选举主节点、...

    kafka集群部署步骤

    ### Kafka集群部署步骤详解 #### 一、安装Java环境(JDK 1.8) Kafka作为基于Java语言开发的消息中间件,其运行环境需要Java支持。为了确保Kafka能够正常运行,首先需要在每台服务器上安装Java环境。推荐使用JDK ...

    liunx安装kafka及集群部署

    ### 在Linux下安装Kafka及集群部署 #### 一、Kafka简介与下载 Kafka是一种高吞吐量的分布式发布订阅消息系统,它最初由LinkedIn公司开发,后来成为Apache项目的一部分。Kafka的设计目标是提供一种高吞吐量、低延迟...

    LinuxLinux部署kafka集群

    在Linux环境下部署Kafka集群,首先需要安装和配置几个关键组件,包括Java Development Kit (JDK),ZooKeeper,以及Kafka本身。下面将详细介绍这个过程。 1. **Java Development Kit (JDK)** Kafka运行在Java平台上...

    第10单元 Kafka集群部署1

    - **集群规划**:在本例中,我们计划部署一个包含三个节点的Kafka集群,节点IP分别为192.168.73.200, 192.168.73.201, 和192.168.73.202。每个节点都需要安装JDK和Zookeeper,并配置相应的Kafka服务。 - **JAR包...

    kafka部署操作.zip

    本压缩包"Kafka部署操作.zip"提供了一个完整的指南,包括了Zookeeper的安装包和Kafka的安装包,以及相关的部署操作文档,非常适合初学者学习和实践。 首先,我们要了解Zookeeper。Zookeeper是一个分布式协调服务,...

    Kafka分布式集群安装部署.doc

    Kafka分布式集群安装部署 Kafka是一个流行的分布式消息队列系统,广泛应用于大数据处理、实时数据处理和流处理等领域。为了确保Kafka的高可用性和可靠性,需要安装和部署分布式集群。本文将详细介绍Kafka分布式集群...

    4.2 kafka部署和使用1

    【Kafka部署与使用】 Kafka是一个分布式流处理平台,由Apache软件基金会开发,用于构建实时数据管道和流应用。本篇文章将详细介绍如何在单机和集群环境下部署及使用Kafka。 ### 一、单机部署 1. **规划与环境准备...

    bitnami版本的zookeeper和kafka的docker-compose配置

    这个Docker Compose 文件定义了一个包含Zookeeper和三个Kafka节点的服务集群。通过指定镜像、端口映射、环境变量和依赖关系等配置,实现了Zookeeper和Kafka的快速部署和集成。同时,在定义了一个名为"mynetwork"的...

    kafka、Zk 集群部署技术手册v0.1.docx

    kafka 和 Zookeeper 集群部署技术手册 本文档旨在指导读者一步步搭建 Kafka 和 Zookeeper 集群的部署,涵盖了集群搭建、配置、启动等方面的详细信息。通过阅读本文档,读者可以快速搭建起一个功能齐全的 Kafka 和 ...

    kafka集群搭建文档

    生产环境中,需要对Kafka集群进行监控,检查Zookeeper状态、Kafka的消费和生产速率、磁盘使用情况等,以确保系统的健康运行。 在实际部署过程中,还需要考虑网络拓扑、安全性、监控系统以及备份恢复策略等,以确保...

    kakfa,kafka集群安装部署全量安装包

    **Kafka集群安装部署全量指南** Apache Kafka是一款开源流处理平台,由LinkedIn开发并贡献给了Apache软件基金会。它设计为一个高吞吐量、分布式的消息队列系统,用于处理实时数据流。Kafka通常与ZooKeeper一起使用...

    kafka部署日志(含安装包).zip

    **Kafka部署与安装详解** Kafka是一款分布式流处理平台,由LinkedIn开发并贡献给了Apache软件基金会。它被广泛用于实时数据管道构建,允许应用程序高效地发布和订阅大量数据流。在本篇中,我们将详细讲解如何在...

Global site tag (gtag.js) - Google Analytics