1.修改kafka配置文件
broker.id=0 zookeeper.connect=192.168.1.10:2181,192.168.1.12:2181,192.168.1.13:2181/kafka
说明:
默认Kafka会使用ZooKeeper默认的/路径,这样有关Kafka的ZooKeeper配置就会散落在根路径下面,如果 你有其他的应用也在使用ZooKeeper集群,查看ZooKeeper中数据可能会不直观,所以强烈建议指定一个chroot路径,直接在 zookeeper.connect配置项中指定。
而且,需要手动在ZooKeeper中创建路径/kafka,使用如下命令连接到任意一台 ZooKeeper服务器:
cd ~/zookeeper bin/zkCli.sh create /kafka '' 在ZooKeeper执行如下命令创建chroot路径。 这样,每次连接Kafka集群的时候(使用--zookeeper选项),也必须使用带chroot路径的连接字符串,后面会看到。
2.创建topic
bin/kafka-topics.sh --create --zookeeper 192.168.1.11:2181,192.168.1.12:2181,192.168.1.13:2181/kafka --replication-factor 2 --partitions 3 --topic TEST_123
说明:
上面是创建了一个名为:test-topic的topic,分区数为3,副本数2
3.查看topic
bin/kafka-topics.sh --describe --zookeeper 192.168.1.11:2181,192.168.1.12:2181,192.168.1.13:2181/kafka
说明:
上面是查看zk集群上,当前所有topic的详细情况,如下图:
上面Leader、Replicas、Isr的含义如下:
1 Partition: 分区
2 Leader : 负责读写指定分区的节点
3 Replicas : 复制该分区log的节点列表
4 Isr : “in-sync” replicas,当前活跃的副本列表(是一个子集),并且可能成为Leader
我们可以通过Kafka自带的bin/kafka-console-producer.sh和bin/kafka-console-consumer.sh脚本,来验证演示如果发布消息、消费消息。
4.生产消息命令
bin/kafka-console-producer.sh --broker-list 192.168.1.12:9092, 192.168.1.13:9092, 192.168.1.14:9092 --topic TEST_123
说明:
在上面的kafka broker上的topic上生产消息
5.消费消息命令
bin/kafka-console-consumer.sh --zookeeper 192.168.169.91:2181,192.168.1.12:2181,192.168.169.93:2181/kafka --from-beginning --topic TEST_123
说明:
可以在Producer终端上输入字符串消息行,就可以在Consumer终端上看到消费者消费的消息内容。
也可以参考Kafka的Producer和Consumer的Java API,通过API编码的方式来实现消息生产和消费的处理逻辑。
6.启动集群命令
bin/kafka-server-start.sh config/server.properties &
7.停止集群命令
bin/kafka-server-stop.sh
8.删除一个topic
bin/kafka-topics.sh --delete --zookeeper 192.168.1.11:2181/kafka --topic TEST_123
说明:
(1)配置文件server.properties中必须设置delete.topic.enable=true,否则只会标记为删除,而不是真正删除。
(2)执行此脚本的时候,topic的数据会同时被删除。如果由于某些原因导致topic的数据不能完全删除(如其中一个broker down了),此时topic只会被marked for deletion,而不会真正删除。此时创建同名的topic会有冲突。
9.修改topic
(1)修改分区数量:
bin/kafka-topics.sh --alter --zookeeper 192.168.1.11:2181/kafka --topic TEST_123 --partitions 4
(2)增加、修改或者删除一个配置参数:
bin/kafka-topics.sh —alter --zookeeper 192.168.1.11:2181/kafka --topic TESt_123 --config key=value bin/kafka-topics.sh —alter --zookeeper 192.168.1.11:2181/kafka --topic my_topic_name --deleteConfig key
相关推荐
搭建Kafka集群涉及到对虚拟机的安装配置、JDK环境的搭建、Zookeeper的安装配置等关键步骤。下面详细介绍各个知识点。 首先,虚拟机的安装是搭建Kafka集群的基础。文中提到了使用VMWare来安装三台虚拟机,并分配了...
### Kafka 常用操作命令解析 #### 一、启动Kafka服务 **命令:** ```bash kafka-server-start.sh config/server.properties ``` **解释:** 此命令用于启动Kafka服务。其中`kafka-server-start.sh`是启动脚本,`...
kafka集群搭建方案 kafka集群搭建是大数据处理和实时数据处理的重要组件。下面是kafka集群搭建的详细方案: 一、准备工作 1. 关闭防火墙 关闭防火墙是kafka集群搭建的前提条件。可以使用systemctl disable ...
【Kafka集群搭建及测试】 Kafka是一种分布式流处理平台,常用于实时数据处理和大数据管道。本文档将详细介绍如何在三台Ubuntu 16虚拟机上搭建Kafka集群,并进行基本的测试,确保其正常运行。 **1. 准备工作** 在...
### Kafka集群部署步骤详解 #### 一、安装Java环境(JDK 1.8) Kafka作为基于Java语言开发的消息中间件,其运行环境需要Java支持。为了确保Kafka能够正常运行,首先需要在每台服务器上安装Java环境。推荐使用JDK ...
本文档将涵盖从Zookeeper集群的搭建到Kafka集群的具体配置,以及一些基本的操作命令,如创建主题、发布消息等。 #### 二、Kafka集群简介 Kafka集群通常由多个Broker组成,其中Broker是Kafka的基本服务单元,负责...
五、常用的Kafka操作命令 1、查询Linux操作系统版本信息 输入"uname -a ",可显示电脑以及操作系统的相关信息;输入"cat /proc/version",说明正在运行的内核版本;输入"cat /etc/issue", 显示的是发行版本信息;...
### Kafka的常用命令集锦 ...以上就是Kafka常用的命令集锦,这些命令涵盖了Kafka的基本管理和操作流程,对于快速上手Kafka具有重要的参考价值。在实际使用过程中,可以根据具体需求进一步探索更多高级特性。
### Kafka 3.2 常用命令详解 #### 一、启动 ZooKeeper 服务 在启动 Kafka 之前,必须先启动 ZooKeeper 服务。ZooKeeper 为 Kafka 提供了...熟练掌握这些命令可以帮助开发者和运维人员更高效地管理和使用 Kafka 集群。
### Kafka集群及Kafka-Manager安装部署 ...通过上述步骤,可以成功地在本地环境中搭建起Kafka集群以及Kafka-Manager,并进行基本的消息生产和消费操作。这对于理解Kafka的工作原理、实现高效的数据流处理非常有帮助。
在本文中,我们将深入探讨如何将Kafka集群与Zookeeper集群整合配置,以实现稳定可靠的运行环境。 首先,理解Zookeeper的角色。Zookeeper在Kafka中的主要职责包括: 1. **元数据存储**:Kafka的 Topic、Partition、...
搭建Kafka集群是一个涉及多个步骤的过程,每个步骤都需要仔细操作以确保集群的稳定性和可靠性。正确配置Zookeeper是整个流程的关键,因为它为Kafka提供了选举和一致性保证。一旦Zookeeper集群成功运行,你就可以开始...
在部署Kafka集群之前,需要了解环境信息,包括主机名、操作系统、IP地址等。此外,需要安装JDK 1.8和Kafka 2.11-0.11.0.1。 二、JDK安装 JDK是Java Development Kit的缩写,用于编译和运行Java程序。在本文档中,...
1. **Kafka集群架构**: Kafka是一个分布式流处理平台,它被广泛用于实时数据处理和消息传递。集群由多个 broker 组成,每个 broker 存储一部分 topic 的分区,并通过 zookeeper 进行协调和管理。理解集群中的角色...
【Kafka集群搭建详解】 Apache Kafka是一个分布式流处理平台,常用于实时数据处理和消息传递。本教程将详细介绍如何在CentOS 6.5环境下搭建Kafka集群,使用的版本为kafka_2.10-0.10.0.0,依赖JDK 1.8.0_172。集群将...
【Kafka集群部署详解】 Apache Kafka是一个分布式流处理平台,用于构建实时数据管道和流应用。在本单元中,我们将探讨如何部署一个Kafka集群,包括集群规划、环境准备、Kafka与Zookeeper的配置以及集群的启动和管理...
在Windows环境下搭建Kafka集群可以帮助开发者在本地环境中快速测试和开发相关的流处理应用。以下是一份详细的步骤指南,帮助你了解如何在Windows上安装并运行Kafka集群。 1. **获取和解压Kafka** 首先,你需要从...
介绍 今天来实现一个Storm数据流处理综合案例的第一部分,Storm集群向Kafka集群源源不断写入数据...Zookeeper启动需要一定时间,建议等一分钟再操作其他命令 cd /usr/local/kafka/zookeeper ./bin/zkServer.sh start