Start zookeeper
bin/zookeeper-server-start.sh config/zookeeper.properties
Setting up a multi-broker cluster
cp config/server.properties config/server-1.properties
cp config/server.properties config/server-2.properties
cp config/server.properties config/server-3.properties
config/server-1.properties:
broker.id=1
listeners=PLAINTEXT://:9093
log.dir=/tmp/kafka-logs-1
config/server-2.properties:
broker.id=2
listeners=PLAINTEXT://:9094
log.dir=/tmp/kafka-logs-2
config/server-3.properties:
broker.id=3
listeners=PLAINTEXT://:9094
log.dir=/tmp/kafka-logs-3
Start multi-broker cluster
bin/kafka-server-start.sh config/server-1.properties &
bin/kafka-server-start.sh config/server-2.properties &
bin/kafka-server-start.sh config/server-3.properties &
Create a topic
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic
Check topics
bin/kafka-topics.sh --list --zookeeper localhost:2181
bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
Send some messages
bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic
Start a consumer
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic my-replicated-topic
Fault-tolerance Test
Kill one Kafka process
ps aux | grep server-1.properties
kill -9 7564
Check the topic again
bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
The messages are still available for consumption even though the leader that took the writes originally is down
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic my-replicated-topic
参考:
http://kafka.apache.org/documentation/
相关推荐
《Kafka 2.12-3.6.1在Linux...然而,真正实现高可用、高性能的Kafka集群还需要深入理解和调整其内部参数,以及合理规划数据存储和网络通信策略。希望这篇指南能为你提供一个良好的起点,让你在Kafka的世界里游刃有余。
《Kafka 0.8.2.1在2.10 Scala版本中的详解与应用》 Kafka是一款高性能、分布式的消息中间件,由LinkedIn开发并开源,后来成为了Apache软件基金会的顶级项目。Kafka以其高吞吐量、持久化、分区和复制特性,广泛应用...
Kafka是一种分布式流处理平台,由LinkedIn开发并贡献给了Apache软件基金会。在版本2.8.0中,它提供了一种...理解Kafka的基本概念、安装流程、SCRAM-SHA-256认证机制以及安全策略,对于管理和操作Kafka集群至关重要。
每个分区内部保证消息的顺序,并且可以设置多个副本(Replica)以实现容错。 2. **Kafka的主要组件** - **Broker**:Kafka集群由一个或多个服务器(Broker)组成,负责存储和转发消息。 - **Producer**:生产者是...
- `zookeeper.connect`: 连接ZooKeeper的地址,用于协调Kafka集群。 - `log.dirs`: 日志文件存储的目录,Kafka会在这里保存数据。 启动Kafka服务: 4. 启动ZooKeeper服务,这是Kafka依赖的分布式协调服务。在...
- ** broker **:Kafka集群中的节点称为broker,负责存储、读取和复制消息。 2. **Kafka_2.11-2.0.0安装与配置** - **下载与解压**:首先,从官方网站或镜像站点下载kafka_2.11-2.0.0.tgz,解压缩后得到Kafka的...
Kafka 是一个分布式流处理平台,由 Apache 软件基金会开发,广泛应用于大数据实时处理、日志收集、消息系统等多个领域。`kafka_2.12-2.5.1` 是 Kafka 的一个特定版本,针对 Scala 2.12 编译,并且是版本号为 2.5.1 ...
- 创建主题并发布消息进行测试,验证安装是否成功。 #### 版本特性 Kafka 2.0.0版本主要引入了以下特性和改进: - **安全性**:增强了对SASL(简单认证与安全层)的支持,使得Kafka可以更好地集成到企业级安全...
`kafka-python`是Python社区开发的一个非常流行的Kafka客户端库,它使得Python开发者能够方便地与Apache Kafka集群进行交互。本文将围绕`kafka-python-2.0.2`这一版本,详细阐述其主要功能、安装过程以及常见用法。 ...
Kafka依赖ZooKeeper进行集群管理和元数据存储,确保ZooKeeper已经安装并运行。如果没有,可以按照ZooKeeper官方文档进行安装。 六、启动Kafka 1. 启动ZooKeeper服务。 2. 进入Kafka的bin目录,启动Kafka服务器: ...
- **消费者(Consumer)**:从Kafka集群中读取消息的应用程序,可以是单个实例或消费组的一部分。 - **消费者组(Consumer Group)**:一组消费者实例,它们共享主题中的消息,每个分区只能被组内一个消费者实例...
这个压缩包包含了运行和管理Kafka集群所需的所有组件和配置文件。 Kafka的核心特性包括: 1. **高吞吐量**: Kafka能够在单个服务器上处理数十万条消息每秒,这得益于其基于磁盘的数据存储方式和优化的I/O操作。它...
4. **可扩展性**:Kafka集群可以通过添加更多的服务器进行水平扩展,增加吞吐量和存储容量。 在Windows服务器上安装Kafka_2.12-0.10.2.0的步骤包括: 1. **解压文件**:将下载的压缩包解压到指定目录,通常推荐C...
1. **分布式特性**:Kafka集群具有高度可扩展性和容错性,可以在多台服务器上分布数据,确保服务的高可用性和数据的持久化。 2. **消息队列**:Kafka的核心功能是作为消息中间件,允许生产者发布消息到主题(topics...
8. **可扩展性**:Kafka集群可以通过添加更多的服务器进行水平扩展,以应对不断增长的数据处理需求。 在Kafka 2.6.0版本中,可能包含了以下改进和新特性: - **性能优化**:对读写速度、网络通信以及元数据管理...
4. 分布式设计:Kafka集群支持跨多个服务器部署,能自动处理节点故障。 5. 时间窗口:支持基于时间的窗口操作,适用于实时数据处理。 二、Kafka_2.12-2.8.2安装与配置 1. 下载:可以从官方网站或者其他镜像站点...
6. **Broker**:Kafka集群中的服务器节点,负责存储和转发消息。 **特性** 1. **高吞吐量**:Kafka通过批量发送和零拷贝技术实现了高效的I/O操作,从而达到每秒数十万条消息的处理能力。 2. **持久化**:Kafka将...
而分区和复制则为Kafka提供了水平扩展能力,使得多个服务器可以共同处理负载,提高了系统的可用性和容错性。 在Kafka_2.7.0这个版本中,我们可能会看到以下几个方面的改进: 1. 性能提升:每次版本迭代,Kafka都会...
Kafka 的应用场景广泛,常用于构建实时数据管道,确保数据在不同系统或应用间可靠传输,以及创建实时流应用来实时处理或回顾性分析数据流。生产者(Producers)负责将消息发送到 Kafka 集群,消费者(Consumers)则...
最后,Kafka Streams是Kafka内置的轻量级流处理库,可以直接在Kafka集群上进行流处理,避免了数据搬移的开销。在3.1.0版本中,Kafka Streams的性能和功能都得到了增强,包括更灵活的窗口操作和状态管理,使得实时...