`
bit1129
  • 浏览: 1069593 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

【Kafka十一】关于Kafka的副本管理

 
阅读更多

1. 关于request.required.acks

 

request.required.acks控制者Producer写请求的什么时候可以确认写成功,默认是0,

0表示即不进行确认即返回。

1表示Leader写成功即返回,此时还没有进行写数据同步到其它Follower Partition中

-1表示根据指定的最少Partition确认后才返回,这个在

 

This value controls when a produce request is considered completed. Specifically, how many other brokers must have committed the data to their log and acknowledged this to the leader? Typical values are

  • 0, which means that the producer never waits for an acknowledgement from the broker (the same behavior as 0.7). This option provides the lowest latency but the weakest durability guarantees (some data will be lost when a server fails).
  • 1, which means that the producer gets an acknowledgement after the leader replica has received the data. This option provides better durability as the client waits until the server acknowledges the request as successful (only messages that were written to the now-dead leader but not yet replicated will be lost).
  • -1, The producer gets an acknowledgement after all in-sync replicas have received the data. This option provides the greatest level of durability. However, it does not completely eliminate the risk of message loss because the number of in sync replicas may, in rare cases, shrink to 1. If you want to ensure that some minimum number of replicas (typically a majority) receive a write, then you must set the topic-level min.insync.replicas setting. Please read the Replication section of the design documentation for a more in-depth discussion

2. 关于min.insync.replicas

When a producer sets request.required.acks to -1, min.insync.replicas specifies the minimum number of replicas that must acknowledge a write for the write to be considered successful. If this minimum cannot be met, then the producer will raise an exception (either NotEnoughReplicas or NotEnoughReplicasAfterAppend). When used together, min.insync.replicas and request.required.acks allow you to enforce greater durability guarantees. A typical scenario would be to create a topic with a replication factor of 3, set min.insync.replicas to 2, and produce with request.required.acks of -1. This will ensure that the producer raises an exception if a majority of replicas do not receive a write.

 

 

3. 关于Lead Partition和Follower Parttiion

 

Each partition has one server which acts as the "leader" and zero or more servers which act as "followers". The leader handles all read and write requests for the partition while the followers passively replicate the leader. If the leader fails, one of the followers will automatically become the new leader. Each server acts as a leader for some of its partitions and a follower for others so load is well balanced within the cluster.

 

也就是说,读写操作都是发生在每个Partition的Lead Partition上,Follower Partition只是用来做备份以便进行失败转移

 

 

4. default.replication.factor

每个Partition有几个副本,默认是1,即只有1个副本(即不做备份)

 

 

 

 

 

 

 

分享到:
评论

相关推荐

    Kafka管理工具Kafka Tool

    2. **主题管理**:通过该工具,用户可以创建、删除、修改和查看Kafka主题,包括设置分区数量、副本数、配置参数等。同时,还可以对主题进行数据导入导出,方便数据迁移或备份。 3. **消息查看**:Kafka Tool支持...

    Apache Kafka:Kafka分区与副本机制.docx

    Apache Kafka:Kafka分区与副本机制.docx

    kafkatool 连接kafka工具

    总结来说,`kafkatool` 是一个强大而实用的 Kafka 管理工具,能够帮助开发者和运维人员更轻松地管理和监控 Kafka 集群,提高工作效率。无论是创建和管理主题、监控消费者组,还是进行数据操作,`kafkatool` 都能提供...

    kafka_topic创建、分区、删除管理

    本文将深入探讨如何管理和操作Kafka的Topic,包括创建、查看、分区以及删除等核心概念。 **创建Topic** 在Kafka中,创建Topic通常通过配置文件或者Kafka自带的命令行工具`kafka-topics.sh`进行。例如,要创建一个名...

    kafka可视化工具--kafkatool

    Kafkatool就是这样一款强大的Kafka管理工具,它提供了丰富的功能,帮助用户直观地理解和操作Kafka集群。 **Kafkatool的功能特性:** 1. **连接Kafka集群**:Kafkatool能够直接与Kafka集群建立连接,无需复杂的配置...

    kafka-manager监控管理kafka工具

    《Kafka-Manager:全方位监控与管理Kafka的利器》 Kafka-Manager是一款强大的开源工具,专为管理和监控Apache Kafka集群而设计。它由Yahoo!开发并维护,为Kafka用户提供了一种直观且易用的界面,帮助用户更好地理解...

    kafka-manager管理工具

    - **主题管理**:用户可以通过Kafka-Manager创建、删除和修改主题,包括设置分区数、副本数以及复制策略。 - **消费者组管理**:可以查看消费者的订阅关系,了解消费进度,以及对消费者组进行操作,如重分配分区等...

    kafkatool2-64bit.zip kafka管理工具

    《KafkaTool2-64bit:高效便捷的Kafka管理利器》 KafkaTool2-64bit是一款专为Kafka设计的强大管理工具,它以其64位架构提供了高效、稳定且用户友好的界面,使得对Apache Kafka集群的管理和监控变得更加简单。这款...

    Spring Boot集群管理工具KafkaAdminClient使用方法解析

    Spring Boot 集群管理工具 KafkaAdminClient 使用方法解析 KafkaAdminClient 是 Spring Boot 集群管理工具中的一部分,主要用于管理和检视 Kafka 集群中的Topic、Broker、ACL 等对象。下面将详细介绍 Kafka...

    kafka-manager-2.0.0管理工具.zip

    3. Topic管理:创建、修改和删除topic,以及调整topic的副本分布,都能在KafkaManager中一键操作。 4. 副本平衡:当Kafka集群出现副本不平衡时,KafkaManager可以进行自动或手动的副本再分配,保持集群的健康运行。...

    Kafka技术内幕:图文详解Kafka源码设计与实现+书签.pdf+源码

    8. **Zookeeper依赖**:早期版本的Kafka依赖Zookeeper来管理集群元数据,包括分区和领导选举等。但随着Kafka 2.8的发布,Kafka开始逐渐减少对Zookeeper的依赖,转向使用内置的Controller角色。 9. **安全性**:...

    kafka manager可视化管理工具

    2. **主题管理**:用户可以通过该工具创建、删除和修改Kafka的主题,包括设置分区数和副本数,以及进行重分配操作。 3. **消费者组管理**:显示消费者组的详细信息,包括消费的topic、offset等,有助于排查消费问题...

    Kafka Tool 2.0.4.zip

    2. **Topic管理**:用户可以创建、删除、修改Topic配置,查看Topic详情,包括分区数、副本数、 ISR (In-Sync Replicas) 等。此外,还可以进行数据快照、数据恢复、数据清理等操作。 3. **消费者组管理**:显示消费...

    Kafka Tool 2.0.7(linux系统)

    2. **主题管理**: 创建、删除、修改 Kafka 主题,包括设置副本数量、分区数等参数。 3. **消费者管理**: 查看消费者组的订阅状态,检查消费进度,甚至可以手动调整消费者的位移(offsets)。 4. **数据迁移**: ...

    最新版kafka kafka_2.12-2.5.1.tgz

    - **Zookeeper**: Kafka 使用 Zookeeper 进行集群协调,管理元数据和选举 Leader。 3. **Kafka 特性** - **持久化**: Kafka 可以将消息持久化到磁盘,确保消息不会丢失。 - **高吞吐量**: 通过批量发送和批量...

    Kafka尚硅谷.rar

    1. **高吞吐量**:Kafka能够在单个服务器上处理数十万条消息/秒,这得益于其高效的磁盘I/O和内存管理。 2. **持久性**:Kafka将消息持久化到磁盘,即使在服务器故障后,也能保证数据不丢失。 3. **容错性**:通过...

    kafka集群企业级管理工具

    《Kafka集群企业级管理工具深度解析》 在大数据处理领域,Apache Kafka作为一个高效、可扩展的分布式消息系统,已经成为实时数据管道的核心组件。而针对Kafka集群的管理,一个强大的企业级工具至关重要,这就是我们...

    kafka-java-demo 基于java的kafka生产消费者示例

    主题可以被分成多个分区(Partition),每个分区可以有多个副本(Replica)以实现数据冗余和高可用性。 【多线程与Kafka】 在"Kafka-java-demo"中,你可能会看到如何利用多线程来并行处理生产或消费任务,提升数据...

    Kafka详细课程讲义

    6. **Replication**: Kafka支持数据副本,以保证高可用性和容错性。 **第 4 章 Kafka API** Kafka提供了Java和Scala的客户端库,同时也有多种语言的第三方实现。API主要包括: 1. **Producer API**: 用于发送消息...

    kafka安装包-2.13-3.6.2

    7. **Zookeeper**: Kafka依赖Zookeeper进行集群协调,管理broker和topic的状态,以及消费者组的分配。 **安装Kafka** 在安装`kafka_2.13-3.6.2`时,你需要遵循以下步骤: 1. 解压下载的压缩包到指定目录。 2. ...

Global site tag (gtag.js) - Google Analytics