kafka参数配置
server.properties
############################# Server Basics ############################# # The id of the broker. This must be set to a unique integer for each broker. broker.id=0341 ############################# Socket Server Settings ############################# # The port the socket server listens on port=9092 # Hostname the broker will bind to. If not set, the server will bind to all interfaces host.name=ip # 空连接的超时时间 connections.max.idle.ms=600000 # Hostname the broker will advertise to producers and consumers. If not set, it uses the # value for "host.name" if configured. Otherwise, it will use the value returned from # java.net.InetAddress.getCanonicalHostName(). #advertised.host.name=<hostname routable by clients> # The port to publish to ZooKeeper for clients to use. If this is not set, # it will publish the same port that the broker binds to. #advertised.port=<port accessible by clients> # The number of threads handling network requests num.network.threads=4 # The number of threads doing disk I/O num.io.threads=16 #socket 连接缓存大小 # The send buffer (SO_SNDBUF) used by the socket server socket.send.buffer.bytes=1048576 # The receive buffer (SO_RCVBUF) used by the socket server socket.receive.buffer.bytes=1048576 #请求最大大小 # The maximum size of a request that the socket server will accept (protection against OOM) socket.request.max.bytes=104857600 #在queue停止读取新请求之前队列允许的最大请求数量 queued.max.requests=1000 #清除consumer历史获取request记录 fetch.purgatory.purge.interval.requests=1000 #清除producer历史生成request记录 producer.purgatory.purge.interval.requests=1000 ############################# Replica Info ########################## #复制线程数 num.replica.fetchers=2 #flower最大时间没有发出获取副本的相应,leader认为其挂了,将其从同步副本中删除 replica.lag.time.max.ms=10000 #flower最多条记录,同上 replica.lag.max.messages=4000 #复制数据到leader的请求超时时间 replica.socket.timeout.ms=30000 #复制数据的socket buffer大小 replica.socket.receive.buffer.bytes=65536 #备份时每次fetch的最大值 replica.fetch.max.bytes=1048576 #leader获得复制数据请求相应的最小byte replica.fetch.min.bytes=1 #复制数据响应leader的最大时间 replica.fetch.wait.max.ms=500 #每个replica检查是否将最高水位进行固化的频率 replica.high.watermark.checkpoint.interval.ms=5000 ############################# Log Basics ############################# # A comma seperated list of directories under which to store log files log.dirs=/data/kafka_2.10-0.8.2.1/data,/data/kafka_2.10-0.8.2.1/data2,/data/kafka_2.10-0.8.2.1/data3 ############################# Log Flush Policy ############################# log.flush.interval.ms=10000 log.flush.interval.messages=20000 log.flush.scheduler.interval.ms=2000 #log.flush.offset.checkpoint.interval.ms=60000 ############################## Log Retention Policy ############################## #log.retention.minutes= #log.retention.bytes=1073741824 #默认topic保存时间 log.retention.hours=24 #log删除检查时间间隔 log.retention.check.interval.ms=300000 log.cleanup.policy=delete #log.delete.delay.ms=60000 #每个log segment允许包含offset的最大大小 log.index.size.max.bytes=10485760 #每个fetch留给offset的大小,不用理会 log.index.interval.bytes=4096 #每个log segment的最大尺寸,和时长 log.segment.bytes=1073741824 log.roll.hours=168 #log.roll.jitter.{ms,hours} log.segment.delete.delay.ms=60000 log.cleaner.enable=false #log.cleaner.threads=1 #log.cleaner.io.max.bytes.per.second=None #log.cleaner.dedupe.buffer.size=500*1024*1024 #log.cleaner.io.buffer.size=512*1024 #log.cleaner.io.buffer.load.factor=0.9 #log.cleaner.backoff.ms=15000 #log.cleaner.min.cleanable.ratio=0.5 #log.cleaner.delete.retention.ms=2 day #################################### Zookeeper ################################### zookeeper.connect=host34:2181,host36:2181,host38:2181/kafka-dirktest zookeeper.session.timeout.ms=6000 zookeeper.connection.timeout.ms=6000 zookeeper.sync.time.ms=2000 ################################## Other Settings ################################ #是否让producer建立topic auto.create.topics.enable=true default.replication.factor=2 num.partitions=4 #最小同步replica数 min.insync.replicas=2 message.max.bytes=1000000 #记录offset和file对应索引的元数据文件大小 offset.metadata.max.bytes=4096 controller.socket.timeout.ms=30000 #controller.message.queue.size=10 #关闭broker前尝试将leader partition迁移 controlled.shutdown.enable=true controlled.shutdown.max.retries=3 controlled.shutdown.retry.backoff.ms=5000 auto.leader.rebalance.enable=false #leader.imbalance.per.broker.percentage=10 #leader.imbalance.check.interval.seconds=300 #后台进程数 background.threads=10 num.recovery.threads.per.data.dir=1 #将不在isr的replica作为leader unclean.leader.election.enable=false #是否可以删除topic delete.topic.enable=true #offsets.topic.num.partitions #offsets.topic.retention.minutes #offsets.retention.check.interval.ms #offsets.topic.replication.factor #offsets.topic.segment.bytes #offsets.load.buffer.size #offsets.commit.required.acks #offsets.commit.timeout.ms
相关推荐
Kafka参数配置详解 Kafka是一种流行的分布式流处理平台,用于构建实时数据管道和事件驱动的架构。为了确保Kafka集群的稳定运行和高性能,需要正确地配置Kafka参数。本文将详细介绍Kafka的参数配置,包括系统参数、...
学习和理解 Kafka 的参数配置,对于优化 Kafka 集群的性能和稳定性至关重要。例如,调整消息批次大小、保留策略、分区数量、副本因子等参数,都可以直接影响到 Kafka 系统的性能和可靠性。在实际部署和使用 Kafka 时...
Kafka 配置调优实践是指通过调整 Kafka 集群的参数配置来提高其吞吐性能。下面是 Kafka 配置调优实践的知识点总结: 一、存储优化 * 数据目录优先存储到 XFS 文件系统或者 EXT4,避免使用 EXT3。 * 在挂载块设备时...
3. Kafka参数配置 Kafka的参数配置是影响其性能的关键因素。常见的参数包括: * `message.max.byte`:控制单个消息的最大字节数 * `default.replication.factor`:控制消息的默认复制因子 * `replica.fetch.max....
kafka生产者参数配置使用于各种编程语言重要参数已标明kafka生产者参数配置使用于各种编程语言重要参数已标明
在构建和管理大规模分布式消息系统时,...这不仅涉及到基本的配置参数,还包括集群的扩展性、容错性、性能优化和安全性等多个方面。在实际应用中,应根据业务需求和环境特点进行细致的调整,以达到最优的运行状态。
配置参数对于优化 Kafka 生产者和消费者的性能至关重要。以下是一些关键的 Kafka 生产者配置参数的详细说明: 1. **acks**: 这个参数决定了生产者等待多少个副本确认消息接收。`acks=0` 表示不等待任何确认,`acks=...
理解并合理配置这些参数对优化 Kafka 系统的性能、可靠性和可扩展性至关重要。例如,通过调整 `num.partitions` 可以增加并行处理能力,而 `auto.offset.reset` 决定了消费者在无初始偏移量时如何开始消费。同样,...
在实际使用过程中,需要对Kafka的配置参数进行详细理解,以便根据具体业务需求调整参数,优化性能。以下对Kafka主要配置参数进行详细解读: 1. broker.id:这是Kafka broker的唯一标识符,它是一个整数,用于唯一...
- **Kafka参数配置**:`kafkaParams`定义了Kafka的相关参数,包括Broker列表、消费者组ID以及自动偏移重置策略等。 - **创建Kafka数据流**:通过`KafkaUtils.createDirectStream`方法创建Kafka数据流。如果ZooKeeper...
本篇将深入探讨Kafka配置参数,帮助你理解和优化Kafka集群的运行。 1. **broker.id**: 这个参数是每个Kafka broker的唯一标识,它必须在整个集群中是唯一的。值可以是任意整数,通常从0开始。 2. **zookeeper....
本篇将深入探讨如何配置一个使用端口9091到9093的Kafka集群,并结合Zookeeper的集群配置,确保服务的稳定运行。 **Kafka集群配置** 1. **节点设置**:首先,你需要至少三个Kafka节点来构建一个基础的集群。每个...
### Kafka详细配置解析 ...以上配置项是Kafka集群中非常重要的参数,合理配置这些参数可以极大地提高Kafka系统的性能和稳定性。在实际部署过程中,还需要根据具体的业务场景和硬件环境对这些参数进行调整优化。
以下是根据提供的文件内容整理的Kafka生产者配置参数的知识点: 1. bootstrap.servers - 用途:配置生产者连接到Kafka集群的初始主机列表。 - 描述:这个列表只需包含一个或多个服务器,用于初始化连接和发现整个...
kafka配置文件zookeeper参数.md
### Kafka配置安装详解 #### 一、环境搭建与配置 Kafka是一款开源的消息队列中间件,被广泛应用于大数据处理领域。...在实际应用中,还需要根据具体需求进一步调整配置参数,以满足高性能、高可靠性的消息传输需求。
在Canal中,我们需要配置Kafka的生产者参数,这通常在`canal.properties`中的`canal.kafka.producer.bootstrap.servers`和`canal.kafka.topic`等字段进行设置,确保Canal知道如何将数据发布到Kafka。一旦配置完成,...
本篇文章将详细讲解在搭建基于Kafka_2.11-1.0.0版本的大数据框架时,如何正确配置Kafka。 1. **Kafka概述** Kafka是由LinkedIn开发并贡献给Apache的开源项目,它是一个高吞吐量、分布式的发布/订阅消息系统。Kafka...
Kafka的配置主要集中在`server.properties`文件中,主要包括以下几个核心参数: - `broker.id`: 每个Kafka节点的唯一标识,从0开始。 - `zookeeper.connect`: 指定Zookeeper集群的连接字符串,格式为`ip1:port1,ip2...
配置副本策略主要通过以下参数: 1. `num.partitions`: 默认每个Topic的分区数量,可以全局设置或在创建Topic时指定。 2. `replication.factor`: 分区的副本数量,至少为2以实现冗余。 3. `min.insync.replicas`: ...