`

kafka参数配置

阅读更多

kafka参数配置

server.properties

############################# Server Basics #############################

# The id of the broker. This must be set to a unique integer for each broker.
broker.id=0341

############################# Socket Server Settings #############################

# The port the socket server listens on
port=9092

# Hostname the broker will bind to. If not set, the server will bind to all interfaces
host.name=ip
# 空连接的超时时间
connections.max.idle.ms=600000

# Hostname the broker will advertise to producers and consumers. If not set, it uses the
# value for "host.name" if configured.  Otherwise, it will use the value returned from
# java.net.InetAddress.getCanonicalHostName().
#advertised.host.name=<hostname routable by clients>

# The port to publish to ZooKeeper for clients to use. If this is not set,
# it will publish the same port that the broker binds to.
#advertised.port=<port accessible by clients>

# The number of threads handling network requests
num.network.threads=4
 
# The number of threads doing disk I/O
num.io.threads=16

#socket 连接缓存大小
# The send buffer (SO_SNDBUF) used by the socket server
socket.send.buffer.bytes=1048576
# The receive buffer (SO_RCVBUF) used by the socket server
socket.receive.buffer.bytes=1048576

#请求最大大小
# The maximum size of a request that the socket server will accept (protection against OOM)
socket.request.max.bytes=104857600

#在queue停止读取新请求之前队列允许的最大请求数量
queued.max.requests=1000
#清除consumer历史获取request记录
fetch.purgatory.purge.interval.requests=1000
#清除producer历史生成request记录
producer.purgatory.purge.interval.requests=1000

############################# Replica Info ##########################
#复制线程数
num.replica.fetchers=2
#flower最大时间没有发出获取副本的相应,leader认为其挂了,将其从同步副本中删除
replica.lag.time.max.ms=10000
#flower最多条记录,同上
replica.lag.max.messages=4000
#复制数据到leader的请求超时时间
replica.socket.timeout.ms=30000
#复制数据的socket buffer大小
replica.socket.receive.buffer.bytes=65536
#备份时每次fetch的最大值
replica.fetch.max.bytes=1048576
#leader获得复制数据请求相应的最小byte
replica.fetch.min.bytes=1
#复制数据响应leader的最大时间
replica.fetch.wait.max.ms=500
#每个replica检查是否将最高水位进行固化的频率
replica.high.watermark.checkpoint.interval.ms=5000

############################# Log Basics #############################

# A comma seperated list of directories under which to store log files
log.dirs=/data/kafka_2.10-0.8.2.1/data,/data/kafka_2.10-0.8.2.1/data2,/data/kafka_2.10-0.8.2.1/data3

############################# Log Flush Policy #############################

log.flush.interval.ms=10000
log.flush.interval.messages=20000
log.flush.scheduler.interval.ms=2000
#log.flush.offset.checkpoint.interval.ms=60000

############################## Log Retention Policy ##############################

#log.retention.minutes=
#log.retention.bytes=1073741824
#默认topic保存时间
log.retention.hours=24
#log删除检查时间间隔
log.retention.check.interval.ms=300000
log.cleanup.policy=delete
#log.delete.delay.ms=60000

#每个log segment允许包含offset的最大大小
log.index.size.max.bytes=10485760
#每个fetch留给offset的大小,不用理会
log.index.interval.bytes=4096
#每个log segment的最大尺寸,和时长
log.segment.bytes=1073741824
log.roll.hours=168
#log.roll.jitter.{ms,hours}
log.segment.delete.delay.ms=60000

log.cleaner.enable=false
#log.cleaner.threads=1
#log.cleaner.io.max.bytes.per.second=None
#log.cleaner.dedupe.buffer.size=500*1024*1024
#log.cleaner.io.buffer.size=512*1024
#log.cleaner.io.buffer.load.factor=0.9
#log.cleaner.backoff.ms=15000
#log.cleaner.min.cleanable.ratio=0.5
#log.cleaner.delete.retention.ms=2 day

#################################### Zookeeper ###################################

zookeeper.connect=host34:2181,host36:2181,host38:2181/kafka-dirktest
zookeeper.session.timeout.ms=6000
zookeeper.connection.timeout.ms=6000
zookeeper.sync.time.ms=2000

################################## Other Settings ################################
#是否让producer建立topic
auto.create.topics.enable=true

default.replication.factor=2
num.partitions=4

#最小同步replica数
min.insync.replicas=2

message.max.bytes=1000000
#记录offset和file对应索引的元数据文件大小
offset.metadata.max.bytes=4096

controller.socket.timeout.ms=30000
#controller.message.queue.size=10

#关闭broker前尝试将leader partition迁移
controlled.shutdown.enable=true
controlled.shutdown.max.retries=3
controlled.shutdown.retry.backoff.ms=5000

auto.leader.rebalance.enable=false
#leader.imbalance.per.broker.percentage=10
#leader.imbalance.check.interval.seconds=300

#后台进程数
background.threads=10

num.recovery.threads.per.data.dir=1
#将不在isr的replica作为leader
unclean.leader.election.enable=false
#是否可以删除topic
delete.topic.enable=true


#offsets.topic.num.partitions
#offsets.topic.retention.minutes
#offsets.retention.check.interval.ms
#offsets.topic.replication.factor
#offsets.topic.segment.bytes
#offsets.load.buffer.size
#offsets.commit.required.acks
#offsets.commit.timeout.ms

 

 

分享到:
评论

相关推荐

    kafka参数配置详解

    Kafka参数配置详解 Kafka是一种流行的分布式流处理平台,用于构建实时数据管道和事件驱动的架构。为了确保Kafka集群的稳定运行和高性能,需要正确地配置Kafka参数。本文将详细介绍Kafka的参数配置,包括系统参数、...

    kafka笔记参数说明

    学习和理解 Kafka 的参数配置,对于优化 Kafka 集群的性能和稳定性至关重要。例如,调整消息批次大小、保留策略、分区数量、副本因子等参数,都可以直接影响到 Kafka 系统的性能和可靠性。在实际部署和使用 Kafka 时...

    kafka配置调优实践

    Kafka 配置调优实践是指通过调整 Kafka 集群的参数配置来提高其吞吐性能。下面是 Kafka 配置调优实践的知识点总结: 一、存储优化 * 数据目录优先存储到 XFS 文件系统或者 EXT4,避免使用 EXT3。 * 在挂载块设备时...

    kafka生产实践(详解)

    3. Kafka参数配置 Kafka的参数配置是影响其性能的关键因素。常见的参数包括: * `message.max.byte`:控制单个消息的最大字节数 * `default.replication.factor`:控制消息的默认复制因子 * `replica.fetch.max....

    kafka生产者-实例参数配置.md

    kafka生产者参数配置使用于各种编程语言重要参数已标明kafka生产者参数配置使用于各种编程语言重要参数已标明

    kafka集群配置文件

    在构建和管理大规模分布式消息系统时,...这不仅涉及到基本的配置参数,还包括集群的扩展性、容错性、性能优化和安全性等多个方面。在实际应用中,应根据业务需求和环境特点进行细致的调整,以达到最优的运行状态。

    Kafka 相关配置参数

    配置参数对于优化 Kafka 生产者和消费者的性能至关重要。以下是一些关键的 Kafka 生产者配置参数的详细说明: 1. **acks**: 这个参数决定了生产者等待多少个副本确认消息接收。`acks=0` 表示不等待任何确认,`acks=...

    kafka 配置文件

    理解并合理配置这些参数对优化 Kafka 系统的性能、可靠性和可扩展性至关重要。例如,通过调整 `num.partitions` 可以增加并行处理能力,而 `auto.offset.reset` 决定了消费者在无初始偏移量时如何开始消费。同样,...

    kafka配置参数详解 - 网络技术

    在实际使用过程中,需要对Kafka的配置参数进行详细理解,以便根据具体业务需求调整参数,优化性能。以下对Kafka主要配置参数进行详细解读: 1. broker.id:这是Kafka broker的唯一标识符,它是一个整数,用于唯一...

    SparkStreaming和kafka的整合.pdf

    - **Kafka参数配置**:`kafkaParams`定义了Kafka的相关参数,包括Broker列表、消费者组ID以及自动偏移重置策略等。 - **创建Kafka数据流**:通过`KafkaUtils.createDirectStream`方法创建Kafka数据流。如果ZooKeeper...

    Kafka配置参数详解 - 网络技术.rar_KAFKA broker_Kafka配置参数详解_kafka

    本篇将深入探讨Kafka配置参数,帮助你理解和优化Kafka集群的运行。 1. **broker.id**: 这个参数是每个Kafka broker的唯一标识,它必须在整个集群中是唯一的。值可以是任意整数,通常从0开始。 2. **zookeeper....

    cluster-kafka集群配置9091-9093

    本篇将深入探讨如何配置一个使用端口9091到9093的Kafka集群,并结合Zookeeper的集群配置,确保服务的稳定运行。 **Kafka集群配置** 1. **节点设置**:首先,你需要至少三个Kafka节点来构建一个基础的集群。每个...

    kafka详细配置

    ### Kafka详细配置解析 ...以上配置项是Kafka集群中非常重要的参数,合理配置这些参数可以极大地提高Kafka系统的性能和稳定性。在实际部署过程中,还需要根据具体的业务场景和硬件环境对这些参数进行调整优化。

    kafka中文文档producer配置参数

    以下是根据提供的文件内容整理的Kafka生产者配置参数的知识点: 1. bootstrap.servers - 用途:配置生产者连接到Kafka集群的初始主机列表。 - 描述:这个列表只需包含一个或多个服务器,用于初始化连接和发现整个...

    kafka配置文件zookeeper参数.md

    kafka配置文件zookeeper参数.md

    kafka配置安装详解

    ### Kafka配置安装详解 #### 一、环境搭建与配置 Kafka是一款开源的消息队列中间件,被广泛应用于大数据处理领域。...在实际应用中,还需要根据具体需求进一步调整配置参数,以满足高性能、高可靠性的消息传输需求。

    Canal 监听 Mysql 自动写入 Kafka 并消费 配置 Windows 版

    在Canal中,我们需要配置Kafka的生产者参数,这通常在`canal.properties`中的`canal.kafka.producer.bootstrap.servers`和`canal.kafka.topic`等字段进行设置,确保Canal知道如何将数据发布到Kafka。一旦配置完成,...

    kafka配置文件

    本篇文章将详细讲解在搭建基于Kafka_2.11-1.0.0版本的大数据框架时,如何正确配置Kafka。 1. **Kafka概述** Kafka是由LinkedIn开发并贡献给Apache的开源项目,它是一个高吞吐量、分布式的发布/订阅消息系统。Kafka...

    Kafka、Zookeeper集群配置

    Kafka的配置主要集中在`server.properties`文件中,主要包括以下几个核心参数: - `broker.id`: 每个Kafka节点的唯一标识,从0开始。 - `zookeeper.connect`: 指定Zookeeper集群的连接字符串,格式为`ip1:port1,ip2...

    Kafka集群配置样例_3节点_源码

    配置副本策略主要通过以下参数: 1. `num.partitions`: 默认每个Topic的分区数量,可以全局设置或在创建Topic时指定。 2. `replication.factor`: 分区的副本数量,至少为2以实现冗余。 3. `min.insync.replicas`: ...

Global site tag (gtag.js) - Google Analytics