`
gaojingsong
  • 浏览: 1200993 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
文章分类
社区版块
存档分类
最新评论

【kafka参数配置--broker】

阅读更多

############################# System #############################

#唯一标识在集群中的ID,要求是正数。

broker.id=0

#服务端口,默认9092

port=9092

#监听地址,不设为所有地址

host.name=debugo01

 

# 处理网络请求的最大线程数

num.network.threads=2

# 处理磁盘I/O的线程数

num.io.threads=8

# 一些后台线程数

background.threads = 4

# 等待IO线程处理的请求队列最大数

queued.max.requests = 500

 

#  socket的发送缓冲区(SO_SNDBUF)

socket.send.buffer.bytes=1048576

# socket的接收缓冲区 (SO_RCVBUF) 

socket.receive.buffer.bytes=1048576

# socket请求的最大字节数。为了防止内存溢出,message.max.bytes必然要小于

socket.request.max.bytes = 104857600

 

############################# Topic #############################

# 每个topic的分区个数,更多的partition会产生更多的segment file

num.partitions=2

# 是否允许自动创建topic ,若是false,就需要通过命令创建topic

auto.create.topics.enable =true

# 一个topic ,默认分区的replication个数 ,不能大于集群中broker的个数。

default.replication.factor =1

# 消息体的最大大小,单位是字节

message.max.bytes = 1000000

 

############################# ZooKeeper #############################

# Zookeeper quorum设置。如果有多个使用逗号分割

zookeeper.connect=debugo01:2181,debugo02,debugo03

# 连接zk的超时时间

zookeeper.connection.timeout.ms=1000000

# ZooKeeper集群中leader和follower之间的同步实际

zookeeper.sync.time.ms = 2000

 

############################# Log #############################

#日志存放目录,多个目录使用逗号分割

log.dirs=/var/log/kafka

 

# 当达到下面的消息数量时,会将数据flush到日志文件中。默认10000

#log.flush.interval.messages=10000

# 当达到下面的时间(ms)时,执行一次强制的flush操作。interval.ms和interval.messages无论哪个达到,都会flush。默认3000ms

#log.flush.interval.ms=1000

# 检查是否需要将日志flush的时间间隔

log.flush.scheduler.interval.ms = 3000

 

# 日志清理策略(delete|compact)

log.cleanup.policy = delete

# 日志保存时间 (hours|minutes),默认为7天(168小时)。超过这个时间会根据policy处理数据。bytes和minutes无论哪个先达到都会触发。

log.retention.hours=168

# 日志数据存储的最大字节数。超过这个时间会根据policy处理数据。

#log.retention.bytes=1073741824

 

# 控制日志segment文件的大小,超出该大小则追加到一个新的日志segment文件中(-1表示没有限制)

log.segment.bytes=536870912

# 当达到下面时间,会强制新建一个segment

log.roll.hours = 24*7

# 日志片段文件的检查周期,查看它们是否达到了删除策略的设置(log.retention.hours或log.retention.bytes)

log.retention.check.interval.ms=60000

 

# 是否开启压缩

log.cleaner.enable=false

# 对于压缩的日志保留的最长时间

log.cleaner.delete.retention.ms = 1 day

 

# 对于segment日志的索引文件大小限制

log.index.size.max.bytes = 10 * 1024 * 1024

#y索引计算的一个缓冲区,一般不需要设置。

log.index.interval.bytes = 4096

 

############################# replica #############################

# partition management controller 与replicas之间通讯的超时时间

controller.socket.timeout.ms = 30000

# controller-to-broker-channels消息队列的尺寸大小

controller.message.queue.size=10

# replicas响应leader的最长等待时间,若是超过这个时间,就将replicas排除在管理之外

replica.lag.time.max.ms = 10000

# 是否允许控制器关闭broker ,若是设置为true,会关闭所有在这个broker上的leader,并转移到其他broker

controlled.shutdown.enable = false

# 控制器关闭的尝试次数

controlled.shutdown.max.retries = 3

# 每次关闭尝试的时间间隔

controlled.shutdown.retry.backoff.ms = 5000

 

# 如果relicas落后太多,将会认为此partition relicas已经失效。而一般情况下,因为网络延迟等原因,总会导致replicas中消息同步滞后。如果消息严重滞后,leader将认为此relicas网络延迟较大或者消息吞吐能力有限。在broker数量较少,或者网络不足的环境中,建议提高此值.

replica.lag.max.messages = 4000

#leader与relicas的socket超时时间

replica.socket.timeout.ms= 30 * 1000

# leader复制的socket缓存大小

replica.socket.receive.buffer.bytes=64 * 1024

# replicas每次获取数据的最大字节数

replica.fetch.max.bytes = 1024 * 1024

# replicas同leader之间通信的最大等待时间,失败了会重试

replica.fetch.wait.max.ms = 500

# 每一个fetch操作的最小数据尺寸,如果leader中尚未同步的数据不足此值,将会等待直到数据达到这个大小

replica.fetch.min.bytes =1

# leader中进行复制的线程数,增大这个数值会增加relipca的IO

num.replica.fetchers = 1

# 每个replica将最高水位进行flush的时间间隔

replica.high.watermark.checkpoint.interval.ms = 5000

 

# 是否自动平衡broker之间的分配策略

auto.leader.rebalance.enable = false

# leader的不平衡比例,若是超过这个数值,会对分区进行重新的平衡

leader.imbalance.per.broker.percentage = 10

# 检查leader是否不平衡的时间间隔

leader.imbalance.check.interval.seconds = 300

# 客户端保留offset信息的最大空间大小

offset.metadata.max.bytes = 1024

0
2
分享到:
评论

相关推荐

    kafka-2.12-3.6.1.tgz

    /usr/local/kafka_2.12-3.6.1/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-topic ``` 然后在命令行中输入消息,每按一次回车就发送一条消息。 八、消费消息 同时,可以在另一个终端...

    kafka-eagle-bin-2.1.0.tar.gz

    3. 配置:修改`conf/kafka-eagle.properties`文件,配置Kafka集群地址、Zookeeper地址及其他必要参数。 4. 启动:执行`bin/kafka-eagle-start.sh`启动服务,使用`bin/kafka-eagle-stop.sh`停止服务。 5. 访问:在Web...

    kafka_2.11-2.0.0.tgz

    - **配置Kafka**:修改config/server.properties文件,配置broker ID、端口、日志存储路径等参数。 - **启动Kafka服务器**:使用bin/kafka-server-start.sh启动Kafka。 3. **创建主题和分区** - 使用bin/kafka...

    最新版windows kafka_2.12-2.4.1.tgz

    你需要配置以下关键参数: - `broker.id`: 每个Kafka节点的唯一标识,一般从0开始。 - `zookeeper.connect`: 连接ZooKeeper的地址,用于协调Kafka集群。 - `log.dirs`: 日志文件存储的目录,Kafka会在这里保存...

    kafka_2.11-2.2.2.tgz

    bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-topic ``` 在终端输入消息,按回车即可发布。 九、消费消息 同样,使用`kafka-console-consumer.sh`命令读取消息: ```bash bin/kafka-...

    kafka-2.12-0.10.2.0文件安装包

    4. **配置Kafka**:修改config/server.properties配置文件,配置broker ID、zookeeper连接地址、日志存储路径等参数。 5. **启动Kafka**:运行bin目录下的kafka-server-start.sh脚本启动Kafka服务。 6. **创建主题**...

    kafka-2.13-3.5.1.tgz

    - 解压“kafka_2.13-3.5.1”压缩包,根据提供的配置文件`server.properties`设置Kafka集群的参数,如 broker.id、zookeeper.connect等。 - 启动Zookeeper服务,它是Kafka的依赖,用于协调集群状态。 - 启动Kafka...

    kafka-eagle-bin-2.0.5.tar.gz

    - **配置文件**:修改conf/kafka-eagle-site.xml,配置Kafka集群地址、Zookeeper地址以及其它相关参数。 - **启动服务**:执行bin/kafka-eagle-start.sh脚本启动服务,然后在浏览器中输入http://服务器IP:8080...

    kafka-manager-1.3.3.21

    - 配置 `conf/application.conf` 文件,设定 Kafka 集群信息、Zookeeper 地址等参数。 - 启动应用,执行 `./bin/kafka-manager` 或通过 `sbt run` 命令启动。 - 访问预设的 Web 端口(默认为 9000),即可看到 ...

    KAFKA-3.1.1-1.3.1.1.p0.2-el7.parcel

    为了充分利用Kafka,你需要熟悉其配置选项,理解如何调整参数以适应不同的场景,同时确保集群的稳定性和性能。此外,监控和日志记录也是关键,因为它们可以帮助诊断和解决可能出现的问题。最后,了解如何与其他...

    kafka_2.12-1.0.0.zip

    1. **broker配置**:如`broker.id`,每个Kafka节点的唯一标识;`num.partitions`,默认分区数;`log.retention.hours`,消息保留时间。 2. **producer配置**:如`acks`,确认模式,决定何时认为消息已成功发送;`...

    kafka_2.11-1.1.1安装包

    3. **配置文件**:修改`config/server.properties`配置文件,设置broker的ID、端口、日志存储路径等参数。 4. **启动Zookeeper**:Kafka依赖Zookeeper进行集群管理和元数据存储,需要先启动Zookeeper服务。 5. **...

    最新版linux kafka_2.12-2.6.1.tgz

    - **启动Kafka Broker**: 使用`bin/kafka-server-start.sh config/server.properties`启动Kafka服务。 - **创建Topic**: 使用`bin/kafka-topics.sh`命令创建新的Topic。 - **生产消息**: 使用`kafka-console-...

    KAFKA-3.0.0-1.3.0.0.p0.40-el7

    在CDH中安装Kafka-3.0.0-1.3.0.0.p0.40-el7,通常需要通过Cloudera Manager进行,这包括配置broker节点、设置安全性和网络策略、创建主题以及调整性能参数等。标签“cdh”和“CDH”提示了这是针对Cloudera平台的版本...

    kafka-2.11-1.1.0-aarch64,ARM版本

    安装kafka_2.11-1.1.0-aarch64通常涉及解压文件,配置配置文件如server.properties,设置broker ID、端口、日志目录等参数,然后启动Kafka服务。需要注意的是,由于ARM架构的特殊性,可能需要调整某些默认配置以...

    kafka_2.11-2.2.0.tgz

    在实际使用中,用户需要配置Kafka的broker、producer和consumer参数,例如设置broker的端口、数据存储路径、消费者的offset管理策略等。对于Kafka_2.11-2.2.0版本,用户可以参考官方文档,了解详细的配置选项和最佳...

    kafka_2.11-1.0.0.tgz.zip

    其中,配置文件是操作Kafka的关键,如`server.properties`定义了broker的配置,`producer.properties`和`consumer.properties`分别用于设置生产者和消费者的参数。理解这些配置对于调整Kafka的性能至关重要。 安装...

    kafka-manager-2.0.0.2.zip

    - `conf`: 包含Kafka Manager的配置文件,如`application.conf`,可以在此配置连接到Kafka集群的参数。 - `lib`: 存放运行Kafka Manager所需的jar包,这些库文件支持工具的各项功能。 - `static`: 包含Web应用的静态...

    kafka_2.13-2.5.1及安装方法

    - **数据保留策略**:Kafka可以通过配置`log.retention.hours`等参数来决定保留消息的时间。 - **消费者组**:消费者可以属于同一组,组内的消费者会自动分配主题分区,避免消息重复消费。 - **Kafka Connect**:...

    kafka-2.13-2.8.0

    1. **配置文件**:Kafka的配置主要通过server.properties文件进行,包括broker设置、日志管理、网络参数等。 2. **启动与停止**:启动Kafka服务需要启动Zookeeper,然后启动Kafka的Broker服务。 3. **创建主题**:...

Global site tag (gtag.js) - Google Analytics