`

快速部署kafka

 
阅读更多

 

本文使用kafka的版本为1.0.0

 

一、配置文件

 

############################# Server Basics #############################

broker.id=0

 

############################# Socket Server Settings #############################

listeners=PLAINTEXT://127.0.0.1:9092

 

# 响应请求的线程数

num.network.threads=3   

 

# IO线程数

num.io.threads=8

 

#send buff

socket.send.buffer.bytes=102400

 

# The receive buffer (SO_RCVBUF) used by the socket server

socket.receive.buffer.bytes=102400

 

# The maximum size of a request that the socket server will accept (protection against OOM)

socket.request.max.bytes=104857600

 

############################# Log Basics #############################

# A comma seperated list of directories under which to store log files

log.dirs=/usr/local/var/lib/kafka-logs

 

# 每个topic默认的partition的数量,越多效率越高

num.partitions=24  

 

# 备份和恢复数据时的线程数,推荐与数据目录数一致

num.recovery.threads.per.data.dir=1

 

############################# Internal Topic Settings  #############################

#replication数 备份数

offsets.topic.replication.factor=3

transaction.state.log.replication.factor=3

transaction.state.log.min.isr=1

 

############################# Log Flush Policy #############################

# flush消息的条数阈值

log.flush.interval.messages=10000

 

# flush消息的时间阈值,与条数阈值同时生效

log.flush.interval.ms=1000

 

############################# Log Retention Policy 【log保留策略】 #############################

# The minimum age of a log file to be eligible for deletion due to age

log.retention.hours=168

 

# A size-based retention policy for logs. Segments are pruned from the log unless the remaining

# segments drop below log.retention.bytes. Functions independently of log.retention.hours.

#log.retention.bytes=1073741824

 

# The maximum size of a log segment file. When this size is reached a new log segment will be created.

log.segment.bytes=1073741824

 

# The interval at which log segments are checked to see if they can be deleted according

# to the retention policies

log.retention.check.interval.ms=300000

 

############################# Zookeeper #############################

zookeeper.connect=localhost:2181

zookeeper.connection.timeout.ms=6000

 

############################# Group Coordinator Settings #############################

# The following configuration specifies the time, in milliseconds, that the GroupCoordinator will delay the initial consumer rebalance.

# The rebalance will be further delayed by the value of group.initial.rebalance.delay.ms as new members join the group, up to a maximum of max.poll.interval.ms.

# The default value for this is 3 seconds.

# We override this to 0 here as it makes for a better out-of-the-box experience for development and testing.

# However, in production environments the default value of 3 seconds is more suitable as this will help to avoid unnecessary, and potentially expensive, rebalances during application startup.

 

 

分享到:
评论

相关推荐

    kafka集群部署文档(部署,运维,FAQ)

    ### Kafka集群部署与运维知识点详解 #### 一、Kafka概览 Kafka是一种高性能的分布式消息系统,具有以下特点: - **数据持久性**:Kafka通过高效的磁盘数据结构来实现消息的持久化存储,即使面对大量数据也能保持...

    快速部署单机kafka集群(win环境)

    本文不讲kafka集群原理,只谈部署步骤。 默认读者已对kafka有最基本的认知,纯粹作为部署笔记,方便回忆。 另外本文是基于Windows部署的,Linux的步骤是基本相同的(只是启动脚本位置不同)。 kafka集群类型: ...

    docker-kafka-cluster集群安装

    为了方便在各种环境中快速部署Kafka,我们可以利用Docker容器化技术。本文将详细介绍如何使用Docker Compose来搭建一个Kafka集群,并解析Kafka的相关配置。 【描述】: 1、Kafka-Docker-Compose集群安装 Docker ...

    一键快速部署测试生产环境kafka集群

    linux环境实现shell一键部署docker容器运行kafka集群(docker-compose实现集群启动,内置kafka-manager、zookeeper)

    高级Java人才培训专家-06-kafka及异步通知文章上下架

    - 通过Docker容器快速部署Kafka服务。 - 设置环境变量以适应本地环境,如指定Kafka的IP地址、Zookeeper连接信息等。 ### 五、Kafka入门案例 #### 案例说明 - 本案例通过构建简单的生产者和消费者模型来演示Kafka的...

    docker-compose编排kafka一键快速部署运行

    docker-compose编排kafka一键快速部署运行在linux环境,通过docker-compose编排jumpserver一键快速部署运行,已经准备好yml配置文件和kafka相关的配置文件,只要拿来直接用就可以一、环境准备下载上面的kafka压缩包...

    bitnami版本的zookeeper和kafka的docker-compose配置

    通过指定镜像、端口映射、环境变量和依赖关系等配置,实现了Zookeeper和Kafka的快速部署和集成。同时,在定义了一个名为"mynetwork"的网络来连接这些服务,确保它们可以相互通信。整体而言,这个Docker Compose 文件...

    Kafka部署所需软件包

    当你准备部署Kafka时,了解所需的软件包是非常重要的。以下是对标题和描述中涉及知识点的详细说明: 1. **Apache Kafka**:Kafka是由LinkedIn开发并捐赠给Apache Software Foundation的一个开源项目。它主要功能是...

    kafka、Zk 集群部署技术手册v0.1.docx

    kafka 和 Zookeeper 集群部署技术手册 本文档旨在指导读者一步步搭建 Kafka 和 Zookeeper 集群的部署,涵盖了集群搭建、配置、启动等方面的详细信息。通过阅读本文档,读者可以快速搭建起一个功能齐全的 Kafka 和 ...

    《Kafka单机部署》配置文件

    在下载的`kafka-test-20180806`压缩包中,可能包含示例配置文件、测试数据或者其他辅助工具,这些资源可以帮助初学者快速理解和操作Kafka。在实际部署中,需要根据自己的环境和需求调整配置文件,确保Kafka正常运行...

    kakfa,kafka集群安装部署全量安装包

    - 阅读`kafka快速安装.pdf`以获取更多详细的部署和使用指导。 **运维与优化** - 监控Kafka和ZooKeeper的性能,确保足够的硬件资源。 - 确保适当的磁盘I/O,因为Kafka大量依赖于磁盘读写。 - 定期检查和清理Kafka的...

    Kafka快速入门(kafka的tar镜像文件)

    后续部署kafka会用到这个文件1

    kafka-2.13-3.4.0.tgz

    Kafka采用分布式架构,可以在多台服务器上部署,通过分区(Partitions)和副本(Replicas)实现水平扩展和高可用性。每个分区都有一个主副本,负责处理写操作,其他副本作为备份,当主副本故障时,可以自动切换。 ...

    kafka环境搭建并和spring整合

    集群版环境搭建较为复杂,需要考虑多台Broker的部署、负载均衡等问题。此外,Kafka集群通常会借助Zookeeper进行集群管理,包括Broker的注册、监控等操作。 3. **常用配置参数** 在Kafka集群中,有几个重要的配置...

    kafka-2.12-3.6.1.tgz

    《Kafka 2.12-3.6.1在Linux环境下的快速部署与使用》 Kafka,作为一款高效、可扩展且持久化的分布式消息中间件,被广泛应用于大数据实时处理、日志收集和流处理等场景。本文将详细介绍如何在Linux环境下部署并使用...

    kafka单机版安装部署手册1

    kafka单机版安装部署手册1 在本手册中,我们将指导您如何在单机上安装和部署 Apache Kafka。Kafka 是一个分布式流媒体平台,用于构建实时数据管道和...通过本手册,您可以快速地搭建一个 Kafka 环境,用于开发和测试。

    kafka_exporter-1.6.0.linux-amd64.tar.gz

    4. **示例配置**:可能有一个或多个示例配置文件,帮助用户快速上手。 5. **依赖库**:如果Kafka Exporter是用Go语言编写的,可能会包含一些编译后的库文件,确保在目标系统上正确运行。 在安装和使用Kafka ...

    Kafka跨集群容灾备份.docx

    - **地理分布**:为了减少网络延迟并提高用户体验,可能需要在不同的地理位置部署多个Kafka集群。这种情况下,跨集群的数据同步可以确保各个集群之间数据的一致性。 #### 二、MirrorMaker架构 **MirrorMaker** 是 ...

    windows下kafka_2.12-2.9.0.rar(含单机伪分布式配置)

    在Windows操作系统下部署Kafka可能需要一些额外的步骤,因为Kafka最初是为Unix-like系统设计的。Zookeeper是Apache的一个开源项目,它提供分布式协调服务,对于Kafka来说,Zookeeper用于管理集群的元数据和选举领导...

    Kafka快速入门(docker-compose-kafka.yml文件)

    后续部署kafka会用到这个文件

Global site tag (gtag.js) - Google Analytics