`
1028826685
  • 浏览: 936731 次
  • 性别: Icon_minigender_1
  • 来自: 重庆
社区版块
存档分类

Kafka文件存储机制那些事

 
阅读更多

Kafka是什么

Kafka是最初由Linkedin公司开发,是一个分布式、分区的、多副本的、多订阅者,基于zookeeper协调的分布式日志系统(也可以当做MQ系统),常见可以用于web/nginx日志、访问日志,消息服务等等,Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目。

1.前言

一个商业化消息队列的性能好坏,其文件存储机制设计是衡量一个消息队列服务技术水平和最关键指标之一。
下面将从Kafka文件存储机制和物理结构角度,分析Kafka是如何实现高效文件存储,及实际应用效果。

2.Kafka文件存储机制

Kafka部分名词解释如下:

  • Broker:消息中间件处理结点,一个Kafka节点就是一个broker,多个broker可以组成一个Kafka集群。
  • Topic:一类消息,例如page view日志、click日志等都可以以topic的形式存在,Kafka集群能够同时负责多个topic的分发。
  • Partition:topic物理上的分组,一个topic可以分为多个partition,每个partition是一个有序的队列。
  • Segment:partition物理上由多个segment组成,下面2.2和2.3有详细说明。
  • offset:每个partition都由一系列有序的、不可变的消息组成,这些消息被连续的追加到partition中。partition中的每个消息都有一个连续的序列号叫做offset,用于partition唯一标识一条消息.

分析过程分为以下4个步骤:

  • topic中partition存储分布
  • partiton中文件存储方式
  • partiton中segment文件存储结构
  • 在partition中如何通过offset查找message

通过上述4过程详细分析,我们就可以清楚认识到kafka文件存储机制的奥秘。

2.1 topic中partition存储分布

假设实验环境中Kafka集群只有一个broker,xxx/message-folder为数据文件存储根目录,在Kafka broker中server.properties文件配置(参数log.dirs=xxx/message-folder),例如创建2个topic名称分别为report_push、launch_info, partitions数量都为partitions=4
存储路径和目录规则为:
xxx/message-folder

              |--report_push-0
              |--report_push-1
              |--report_push-2
              |--report_push-3
              |--launch_info-0
              |--launch_info-1
              |--launch_info-2
              |--launch_info-3

在Kafka文件存储中,同一个topic下有多个不同partition,每个partition为一个目录,partiton命名规则为topic名称+有序序号,第一个partiton序号从0开始,序号最大值为partitions数量减1。
如果是多broker分布情况,请参考kafka集群partition分布原理分析

2.2 partiton中文件存储方式

下面示意图形象说明了partition中文件存储方式:
image

                              图1
  • 每个partion(目录)相当于一个巨型文件被平均分配到多个大小相等segment(段)数据文件中。但每个段segment file消息数量不一定相等,这种特性方便old segment file快速被删除。
  • 每个partiton只需要支持顺序读写就行了,segment文件生命周期由服务端配置参数决定。

这样做的好处就是能快速删除无用文件,有效提高磁盘利用率。

2.3 partiton中segment文件存储结构

读者从2.2节了解到Kafka文件系统partition存储方式,本节深入分析partion中segment file组成和物理结构。

  • segment file组成:由2大部分组成,分别为index file和data file,此2个文件一一对应,成对出现,后缀".index"和“.log”分别表示为segment索引文件、数据文件.
  • segment文件命名规则:partion全局的第一个segment从0开始,后续每个segment文件名为上一个segment文件最后一条消息的offset值。数值最大为64位long大小,19位数字字符长度,没有数字用0填充。

下面文件列表是笔者在Kafka broker上做的一个实验,创建一个topicXXX包含1 partition,设置每个segment大小为500MB,并启动producer向Kafka broker写入大量数据,如下图2所示segment文件列表形象说明了上述2个规则:
image

            图2

以上述图2中一对segment file文件为例,说明segment中index<—->data file对应关系物理结构如下:
image

            图3

上述图3中索引文件存储大量元数据,数据文件存储大量消息,索引文件中元数据指向对应数据文件中message的物理偏移地址。
其中以索引文件中元数据3,497为例,依次在数据文件中表示第3个message(在全局partiton表示第368772个message)、以及该消息的物理偏移地址为497。

从上述图3了解到segment data file由许多message组成,下面详细说明message物理结构如下:
image

           图4

参数说明:

关键字 解释说明
8 byte offset 在parition(分区)内的每条消息都有一个有序的id号,这个id号被称为偏移(offset),它可以唯一确定每条消息在parition(分区)内的位置。即offset表示partiion的第多少message
4 byte message size message大小
4 byte CRC32 用crc32校验message
1 byte “magic" 表示本次发布Kafka服务程序协议版本号
1 byte “attributes" 表示为独立版本、或标识压缩类型、或编码类型。
4 byte key length 表示key的长度,当key为-1时,K byte key字段不填
K byte key 可选
value bytes payload 表示实际消息数据。

2.4 在partition中如何通过offset查找message

例如读取offset=368776的message,需要通过下面2个步骤查找。

  • 第一步查找segment file
    上述图2为例,其中00000000000000000000.index表示最开始的文件,起始偏移量(offset)为0.第二个文件00000000000000368769.index的消息量起始偏移量为368770 = 368769 + 1.同样,第三个文件00000000000000737337.index的起始偏移量为737338=737337 + 1,其他后续文件依次类推,以起始偏移量命名并排序这些文件,只要根据offset **二分查找**文件列表,就可以快速定位到具体文件。
    当offset=368776时定位到00000000000000368769.index|log

  • 第二步通过segment file查找message
    通过第一步定位到segment file,当offset=368776时,依次定位到00000000000000368769.index的元数据物理位置和00000000000000368769.log的物理偏移地址,然后再通过00000000000000368769.log顺序查找直到offset=368776为止。

从上述图3可知这样做的优点,segment index file采取稀疏索引存储方式,它减少索引文件大小,通过mmap可以直接内存操作,稀疏索引为数据文件的每个对应message设置一个元数据指针,它比稠密索引节省了更多的存储空间,但查找起来需要消耗更多的时间。

3 Kafka文件存储机制–实际运行效果

实验环境:

  • Kafka集群:由2台虚拟机组成
  • cpu:4核
  • 物理内存:8GB
  • 网卡:千兆网卡
  • jvm heap: 4GB
  • 详细Kafka服务端配置及其优化请参考:kafka server.properties配置详解

image

                              图5                                 

从上述图5可以看出,Kafka运行时很少有大量读磁盘的操作,主要是定期批量写磁盘操作,因此操作磁盘很高效。这跟Kafka文件存储中读写message的设计是息息相关的。Kafka中读写message有如下特点:

写message

  • 消息从java堆转入page cache(即物理内存)。
  • 由异步线程刷盘,消息从page cache刷入磁盘。

读message

  • 消息直接从page cache转入socket发送出去。
  • 当从page cache没有找到相应数据时,此时会产生磁盘IO,从磁
    盘Load消息到page cache,然后直接从socket发出去

4.总结

Kafka高效文件存储设计特点

  • Kafka把topic中一个parition大文件分成多个小文件段,通过多个小文件段,就容易定期清除或删除已经消费完文件,减少磁盘占用。
  • 通过索引信息可以快速定位message和确定response的最大大小。
  • 通过index元数据全部映射到memory,可以避免segment file的IO磁盘操作。
  • 通过索引文件稀疏存储,可以大幅降低index文件元数据占用空间大小。
分享到:
评论

相关推荐

    kafka存储机制.docx

    下面将从 Kafka 文件存储机制和物理结构角度,分析 Kafka 是如何实现高效文件存储,及实际应用效果。 Kafka 文件存储机制 Kafka 文件存储机制是衡量一个消息队列服务技术水平和最关键指标之一。Kafka 文件存储机制...

    kafka大文件的代码

    在大数据处理领域,Apache Kafka是一种广泛使用的分布式流处理平台,尤其...同时,了解Kafka的内部机制,如消息存储、分区策略和复制机制,对优化配置也有很大帮助。请参考Kafka官方文档和社区实践,获取更多深入知识。

    大数据采集技术-Kafka的消息存储机制.pptx

    Segment是Kafka文件存储的最小单位,其命名规则基于上一个Segment的最后一个消息的offset值,确保了消息的有序性。 Kafka的索引文件采用了稀疏索引的设计,每隔一定字节的数据创建一个索引条目。这种设计降低了索引...

    kafka文件系统设计

    具体来说,每个分区可以包含多个段文件,其中.log文件存储实际的消息数据,.index文件则存储消息位置的索引信息。消息在.log文件中顺序追加,一旦当前段文件达到配置的大小限制或消息数量限制,就自动切换到新的段...

    kafka配置文件

    - `log.dirs`: 存储Kafka日志的数据目录。 - `num.partitions`: 每个主题默认的分区数。 - `offsets.topic.replication.factor`: 偏移量主题的副本因子,确保数据冗余和容错性。 3. **Kafka_2.11-1.0.0版本的...

    kafka 配置文件

    4. **log.dirs**:存储日志数据的目录,Kafka 的持久化机制依赖于这些目录。 5. **num.partitions**:默认主题的分区数,影响并行度。 6. **replica.fetch.min.bytes** 和 **replica.fetch.max.bytes**:设置副本...

    kafka-2.12-0.10.2.0文件安装包

    4. **配置Kafka**:修改config/server.properties配置文件,配置broker ID、zookeeper连接地址、日志存储路径等参数。 5. **启动Kafka**:运行bin目录下的kafka-server-start.sh脚本启动Kafka服务。 6. **创建主题**...

    kafka安装相关文件以及java调用kafka示例项目

    4. **配置管理**:Kafka的配置文件(server.properties)包含了服务器端的各种设置,如broker id、监听地址、日志存储路径等。理解这些配置项并根据实际情况进行调整是确保Kafka稳定运行的关键。 5. **性能优化**:...

    kafka原理文档1

    下面是kafka的原理文档,涵盖了kafka的架构、设计理念、消息模型、 Partition机制、日志策略、消息可靠性机制等方面。 一、kafka架构 kafka的架构主要包括以下几个部分: *Broker:kafka集群中的每个节点称为...

    《Kafka集群部署》配置文件

    8. **复制与故障转移**: Kafka通过副本机制实现容错,`replication.factor`定义了每个分区的副本数量,`min.insync.replicas`确保至少有指定数量的副本保持同步,以防止数据丢失。 9. **Kafka消费者配置**: 虽不在`...

    kafka 知识要点,基于0.9、 0.10版本,很全面

    Kafka 存储机制 Kafka 使用了一种高效的文件系统来存储数据,包括索引文件和数据文件。索引文件存储大量元数据,数据文件则存储实际消息内容。索引文件中的元数据指向数据文件中消息的物理偏移地址。 - **索引...

    Kafka技术内幕(带书签).pdf

    其次,Kafka的存储机制是基于磁盘的,每个主题可以划分为多个分区,每个分区存储在一个单独的文件中,这种设计允许大规模并行消费,提高了处理速度。同时,Kafka通过复制策略确保数据的可靠性,每个分区都有一个主...

    Kafka Tool linux版本,适用于kafka0.11及以上

    7. **安全支持**:如果Kafka集群启用了SASL/SSL或Kerberos等安全机制,Kafka Tool也能很好地与之兼容,确保管理操作的安全性。 8. **命令行集成**:虽然Kafka Tool提供了一个直观的UI,但它也支持通过命令行执行...

    Kafka高可用性实现原理

    Kafka 通过各种机制来确保消息的可靠传输和存储,包括消息持久化、复制机制和同步机制等。这些机制确保了 Kafka 的高可用性和高吞吐量。 6. Topic 和 Partition Kafka 通过 Topic 和 Partition 来管理消息。每个 ...

    Kafka详细课程讲义

    1. **Broker**: Kafka集群中的服务器节点,负责存储和处理消息。 2. **Topic**: 消息的分类,可以理解为数据库中的表。 3. **Partition**: 为了提高并行处理能力,每个主题被分为多个分区,每个分区在不同的broker上...

    kafka学习之路

    - **高性能:** Kafka采用了高效的日志文件存储机制,并利用零拷贝技术提高读写性能。 - **可扩展性:** Kafka支持动态添加和移除Broker,使得系统可以在不停机的情况下扩展或缩小规模。 - **可靠性:** Kafka支持消息...

    聊聊高并发高可用那些事(Kafka、Redis、MySQL)

    18. **.frm、.myi、.myd、.ibd文件**:这些是MySQL数据文件,分别存储表定义、MyISAM表索引、MyISAM表数据和InnoDB表数据。 19. **表数据删掉一半,文件大小不变**:因InnoDB使用行级锁定,删除数据不会立即释放...

    kafka细心原理与实战

    - **Partition**:分区,是Topic的基本单元,每个Topic可以包含多个分区,每个分区作为一个独立的日志文件存储。 - **Replica**:副本,为了提高可用性,Kafka会为每个Partition创建多个副本,默认为三个。 - **...

    图解 Kafka 之实战指南

    - **多副本机制**:为了提高系统的容错能力,Kafka引入了多副本机制。一个分区可以拥有多个副本,其中一个是leader副本,负责处理所有读写请求;其余副本作为follower,负责与leader副本同步数据。当leader副本发生...

Global site tag (gtag.js) - Google Analytics