`
壹佰案例
  • 浏览: 34306 次
  • 性别: Icon_minigender_2
  • 来自: 北京
社区版块
存档分类
最新评论

Kafka凭什么速度那么快?

阅读更多

本文来源 | www.cnblogs.com/binyue/p/10308754.html

作者 | 邴越

 

Kafka的消息是保存或缓存在磁盘上的,一般认为在磁盘上读写数据是会降低性能的,因为寻址会比较消耗时间,但是实际上,Kafka的特性之一就是高吞吐率。

 

即使是普通的服务器,Kafka也可以轻松支持每秒百万级的写入请求,超过了大部分的消息中间件,这种特性也使得Kafka在日志处理等海量数据场景广泛应用。

 

针对Kafka的基准测试可以参考,Apache Kafka基准测试:每秒写入2百万(在三台廉价机器上)。下面从数据写入和读取两方面分析,为什么Kafka速度这么快。

 

 

01写入数据

 

Kafka会把收到的消息都写入到硬盘中,它绝对不会丢失数据。为了优化写入速度Kafka采用了两个技术, 顺序写入和MMFile 。

 

1、顺序写入

 

磁盘读写的快慢取决于你怎么使用它,也就是顺序读写或者随机读写。在顺序读写的情况下,磁盘的顺序读写速度和内存持平。

 

因为硬盘是机械结构,每次读写都会寻址->写入,其中寻址是一个“机械动作”,它是最耗时的。所以硬盘最讨厌随机I/O,最喜欢顺序I/O。为了提高读写硬盘的速度,Kafka就是使用顺序I/O。

 

而且Linux对于磁盘的读写优化也比较多,包括read-ahead和write-behind,磁盘缓存等。如果在内存做这些操作的时候,一个是JAVA对象的内存开销很大,另一个是随着堆内存数据的增多,JAVA的GC时间会变得很长,使用磁盘操作有以下几个好处:

 

  • 磁盘顺序读写速度超过内存随机读写

  • JVM的GC效率低,内存占用大。使用磁盘可以避免这一问题

  • 系统冷启动后,磁盘缓存依然可用。

 

下图就展示了Kafka是如何写入数据的, 每一个Partition其实都是一个文件 ,收到消息后Kafka会把数据插入到文件末尾(虚框部分):


 

这种方法有一个缺陷——没有办法删除数据 ,所以Kafka是不会删除数据的,它会把所有的数据都保留下来,每个消费者(Consumer)对每个Topic都有一个offset用来表示读取到了第几条数据 。

两个消费者:

 

  • Consumer1有两个offset分别对应Partition0、Partition1(假设每一个Topic一个Partition);

  • Consumer2有一个offset对应Partition2。

 

这个offset是由客户端SDK负责保存的,Kafka的Broker完全无视这个东西的存在;一般情况下SDK会把它保存到Zookeeper里面,所以需要给Consumer提供zookeeper的地址。

 

如果不删除硬盘肯定会被撑满,所以Kakfa提供了两种策略来删除数据:

 

  • 一是基于时间;

  • 二是基于partition文件大小。

 

具体配置可以参看它的配置文档。

 

2、Memory Mapped Files

 

即便是顺序写入硬盘,硬盘的访问速度还是不可能追上内存。所以Kafka的数据并不是实时的写入硬盘 ,它充分利用了现代操作系统分页存储来利用内存提高I/O效率。

 

Memory Mapped Files(后面简称mmap)也被翻译成 内存映射文件 ,在64位操作系统中一般可以表示20G的数据文件,它的工作原理是直接利用操作系统的Page来实现文件到物理内存的直接映射。

 

完成映射之后你对物理内存的操作会被同步到硬盘上(操作系统在适当的时候)。

 

通过mmap,进程像读写硬盘一样读写内存(当然是虚拟机内存),也不必关心内存的大小有虚拟内存为我们兜底。

 

使用这种方式可以获取很大的I/O提升,省去了用户空间到内核空间复制的开销(调用文件的read会把数据先放到内核空间的内存中,然后再复制到用户空间的内存中。)

 

但也有一个很明显的缺陷——不可靠,写到mmap中的数据并没有被真正的写到硬盘,操作系统会在程序主动调用flush的时候才把数据真正的写到硬盘。

 

Kafka提供了一个参数——producer.type来控制是不是主动flush,如果Kafka写入到mmap之后就立即flush然后再返回Producer叫 同步 (sync);写入mmap之后立即返回Producer不调用flush叫异步 (async)。

 

 

02读取数据

 

Kafka在读取磁盘时做了哪些优化?

 

2、基于sendfile实现Zero Copy

 

传统模式下,当需要对一个文件进行传输的时候,其具体流程细节如下:

 

  • 调用read函数,文件数据被copy到内核缓冲区

  • read函数返回,文件数据从内核缓冲区copy到用户缓冲区

  • write函数调用,将文件数据从用户缓冲区copy到内核与socket相关的缓冲区

  • 数据从socket缓冲区copy到相关协议引擎

 

以上细节是传统read/write方式进行网络文件传输的方式,我们可以看到,在这个过程当中,文件数据实际上是经过了四次copy操作:

 

硬盘—>内核buf—>用户buf—>socket相关缓冲区—>协议引擎

 

而sendfile系统调用则提供了一种减少以上多次copy,提升文件传输性能的方法。

 

在内核版本2.1中,引入了sendfile系统调用,以简化网络上和两个本地文件之间的数据传输。sendfile的引入不仅减少了数据复制,还减少了上下文切换。

 

sendfile(socket, file, len);

 

运行流程如下:

 

  • sendfile系统调用,文件数据被copy至内核缓冲区

  • 再从内核缓冲区copy至内核中socket相关的缓冲区

  • 最后再socket相关的缓冲区copy到协议引擎

 

相较传统read/write方式,2.1版本内核引进的sendfile已经减少了内核缓冲区到user缓冲区,再由user缓冲区到socket相关缓冲区的文件copy,而在内核版本2.4之后,文件描述符结果被改变,sendfile实现了更简单的方式,再次减少了一次copy操作。

 

在Apache、Nginx、lighttpd等web服务器当中,都有一项sendfile相关的配置,使用sendfile可以大幅提升文件传输性能。

 

Kafka把所有的消息都存放在一个一个的文件中,当消费者需要数据的时候Kafka直接把文件发送给消费者,配合mmap作为文件读写方式,直接把它传给sendfile。

 

2、批量压缩

 

在很多情况下,系统的瓶颈不是CPU或磁盘,而是网络IO,对于需要在广域网上的数据中心之间发送消息的数据流水线尤其如此。进行数据压缩会消耗少量的CPU资源,不过对于kafka而言,网络IO更应该需要考虑。

 

  • 如果每个消息都压缩,但是压缩率相对很低,所以Kafka使用了批量压缩,即将多个消息一起压缩而不是单个消息压缩

  • Kafka允许使用递归的消息集合,批量的消息可以通过压缩的形式传输并且在日志中也可以保持压缩格式,直到被消费者解压缩

  • Kafka支持多种压缩协议,包括Gzip和Snappy压缩协议

 

 

03总结

 

 

Kafka速度的秘诀在于,它把所有的消息都变成一个批量的文件,并且进行合理的批量压缩,减少网络IO损耗,通过mmap提高I/O速度,写入数据的时候由于单个Partion是末尾添加所以速度最优;读取数据的时候配合sendfile直接暴力输出。

 

分享到:
评论

相关推荐

    面试题kafka 线上会遇到哪些问题?.md

    kafka 线上会遇到哪些问题?kafka 线上会遇到哪些问题?kafka 线上会遇到哪些问题?kafka 线上会遇到哪些问题?kafka 线上会遇到哪些问题?kafka 线上会遇到哪些问题?kafka 线上会遇到哪些问题?kafka 线上会遇到...

    Kafka如何保证消息不丢失?.md

    Kafka如何保证消息不丢失?.md

    Kafka Brokers Leader Skewed.md

    Kafka Leader 倾斜

    03丨Kafka只是消息引擎系统吗?.html

    02-Kafka入门 (5讲)

    [] - 2022-08-27 面试官- Kafka 为什么这么快 ?.pdf

    互联网资讯,技术简介,IT、AI技术,人工智能

    kafkatool 连接kafka工具

    **Kafka Tool 连接 Kafka 工具详解** 在大数据处理和实时流处理领域,Apache Kafka 是一个不可或缺的组件,它作为一个...如果你在工作中经常与 Kafka 打交道,那么熟练掌握 `kafkatool` 将极大地提升你的工作效率。

    c#kafka 发送与接收

    在本文中,我们将深入探讨如何使用C#与Apache Kafka进行消息发送与接收。Apache Kafka是一个分布式流处理平台,常用于构建实时数据管道和流应用程序。它具有高吞吐量、可扩展性和容错性,使其成为大数据领域的一个...

    Kafka详细课程讲义

    1. Kafka的主要应用场景是什么? 2. Kafka如何保证消息的顺序性? 3. 解释Kafka的ISR(In-Sync Replicas)机制。 4. Kafka的消费模型是什么样的? 5. 如何处理Kafka的消费者挂掉或新消费者加入的情况? 通过学习...

    kafka知识导图笔记.xmind

    1、介绍 2、Kafka独特设计在什么地方? 3、kafka架构 4、Kafka如何搭建及创建topic、发送消息、消费消息? 5、环境搭建 6、测试 7、kafka开发环境搭建 8、学习总结来源

    kafka资源下载kafka_2.11-2.0.0.tgz

    ### 关于Kafka资源下载kafka_2.11-2.0.0.tgz的知识点 #### Kafka简介 Apache Kafka是一种开源的消息队列服务,它最初由LinkedIn开发,并于2011年成为Apache软件基金会的一个顶级项目。Kafka因其高性能、可扩展性和...

    下载慢?给你Kafka 2.xx所有版本下载的百度网盘链接

    kafka_2.11-2.0.0.tgz, kafka_2.11-2.0.1.tgz, kafka_2.11-2.1.0.tgz, kafka_2.11-2.1.1.tgz, kafka_2.11-2.2.0.tgz, kafka_2.11-2.2.1.tgz, kafka_2.11-2.2.2.tgz, kafka_2.11-2.3.0.tgz, kafka_2.11-2.3.1.tgz, ...

    Zookeeper3.7与3.8加kafka2.12-3.1.0

    ZooKeeper是一个开放源码的分布式应用程序协调服务,它包含一个简单的原语集,...Kafka目前主要作为一个分布式的发布订阅式的消息系统使用 本资源包括zookeeper 3.8 与 3.7 kafka2.12-3.1.0 版本 有需求的可以下载

    kafkapython教程-Kafka快速入门(十二)-Python客户端.pdf

    在本篇Kafka快速入门教程中,我们主要探讨了如何使用Python客户端库`confluent-kafka`来与Apache Kafka进行交互。`confluent-kafka`是一个轻量级的Python模块,它对librdkafka进行了封装,支持Kafka 0.8以上的版本。...

    Kafka面试题.zip

    1. **Kafka是什么?** Kafka是一个高吞吐量、低延迟的分布式发布订阅消息系统,最初由LinkedIn开发并开源,现在是Apache软件基金会的顶级项目。它提供了一个持久化、可扩展且容错的消息中间件,支持实时数据流处理...

    kafka可视化工具--kafkatool

    **Kafka工具详解——Kafkatool** Kafka作为一个分布式流处理平台,广泛应用于大数据实时处理和消息传递。然而,管理Kafka集群和操作其组件(如topics、partitions、offsets等)可能会变得复杂,这时就需要一些可视...

    17道消息队列Kafka面试题!.zip

    - Kafka的故障恢复机制是什么? - Kafka如何与其他系统集成,如Spark、HDFS? 6. **最佳实践:** - 消息分区策略:如何根据业务需求合理划分分区,例如基于时间戳、用户ID等。 - 消费者组设计:如何避免消费者...

    Kafka尚硅谷.rar

    **Kafka概述** Kafka是由LinkedIn开发并贡献给Apache软件基金会的一个开源消息系统,它是一个高性能、可扩展的分布式消息中间件。Kafka最初设计的目标是处理网站活动流数据,但随着时间的发展,它已被广泛应用于...

    kafka-java-demo 基于java的kafka生产消费者示例

    在"Kafka-java-demo"中,你可能会看到如何利用多线程来并行处理生产或消费任务,提升数据处理速度。例如,可以创建多个消费者线程来并行消费不同分区的消息。 【Kafka配置】 Kafka的配置项众多,包括但不限于...

Global site tag (gtag.js) - Google Analytics