为什么需要缓存?



可以看到,CPU 最快,一个时钟周期是 0.3 纳秒内存访问需要 120 纳秒固态硬盘访问需要 50-150 微秒传统硬盘访问需要 1-10 毫秒网络访问最慢,都是几十毫秒

如果一个时钟周期如果按 1 秒算

  • 内存访问就是 6 分钟
  • 固态硬盘是 2-6 天
  • 传统硬盘是 1-12 个月
  • 网络访问就是几年了!

如果你是 CPU,你会觉得这个世界真是慢死了!从硬盘访问数据得等待 "几天" 甚至 "几个月"!


无处不在的 Cache

  • 限于存储介质的存取速率和成本,现代计算机的存储结构呈现为金字塔型。
  • 越往塔顶,存取效率越高、但成本也越高,所以容量也就越小。
  • 得益于程序访问的局部性原理,这种节省成本的做法也能取得不俗的运行效率。
  • 从存储器的层次结构以及计算机对数据的处理方式来看,上层一般作为下层的 Cache 层来使用(广义上的 Cache)。

比如:寄存器 缓存 CPU Cache 的数据,CPU Cache L1~L3 层 视具体实现彼此缓存直接缓存内存的数据,而内存往往缓存来自本地磁盘数据

  • CPU 寄存器 L0 层
  • CPU Cache L1~L3 层
  • 内存 L4 层
  • 本地磁盘 L5 层

本文主要讨论磁盘 IO 操作,故只聚焦于 Local Disk 的访问特性和其与 DRAM 之间的数据交互。

注意:下图为裸金属服务器上的操作系统存储结构图,如果是在 虚拟化的操作系统中是没有 L1~L3 层 的高速缓存的,这里要注意。



所以存储器的层级关系出来了,存储器越往上速度越快,但是价格越来越贵, 越往下速度越慢,但是价格越来越便宜。


Cache 和 Buffer 的区别在哪里?

CacheBuffer 是两个不同的概念,简单的说,Cache 是加速 “读”,而 Buffer 是缓冲 “写”,前者解决读的问题,保存从磁盘上读出的数据,后者是解决写的问题,保存即将要写入到磁盘上的数据。

在很多情况下,这两个名词并没有严格区分,常常把读写混合类型称为 buffer / cache


相关资料

Linux 操作系统原理 — 内存 — Cache 和 Buffer




Kafka 为什么能那么快 | Kafka 高效读写数据的原因

无论 kafka 作为 MQ 也好,作为存储层也罢,无非就是两个功能(好简单的样子)

  • 一是 Producer 生产的数据存到 broker
  • 二是 Consumer 从 broker 读取数据。

那 Kafka 的快也就体现在读写两个方面了,下面我们就聊聊 Kafka 快的原因。


1. 利用 Partition 实现并行处理

我们都知道 Kafka 是一个 Pub-Sub 的消息系统,无论是发布还是订阅,都要指定 Topic。

Topic 只是一个逻辑的概念。每个 Topic 都包含一个或多个 Partition,不同 Partition 可位于不同节点。

一方面,由于不同 Partition 可位于不同机器,因此可以充分利用集群优势,实现机器间的并行处理。

另一方面,由于 Partition 在物理上对应一个文件夹,即使多个 Partition 位于同一个节点,也可通过配置让同一节点上的不同 Partition 置于不同的磁盘上,从而实现磁盘间的并行处理,充分发挥多磁盘的优势。

能并行处理,速度肯定会有提升,多个工人肯定比一个工人干的快。

可以并行写入不同的磁盘?那磁盘读写的速度可以控制吗?


1.1 那就先简单扯扯磁盘/IO 的那些事

硬盘性能的制约因素是什么?如何根据磁盘 I/O 特性来进行系统设计?

硬盘内部主要部件为磁盘盘片、传动手臂、读写磁头和主轴马达。

实际数据都是写在盘片上,读写主要是通过传动手臂上的读写磁头来完成。

实际运行时,主轴让磁盘盘片转动,然后传动手臂可伸展让读取头在盘片上进行读写操作。

磁盘物理结构如下图所示:

Kafka深入浅出-kafka为什么那么快插图

由于单一盘片容量有限,一般硬盘都有两张以上的盘片,每个盘片有两面,都可记录信息,所以一张盘片对应着两个磁头。盘片被分为许多扇形的区域,每个区域叫一个扇区。

盘片表面上以盘片中心为圆心,不同半径的同心圆称为磁道,不同盘片相同半径的磁道所组成的圆柱称为柱面。

磁道与柱面都是表示不同半径的圆,在许多场合,磁道和柱面可以互换使用。

磁盘盘片垂直视角如下图所示:
Kafka深入浅出-kafka为什么那么快插图1

影响磁盘的关键因素是磁盘服务时间,即磁盘完成一个 I/O 请求所花费的时间,它由寻道时间、旋转延迟和数据传输时间三部分构成。

机械硬盘的连续读写性能很好但随机读写性能很差,这主要是因为磁头移动到正确的磁道上需要时间,随机读写时,磁头需要不停的移动,时间都浪费在了磁头寻址上,所以性能不高。

衡量磁盘的重要主要指标是 IOPS 和吞吐量。

在许多的开源框架如 Kafka、HBase 中,都通过追加写的方式来尽可能的将随机 I/O 转换为顺序 I/O,以此来降低寻址时间旋转延时,从而最大限度的提高 IOPS。

磁盘读写的快慢取决于你怎么使用它,也就是顺序读写或者随机读写


2. 顺序写磁盘

Kafka深入浅出-kafka为什么那么快插图2

Kafka 中每个分区是一个有序的,不可变的消息序列,新的消息不断追加到 partition 的末尾,这个就是顺序写

很久很久以前就有人做过基准测试:《每秒写入 2 百万(在三台廉价机器上)》http://ifeve.com/benchmarking-apache-kafka-2-million-writes-second-three-cheap-machines/

由于磁盘有限,不可能保存所有数据,实际上作为消息系统 Kafka 也没必要保存所有数据,需要删除旧的数据。

又由于顺序写入的原因,所以 Kafka 采用各种删除策略删除数据的时候,并非通过使用“读 - 写”模式去修改文件,而是将 Partition 分为多个 Segment,每个 Segment 对应一个物理文件,通过删除整个文件的方式去删除 Partition 内的数据。

这种清除旧数据的方式,也避免了对文件的随机写操作。


3. 充分利用 Page Cache

引入 Cache 层的目的是为了提高 Linux操作系统 对磁盘访问的性能。Cache 层在内存中缓存了磁盘上的部分数据。

当数据的请求到达时,如果在 Cache 中存在该数据且是最新的,则直接将数据传递给用户程序,免除了对底层磁盘的操作,提高了性能。Cache 层也正是磁盘 IOPS 为什么能突破 200 的主要原因之一。

在 Linux 的实现中,文件 Cache 分为两个层面,一是 Page Cache另一个 Buffer Cache,每一个 Page Cache 包含若干 Buffer Cache。

Page Cache 主要用来作为文件系统上的文件数据的缓存来用,尤其是针对当进程对文件有 read/write 操作的时候。

Buffer Cache 则主要是设计用来在系统对块设备进行读写的时候,对块进行数据缓存的系统来使用。

使用 Page Cache 的好处:

  • I/O Scheduler 会将连续的小块写组装成大块的物理写从而提高性能
  • I/O Scheduler 会尝试将一些写操作重新按顺序排好,从而减少磁盘头的移动时间
  • 充分利用所有空闲内存(非 JVM 内存)。
    • 如果使用应用层 Cache(即 JVM 堆内存),会增加 GC 负担
  • 读操作可直接在 Page Cache 内进行。
    • 如果消费和生产速度相当,甚至不需要通过物理磁盘(直接通过 Page Cache)交换数据。
  • 如果进程重启,JVM 内的 Cache 会失效,但 Page Cache 仍然可用

Broker 收到数据后,写磁盘时只是将数据写入 Page Cache,并不保证数据一定完全写入磁盘。从这一点看,可能会造成机器宕机时,Page Cache 内的数据未写入磁盘从而造成数据丢失

但是这种丢失只发生在机器断电等造成操作系统不工作的场景,而这种场景完全可以由 Kafka 层面的 Replication 机制去解决

如果为了保证这种情况下数据不丢失而强制将 Page Cache 中的数据 Flush 到磁盘,反而会降低性能。

也正因如此,Kafka 虽然提供了 flush.messagesflush.ms 两个参数将 Page Cache 中的数据强制 Flush 到磁盘,但是 Kafka 并不建议使用


4. 零拷贝技术

Kafka 中存在大量的网络数据持久化到磁盘(Producer 到 Broker)和磁盘文件通过网络发送(Broker 到 Consumer)的过程。这一过程的性能直接影响 Kafka 的整体吞吐量。

操作系统的核心是内核,独立于普通的应用程序,可以访问受保护的内存空间,也有访问底层硬件设备的权限。

为了避免用户进程直接操作内核,保证内核安全,操作系统将虚拟内存划分为两部分,一部分是内核空间(Kernel-space),另一部分是用户空间(User-space)


4.1 网络数据持久化到磁盘 (Producer 到 Broker)

传统的 Linux 系统中,标准的 I/O 接口(例如 read,write)都是基于数据拷贝操作的,即 I/O 操作会导致数据在内核地址空间的缓冲区用户地址空间的缓冲区之间进行拷贝,所以标准 I/O 也被称作缓存 I/O。

这样做的好处是,如果所请求的数据已经存放在内核的高速缓冲存储器中,那么就可以减少实际的 I/O 操作,但坏处就是数据拷贝的过程,会导致 CPU 开销。

我们把 Kafka 的生产和消费简化成如下两个过程来看

  1. 网络数据持久化到磁盘 (Producer 到 Broker)
  2. 磁盘文件通过网络发送(Broker 到 Consumer)

4.1.1 传统Linux操作系统

传统模式下,数据从网络传输到文件需要 4 次数据拷贝4 次上下文切换和两次系统调用。

data = socket.read()     // 读取网络数据
File file = new File()
file.write(data)         // 持久化到磁盘
file.flush()

这一过程实际上发生了四次数据拷贝:

  1. 首先通过 DMA copy 将网络数据拷贝到内核态 Socket Buffer
  2. 然后应用程序将内核态 Buffer 数据读入用户态(CPU copy)
  3. 接着用户程序将用户态 Buffer 再拷贝到内核态(CPU copy)
  4. 最后通过 DMA copy 将数据拷贝到磁盘文件

同时,还伴随着四次上下文切换,如下图所示:



DMA(Direct Memory Access):直接访问存储器

DMA 是一种无需 CPU 的参与,让外设和系统内存之间进行双向数据传输的硬件机制。

使用 DMA 可以使系统 CPU 从实际的 I/O 数据传输过程中摆脱出来,从而大大提高系统的吞吐率。


4.1.2 现代Linux操作系统

数据落盘通常都是非实时的,kafka 生产者数据持久化也是如此。

Kafka 的数据并不是实时的写入硬盘,它充分利用了现代操作系统分页存储来利用内存提高 I/O 效率,就是上一节提到的 Page Cache

对于 kafka 来说,Producer 生产的数据存到 broker,这个过程读取到 socket buffer 的网络数据,其实可以直接在内核空间完成落盘

并没有必要将 socket buffer 的网络数据,读取到应用进程缓冲区;在这里应用进程缓冲区其实就是 brokerbroker 收到生产者的数据,就是为了持久化

在此特殊场景下:接收来自 socket buffer 的网络数据,应用进程不需要中间处理、直接进行持久化时。可以使用 mmap 内存文件映射

Memory Mapped Files (内存文件映射):简称 mmap,也有叫 MMFile 的,使用 mmap 的目的是将内核空间中读缓冲区(read buffer)的地址用户空间的缓冲区(user buffer)进行映射

从而实现内核缓冲区与应用程序内存的共享,省去了将数据从内核读缓冲区(read buffer)拷贝到用户缓冲区(user buffer)的过程。

它的工作原理是直接利用操作系统的 Page 来实现文件到物理内存的直接映射。完成映射之后你对物理内存的操作会被同步到硬盘上。

使用这种方式可以获取很大的 I/O 提升,省去了用户空间内核空间复制的开销

mmap 也有一个很明显的缺陷——不可靠,写到 mmap 中的数据并没有被真正的写到硬盘,操作系统会在程序主动调用 flush 的时候才把数据真正的写到硬盘。

  • Kafka 提供了一个参数——producer.type 来控制是不是主动 flush;
  • 如果 Kafka 写入到 mmap 之后就立即 flush 然后再返回 Producer 叫同步(sync)默认是 sync
  • 写入 mmap 之后立即返回 Producer 不调用 flush 就叫异步(async)



零拷贝(Zero-copy)技术指在计算机执行操作时,CPU 不需要先将数据从一个内存区域复制到另一个内存区域,从而可以减少上下文切换以及 CPU 的拷贝时间。

它的作用是在数据报从网络设备到用户程序空间传递的过程中,减少数据拷贝次数,减少系统调用,实现 CPU 的零参与,彻底消除 CPU 在这方面的负载。

目前零拷贝技术主要有三种类型

  • 直接 I/O:
    • 数据直接跨过内核,在用户地址空间与 I/O 设备之间传递,内核只是进行必要的虚拟存储配置等辅助工作;
  • 避免内核空间和用户空间之间的数据拷贝:
    • 当应用程序不需要对数据进行访问时,则可以避免将数据从内核空间拷贝到用户空间
    • mmap
    • sendfile
    • splice && tee
    • sockmap
  • copy on write:
    • 写时拷贝技术,数据不需要提前拷贝,而是当需要修改的时候再进行部分拷贝

4.2 磁盘文件通过网络发送(Broker 到 Consumer)


4.2.1 传统Linux操作系统

传统方式实现:先读取磁盘、再用 socket 发送,实际也是进过四次 copy

buffer = File.read Socket.send(buffer)

这一过程可以类比上边的生产消息:

  1. 首先通过系统调用将文件数据读入到内核态 Buffer(DMA 拷贝)
  2. 然后应用程序将内存态 Buffer 数据读入到用户态 Buffer(CPU 拷贝)
  3. 接着用户程序通过 Socket 发送数据时将用户态 Buffer 数据拷贝到内核态 Buffer(CPU 拷贝)
  4. 最后通过 DMA 拷贝将数据拷贝到 NIC Buffer

4.2.2 现代Linux操作系统

Linux 2.4+ 内核通过 sendfile 系统调用,提供了零拷贝。

数据通过 DMA 拷贝到内核态 Buffer 后,直接通过 DMA 拷贝到 NIC Buffer,无需 CPU 拷贝。这也是零拷贝这一说法的来源。

除了减少数据拷贝外,因为整个读文件 - 网络发送由一个 sendfile 调用完成,整个过程只有两次上下文切换,因此大大提高了性能。



Kafka 在这里采用的方案是通过 NIO 的 transferTo/transferFrom 调用操作系统的 sendfile 实现零拷贝。

总共发生 2 次内核数据拷贝、2 次上下文切换和一次系统调用,消除了 CPU 数据拷贝


5. 批处理

在很多情况下,系统的瓶颈不是 CPU 或磁盘,而是网络 IO

因此,除了操作系统提供的低级批处理之外,Kafka 的客户端和 broker 还会在通过网络发送数据之前,在一个批处理中累积多条记录 (包括读和写)。

记录的批处理分摊了网络往返的开销使用了更大的数据包从而提高了带宽利用率


6. 数据压缩

Producer 可将数据压缩后发送给 broker,从而减少网络传输代价,目前支持的压缩算法有:Snappy、Gzip、LZ4。

数据压缩一般都是和批处理配套使用来作为优化手段的。


总结,kafka 为什么快?

  • partition 并行处理
  • 顺序写磁盘,充分利用磁盘特性
  • 利用了现代操作系统分页存储 Page Cache 来利用内存提高 I/O 效率
  • 采用了零拷贝技术 Producer 生产的数据持久化到 broker,采用 mmap 文件映射,实现顺序的快速写入
  • Customer 从 broker 读取数据,采用 sendfile,将磁盘文件读到 OS 内核缓冲区后,转到 NIO buffer 进行网络发送,减少 CPU 消耗
  • 批处理分摊网络往返开销,使用了更大的数据包提高了带宽利用率

参考原文链接

分类: Kafka

毛巳煜

高级软件开发全栈架构师

工信部备案号:辽ICP备17016257号-2