Fork me on GitHub

在内核中经常会有需要用到队列来传递数据的时候,而在Linux内核中就有一个轻量而且实现非常巧妙的队列实现——kfifo。 简单来说kfifo是一个有限定大小的环形buffer,借用网络上的一个图片来说明一下是最清楚的:

kfifo-diagram

kfifo本身并没有队列元素的概念,其内部只是一个buffer。在使用的时候需要用户知道其内部存储的内容,所以最好是用来存储定长对象。

kfifo有一个重要的特性,就是当使用场景是单生产者单消费者(1 Producer 1 Consumer,以下简称1P1C)的情况下,不需要加锁,所以在这种情况下的性能较高。

本文中的所有代码均来自linux kernel 2.6.32,所以License也是GPLv2的。

定义及API

kfifo主要定义在include/linux/kfifo.h里面:

struct kfifo {
  unsigned char *buffer;	/* the buffer holding the data */
  unsigned int size;  /* the size of the allocated buffer */
  unsigned int in;  /* data is added at offset (in % size) */
  unsigned int out;  /* data is extracted from off. (out % size) */
  spinlock_t *lock;  /* protects concurrent modifications */
};

extern struct kfifo *kfifo_init(
    unsigned char *buffer, unsigned int size,
    gfp_t gfp_mask, spinlock_t *lock);
extern struct kfifo *kfifo_alloc(
    unsigned int size, gfp_t gfp_mask,
    spinlock_t *lock);
extern void kfifo_free(struct kfifo *fifo);
extern unsigned int __kfifo_put(struct kfifo *fifo,
    const unsigned char *buffer, unsigned int len);
extern unsigned int __kfifo_get(struct kfifo *fifo,
    unsigned char *buffer, unsigned int len);

可以看到在kfifo本身的定义里面,有一个spinlock_t,这是用来在多线程同时修改队列的时候加锁的。而其余的成员就很明显了,是用来表示队列的当前状态的。队列本身的内容存储在buffer里面。

需要注意的是,kfifo要求队列的size是2的幂(2^n),这样在后面操作的时候求余操作可以通过与运算来完成,从而更高效。

初始化通过kfifo_initkfifo_alloc完成。而对于队列操作的主要函数的是kfifo_putkfifo_get。这两个函数会先加锁,然后调用__kfifo_put或者__kfifo_get。也就是说真正的逻辑是实现在这两个函数里。 之前也说过kfifo在1P1C的情况下是不需要加锁的,所以这里我们会着重看看这两个函数。

入队

__kfifo_put的定义很短:

unsigned int __kfifo_put(struct kfifo *fifo,
  const unsigned char *buffer, unsigned int len)
{
  unsigned int l;
  len = min(len, fifo->size - fifo->in + fifo->out);

  /*
   * Ensure that we sample the fifo->out index -before- we
   * start putting bytes into the kfifo.
   */
  smp_mb();

  /* first put the data starting from fifo->in to buffer end */
  l = min(len, fifo->size - (fifo->in & (fifo->size - 1)));
  memcpy(fifo->buffer + (fifo->in & (fifo->size - 1)), buffer, l);

  /* then put the rest (if any) at the beginning of the buffer */
  memcpy(fifo->buffer, buffer + l, len - l);

  /*
   * Ensure that we add the bytes to the kfifo -before-
   * we update the fifo->in index.
   */
  smp_wmb();
  fifo->in += len;

  return len;
}

可以看到里面加了一些memory barrier来确保1P1C场景的正确,这里我们可以暂时忽略。

主要的步骤如下:

  1. 计算len和队列余下容量的较小值,如果队列容量不足,则只会拷贝剩余容量的大小。
  2. 先拷贝一部分内容到队列的尾部。
  3. 如果队列尾部并不能容下所有的内容,则再在队列的头部空闲空间继续拷贝。
  4. 把队列内容长度加上len
  5. 返回新增内容的长度len

这里注意到in只有在__kfifo_put里面才会修改,而这个函数里面只会对in增加,所以in的值只会增加,不会减少。而in本身是unsigned int类型的,所以当in超出了2^32的时候,会自动从0开始继续。

同时前面也说过,kfifo的size是2^n。所以当in > 2^n的时候,(in & 2^n - 1) == (in % 2^n),所以这里可以用与操作替代求余来获取in在队列中实际的位置。

出队

__kfifo_get的定义和__kfifo_put长度差不多:

unsigned int __kfifo_get(struct kfifo *fifo,
  unsigned char *buffer, unsigned int len)
{
  unsigned int l;
  len = min(len, fifo->in - fifo->out);

  /*
   * Ensure that we sample the fifo->in index -before- we
   * start removing bytes from the kfifo.
   */
  smp_rmb();

  /* first get the data from fifo->out until the end of the buffer */
  l = min(len, fifo->size - (fifo->out & (fifo->size - 1)));
  memcpy(buffer, fifo->buffer + (fifo->out & (fifo->size - 1)), l);

  /* then get the rest (if any) from the beginning of the buffer */
  memcpy(buffer + l, fifo->buffer, len - l);

  /*
   * Ensure that we remove the bytes from the kfifo -before-
   * we update the fifo->out index.
   */
  smp_mb();
  fifo->out += len;

  return len;
}

忽略掉memory barrier之后,主要步骤如下:

  1. 计算len和队列长度的较小值,如果队列内容不够,则只拷贝较小值的大小。
  2. 拷贝队列尾部的内容到输出buffer里面。
  3. 如果仍然有部分内容没有拷贝的话,则从队列头部拷贝余下的内容。
  4. 队列内容长度减少len(也就是out += len)。
  5. 返回拷贝内容的长度。

其实基本就是__kfifo_put的逆过程。

那这里就有一个问题了,其实队列的长度并不一定要用inout两个变量来表示啊,也可以用一个len变量来表示啊。那这里就涉及到了多线程的互斥问题了。

多线程互斥

这里我们只考虑最简单的多线程场景——1P1C。如果我们只用一个len来表示队列长度的话,那么看看__kfifo_put__kfifo_get里面对这个变量都需要做修改,而且一个是+=操作,一个是-=。如果在不加锁的情况下,这两个操作并不是原子操作,所以如果只用一个len,我们必须用锁来保护,无论是多么简单的多线程场景。

如果我们用inout来表示队列的读边界和写边界的话,那么队列的长度可以用in - out来表示。而且就像我们看到的那样,in只会在__kfifo_put里面修改,而out也只会在__kfifo_get里面修改,所以无论是inout都只会有一个线程修改,所以不会有互斥的问题。

那是不是这样就线程安全了呢?并不是。

还记得之前忽略掉的那些memory barrier吗?如果没有了那些barrier的话,代码仍然是不安全的。因为在多线程里面,我们不单只需要确保原子性,还需要保证不会有乱序(可见性)。而在没有锁或者memory barrier的情况下,没有办法保证在所有CPU上都不会出现乱序。而上面代码里面的memory barrier就是为了确保不出现乱序而加入的。

简单介绍一下这几个memory barrier的作用:

  1. smp_rmb保证读操作之间不会出现乱序
  2. smp_wmb保证写操作之间不会出现乱序
  3. smp_mb保证读写操作都不会出现乱序

接着我们可以把kfifo里面对inoutbuffer的读写操作归类一下,那么__kfifo_put的是下面这样:

  1. R(in), R(out)
  2. R(in), W(buffer)
  3. W(in)

__kfifo_get则是下面这样:

  1. R(in), R(out)
  2. R(out), R(buffer)
  3. W(out)

我们先来看__kfifo_put,有几个内存操作是不可以出现乱序的:

  1. R(out)和W(buffer):因为我们需要知道out的最新值,否则可能出现明明有队列有空间,但是我们仍写不进去数据的情况。这里因为是要保证读写操作之间的顺序,所以需要用smp_mb。实际上在x86/64平台,连这个barrier也可以忽略,因为在x86上面,读后写是保证不会乱序的,不过Linux内核由于需要保证各个平台都能work,所以仍然需要这里加上。
  2. W(buffer)和W(in):这个顺序是必须要保证的,否则可能我们更新了in之后,这个时候buffer的内容其实并没有copy进去,但是这时候来了一个__kfifo_get,就把内容拷贝出去了,这个是不允许的。所以这里我们需要用smp_wmb

我们可以用下面这个图来表示kfifo在put的时候的状态:

kfifo_put states

类似的,__kfifo_get也有几个内存操作不可以乱序:

  1. R(in)和R(buffer):我们需要获取最新的in值,否则可能会出现明明队列有内容,但是我们却读不到。这里需要用smp_rmb
  2. R(buffer)和W(out):这个顺序也是必须保证的,因为如果我们在读buffer之前就更新的out的话,则可能出现正要读buffer之前,该内容已经被__kfifo_put覆盖了,则读出来并不是我们想要的内容。这里需要用smp_mb

kfifo在get的时候的状态可以用下面的图来表示:

kfifo_get states

所以有了上面kfifo的实现,也就有了一个非常高效的1P1C队列。当然如果是在其他的多线程场景,我们仍然需要用spinlock来保护kfifo

性能比较

我建了一个repo(kfifo-benchmark)来简单地比较了一下kfifo的性能。 我把kfifo port到了user space,同时简单地把spinlock_t替换成了pthread_mutex_t(pthread_spinlock_t默认并不在pthread,需要另外配置)。

比较里面的三个case(可以自行到main.cc里面去看)及性能如下(我用的是real time/wall time,所以时间越短表示越快):

  1. 使用__kfifo_put__kfifo_get的1P1C(无锁):0m3.496s
  2. 使用kfifo_putkfifo_get的1P1C场景(mutex):0m13.291s
  3. 使用tpool里面的BoundedBlockingQueue默认特化的1P1C场景(mutex+condition variable):0m17.791s

可以看出来,在1P1C场景下,kfifo的无锁版比加锁版本要快3.8x。而就算是kfifo的加锁版本,也比tpool中的BoundedBlockingQueue要快33%。


知识共享许可协议
作品airekans创作,采用知识共享署名-相同方式共享 4.0 国际许可协议进行许可。


blog comments powered by Disqus

Published

12 October 2015

Tags