Linux 锁与进程间通信

简介: 本文整理了 Linux 内核中锁与进程间通讯的相关知识。

引言

本文整理了 Linux 内核中锁与进程间通讯的相关知识,其他 Linux 相关文章均收录于 <Linux系列文章>

锁与进程间通讯

前面介绍系统调用时就提到了信号这一进程间通讯手段,这一节我们详细的介绍各种进程间通讯的机制(IPC)。和 IPC 相关的多进程交互过程势必会牵扯到同步机制,所以在这一节中我们先会介绍锁的相关内容。

在讲述内核的各种进程间通信 (inter process communication,IPC) 和数据同步机制之前,我们简单讨论一下相互通信的进程彼此干扰的可能情况,以及如何防止。假如两个进程通过共享内存的方式使用了同一计数器,如果两个进程在同一时刻想将计数器加一就可能面临一个问题:因为对计数器加一的过程会分 3 步完成:获取计数器当前值,计算计算器加一的值,将结果保存回计数器内存。如果两个进程分别执行了读取计数器的值,都获得了 0 这个原始值,然后分别加一并保存,那么最后计数器的值就会是 1,但是在进程的调度来看,这两个进程分别对计数器加一那么最终计数器的值应该是 2。

像上诉这种几个进程在访问资源时彼此干扰的情况通常称之为竞争条件(race condition)。在对分布式应用编程时,这种情况是一个主要的问题,因为竞争条件很难检查检测。相反,只有彻底研究源代码(深入了解各种可能发生的代码路径)并通过敏锐的直觉,才能找到并消除竞争条件。由于导致竞争条件的情况非常罕见,因此需要提出一个问题: 是否值得做一些(有时候是大量的)工作来保护代码避免竞争条件。

上述问题的典型解决方案是标记出相关的代码段我们称之为临界区,我们要做到最多只有一个进程处于临界区。这样多个进程就能够互斥的访问并修改共享内存中的值。在内核中有很多机制可以保证这里所说的互斥访问,接下来我们就一一介绍它们。

原子操作

内核定义了 atomic_t 数据类型,用作对整数计数器的原子操作。从内核的角度来看,这些操作的执行仿佛是一条汇编语句。回到刚才对计数器加 1 的例子中。它通常分为 3 步执行:

  1. 将计数器值从内存复制到处理器寄存器
  2. 将其值加 1
  3. 将寄存器数据回写到内存

内核支持的所有处理器,都提供了原子执行此类操作的手段。一般说来,可使用特殊的锁指令(IA-32 上该指令就是 lock)阻止系统中其他处理器工作,直至当前处理器完成下一个操作为止。也可以使用效果相同的等价机制。

自旋锁

自旋锁用于保护短的代码段,其中只包含少量 C 语句,因此会很快执行完毕。它的特点是在内核等待自旋锁释放时,会重复检查是否能获取锁(忙等待),而不会进入睡眠状态。当然,如果等待时间较长,则效率显然不高。大多数内核数据结构都有自身的自旋锁,在处理结构中的关键成员时,必须获得相应的自旋锁。

自旋锁通过 spinlock_t 数据结构实现,基本上可使用 spin_lock 和 spin_unlock 操纵。还有其他一些自旋锁操作: spin_lock_irqsave 不仅获得自旋锁,还停用本地 CPU 的中断,而 spin_lock_bh 则停用 sofIRQ (软中断)。同样,自旋锁的实现也几乎完全是汇编语言(与体系结构非常相关),因此在这里不讨论了。

这里大家可能会有疑问,为什么会有自旋锁和中断(无论是软中断还是硬中断)一同禁用的情况,我们前面说过中断具有最高执行优先级,当中断到来时,内核会完全停止手头的工作并转而去执行中断处理程序。如果当前 CPU 正处于自旋锁保护的临界区中(操作某种内核资源),在退出临界区之前当前 CPU 被中断抢占,而如果中断处理程序中操作了和临界区中相同的内核资源,那么这个中断处理程序中势必也要使用这个自旋锁,因为中断没有调度实体,所以这时候当前 CPU 会被自己锁死。所以自旋锁有配套禁用中断的函数,通过它可以在获得自旋锁的同时禁用中断,它们一般在中断上下文中和内核工作时使用。

自旋锁的使用方式如下:

spinlock_t lock = SPIN_LOCK_UNLOCKED;
...
spin_lock(&lock);
/*临界区*/
spin_unlock(&lock);

在使用自旋锁时必须要注意下面四点。

  1. 如果获得锁之后不释放,系统将变得不可用。所有的处理器(包括获得锁的在内),迟早需要进入锁对应的临界区。它们会进入无限循环等待锁释放,但等不到,这将产生死锁。
  2. 自旋锁决不应该长期持有,因为所有等待锁释放的处理器都处于不可用状态,无法用于其他工作。
  3. 自旋锁当前的持有者无法多次获得同一自旋锁(不可重入)! 在函数调用了其他函数,而这些函数每次都操作同一个锁时,这种约束特别重要。如果已经获得一个锁,而调用的某个函数试图再次获得该锁,尽管当前的代码路径已经持有该锁,也同样会发生死锁。这是内核自旋锁的一个约束,主要是为了锁的使用更加清晰。
  4. 自旋锁保护的临界区内不可睡眠,如果只是单纯的使用自旋锁没有关闭中断的情况下,那么很可能有其他 CPU 还在等待这个自旋锁,如果允许睡眠,可能很久都不会释放该锁,那么其他请求该锁的 CPU 都会白等,这显然和自旋锁的设计目的(保护短代码)相背。而如果使用自旋锁的同时禁用了中断,并且睡眠了就更可怕了,因为 CPU 的调度是依赖于中断机制的,没有了中断当前进程还去睡眠了 CPU 就会无限期停止工作。

在单处理器系统上,自旋锁定义为空操作,因为不存在几个 CPU 同时进入临界区的情况。但如果启用了内核抢占,这种说法就不适用了。如果内核在临界区中被中断,而此时另一个进程进入临界区,这与 SMP 系统上两个处理器同时在临界区执行的情况是等效的。通过一个简单的技巧就可以防止这种情况发生: 内核进入到由自旋锁保护的临界区时,就停用内核抢占。在启用了内核抢占的单处理器内核中,spin_lock(基本上) 等价于 preempt_disable,而 spin_unlock 则等价于 preempt_enable.

信号量

内核使用的信号量定义如下。注意:用户空间信号量的实现有所不同,它不仅能够提供互斥访问,还是进程间通讯的一种方式,这一点我们后面介绍 IPC 部分时你就会发现。

struct semaphore {
    // 可同时处于临界区中的进程数目,大部分情况下 count == 1,这时候又称为互斥信号量
    atomic_t count;
    // 等待进程的数目,不同于自旋锁,等待进程会进入睡眠,直到信号量释放才会被唤醒
    int sleepers;
    // 处于睡眠状态的等待进程队列
    wait_queue_head_t wait;
};

与自旋锁相比,信号量适合于保护更长的临界区,以防止并行访问。但它们不应该用于保护较短的代码范围,因为竞争信号量时需要使进程睡眠和再次唤醒,代价很高。

大多数情况下,我们不会使用信号量的所有功能(多个进程同时进入临界区),只是将其用作互斥量,这时候只有一个进程能进入临界区。内核有一个宏函数来定义这种互斥信号量:

// 定义互斥信号量
DECLARE_MUTEX(mutex)
// 计数器减一,其他进程不能进入临界区
down(&mutex);
/*临界区*/
// 计数器加一
up(&mutex);

在试图用 down 获取已经分配的信号量时,当前进程进入睡眠,并放置在与该信号量关联的等待队列上。同时,该进程被置于 TASK_UNINTERRUPTIBLE 状态,在等待进入临界区的过程中无法接收信号。如果信号量没有分配,则该进程可以立即获得信号量并进入到临界区,而不会进入睡眠。

在退出临界区时,必须调用 up。该函数负责唤醒在信号量睡眠的某个进程,该进程随后临界区,而所有其他等待的进程继续睡眠。

除了 down 操作之外,还有两种其他的操作用于获取信号量:

  1. down_interruptible 工作方式与 down 相同,但如果无法获得信号量,则将进程置于 TASK_INTERRUPTIBLE 状态。因此,在进程睡眠时可以通过信号唤醒。
  2. down_trylock 试图获取信号量。如果失败,则进程不会进入睡眠等待信号量,而是返回非 0 并继续正常执行。

RCU 机制

RCU (read-copy-update) 是一个相当新的同步机制,它的性能很好,不过对内存有一定的开销,但大多数情况下可以忽略。注意:这里我们只讨论经典的 RCU 实现,下面是 RCU 的一些约束。

  • 对共享资源的访问在大部分时间应该是只读的,写访问应该相对很少
  • 在 RCU 保护的代码范围内,内核不能进入睡眠状态,原因我们后面介绍。
  • 受保护资源必须通过指针访问。

RCU 的原理很简单: 该机制记录了指向共享数据结构的指针的所有使用者。在该结构将要改变时,则首先创建个副本,在副本中修改。在所有进行读访问的使用者结束对旧副本的读取之后,指针可以替换为指向新的、修改后副本的指针。这种机制允许读写并发进行!

RCU 的读操作使用方式如下:

rcu_read_lock();
// 获取当前数据指针,对该指针的使用必须在 rcu_read_lock 和 rcu_read_unlock 范围内,同时也不能对其进行写操作
p = rcu_dereference(ptr);
if (p != NULL) {
    awesome_function(p);
rcu_read_unlock();

RCU 的写操作使用方式如下:

// 创建新的对象实例
struct super_duper *new_ptr = kmalloc(...);
new_ptr->meaning = xyz;
new_ptr->of = 42;
// 使用新对象的指针替换原来的指针,原来指针指向的数据由内核在合适的时机进行释放。
// 如果更新操作可能在多个地方并发进行的话,则需要自己提供机制来保持写操作的互斥,比如加自旋锁。
rcu_assign_pointer(ptr,new_ptr);

RCU 允许读取者与写入者之间因指针切换所造成的短暂的资源视图不一致。 正是因为这一宽松的限制,RCU 才能让读写可以并发,从而提高了并发性。

好了,现在我们来说一下为什么 RCU 的保护范围内为什么不能睡眠。这是因为在 rcu_read_lock 会禁用内核抢占(注意:不是禁用中断),换句话说在 rcu_read_lock 和 rcu_read_unlock 之间,不会发生进程调度。之所以这么做是因为内核将每个 CPU 都进行了一个进程调度作为 RCU 旧指针的释放前提。在使用当前指针的时候,禁止进程调度,将一个与当前 CPU 对应的变量 per-CPU 置为 1,当使用结束后开启调度,这样在这个 CPU 发生了一次进程调度后,会将 CPU 对应的变量 per-CPU 置为 0,当所有 CPU 对应的 per-CPU 都为 0 时就可以释放旧指针了。

内存和优化屏障

现代编译器和处理器会尽可能从代码中“压榨”出每一点性能,其中一个有利于提高性能的技术是指令重排。只要结果不变,这完全没有问题。但编译器或处理器很难判定重排的结果是否确实与代码原本的意图匹配。

尽管锁足以确保原子性,但对编译器和处理器优化过的代码,锁可能就不能保证时序正确了。就比如前面介绍的 RCU,如果对当前数据指针的读操作重排后出现在了 rcu_read_unlock 之后,可能就会出现潜在的空指针问题。内核提供了下面几个函数,可阻止处理器和编译器进行代码重排。

  • mb()、rmb(、wmb() 将硬件内存屏障插入到代码流程中。rm() 是读访问内存屏障。它保证在屏障之后发出的任何读取操作执行之前,屏障之前发出的所有读取操作都已经完成。wmb 适用于写访问,语义与 rm 类似。mb() 合并了二者的语义。
  • barrier 插入一个优化屏障。该指令告知编译器,保存在CPU寄存器中、在屏障之前有效的所有内存地址,在屏障之后都将失效。本质上,这意味着编译器在屏障之前发出的读写请求完成之前,不会处理屏障之后的任何读写请求。但 CPU 仍然可以重排时序!
  • smb_mb()、smp_rmb()、smp_wmb() 相当于上述的硬件内存屏障,但只用于 SMP 系统。它们在单处理器系统上产生的是软件屏障。
  • read_barrier_depends() 是一种特殊形式的读访问屏障,它会考虑读操作之间的依赖性。如果屏障之后的读请求,依赖于屏障之前执行的读请求的数据,那么编译器和硬件都不能重排这些请求。

RCU 在 rcu_read_unlock 就使用了 barrier 命令来保证对当前指针的所有读操作不会发生在 rcu_read_unlock 之后。除此之外,禁止抢占的函数也是用该内存屏障。

#define preempt_disable() \
do { \
        inc_preempt_count(); \
        // 防止后续指令发生在禁止抢占之前
        barrier(); \
} while (0)

#define preempt_enable() \
    do {\
    ...
    // 防止前面的指令发生在开启抢占之后
    barrier(); \
    preempt_check_resched(); \
} while (0)

per-CPU

在介绍 RCU 时,我们还用到 per-CPU,它为每个 CPU 都维护了一个标志来表示当前 CPU 是否发生了进程调度,当所有 CPU 都完成了进程调度之后,才开始释放 RCU 的旧指针。想象一下,如果我们只用一个单一计数器来统计当前 RCU 指针有多少个地方在使用,那么这个变量就必须是原子变量,如果系统有大量 CPU,并且有很多 CPU 上都使用了 RCU 的同一指针,那么在它们一起释放的时候这个原子计数器势必会成为瓶颈。每次只有一个 CPU 可以修改其值,所有其他 CPU 都必须等待操作结束,才能再次访问计数器。如果计数器频繁访问,则会严重影响系统性能。所以我们转而使用一个数组,数组中的每一项对应了一个 CPU,这样每个 CPU 单独维护自己是否进行了进程切换。这样就不会有上述的竞争发生,效率就更高,在我们要确认是否能够释放 RCU 指针的时候,只需要确认当前是否每个 CPU 对应的项都为 0 就行了。
per-cpu
除了上述的使用之外,内核中还有一个近似 per-CPU 计数器的结构,这种计数器实际上是一个懒计算,在并不一定需要计数器准确值时可以使用它,在每个 CPU 要修改计数器的值时只是将变动保存在 per-CPU 项中,比如一个 CPU 要对计数器+3,那么 per-CPU 项中保存 +3,如果该 CPU 之后要将计数器 -5,那么per-CPU 项中的值变成 -2。当需要计数器准确值或者某个 per-CPU 项的值(绝对值)过大时,才会更新计数器的实际值。

struct percpu_counter {
    // 重新计算实际值时,使用自旋锁保护
    spinlock_t lock;
    // 当前计数器的值,如果不需要准确值的时候,直接访问该值就可以,它不会和实际值相差过大,因为如果 per-CPU 绝对值过大会自动重新计算该值
    long count;
    // 保存每个 CPU 对应的项
    long *counters;
};

读写锁

上述的各个机制有一种不利情况。它们没有区分数据结构的读写访问。通常,任意数目的进程都可以并发读取数据结构,而写访问只能限于一个进程。因此内核提供了额外的信号量和自旋锁版本,考虑到上述因素,分别称之为读/写信号量和读/写自旋锁。

读写自旋锁定义为 rwlock_t 数据类型。必须根据读写访问,以不同的方法获取锁。

  • 进程对临界区进行读访问时,在进入和离开时需要分别执行 read_lock 和 read_unlock。内核会允许任意数目的读进程并发访问临界区。
  • write_lock 和 write_unlock 用于写访问。内核保证只有一个写进程(此时没有读进程)能够处于临界区中。

大内核锁

这是内核锁遗迹之一,它可以锁定整个内核,确保没有处理器在核心态并行运行。该锁称为大内核锁 (big kernel lock),通常用缩写表示,即 BKL。BKL 的一个特性是,它的锁深度也会进行计数。这意味着在内核已经锁定时,仍然可以调用 lock_kernel(可重入)。对应的解锁操作 (unlock_kernel) 必须调用同样的次数,以解锁内核,使其他处理器能够进入。BKL 已经被废弃,应该避免使用它而去使用更加细粒度的锁。

互斥量

尽管信号量可以用来实现互斥量功能,但是信号量的通用性导致其性能开销较大,因此内核还单独实现了一个互斥量。更准确地说,内核有两个互斥量实现,一个是经典互斥量,一个是为实时应用准备的实时互斥量。

经典互斥量的结构如下:

struct mutex {
    /* 1:未锁定,0:锁定只有一个进程使用,负值: 锁定,有等待者 */
    atomic_t count;
    spinlock_t wait_lock;
    struct list_head wait_list;
}

有两种方法定义新的互斥量。

  1. 静态互斥量可以在编译时通过使用 DEFINE_MUTEX 产生(不要与 DECLARE_MUTEX 混淆,它是基于信号量的互斥量)。
  2. mutex_init 在运行时动态初始化个新的互斥量。

mutex_lock 和 mutex_unlock 分别用于锁定和解锁互斥量。此外内核也提供了 mutex_trylock,该函数尝试获取互斥量。如果互斥量已经锁定,则立即返回。

实时互斥量是内核支持的另一种形式的互斥量。与普通的互斥量相比,它们实现了优先级继承(priority inheritance),该特性可用于解决优先级反转的影响。

想象一下,系统上有两个进程运行: 进程 A 优先级高,进程 C 优先级低。假定进程 C 已经获取了一个互斥量,正在所保护的临界区中运行,且在短时间内不打算退出。但在进程 C 进入临界区之后不久,进程 A 也试图获取保护临界区的互斥量。由于进程 C 已经获取该互斥量,因而进程 A 必须等待。这导致高优先级的进程 A 等待低优先级的进程 C。

如果有第 3 个进程 B,优先级介于进程 A 和进程 C 之间,情况会更加糟糕。假定进程 C 仍然持有锁,进程A在等待。现在进程 B 开始运行。由于它的优先级高于进程 C,因此可以抢占进程 C。但它实际上也抢占了进程 A,而进程 A 的优先级是高于进程 B 的,这就和优先级的定义有矛盾。如果进程 B 继续运行,那么它可以让进程 A 等待更长时间,因为进程 C 被进程 B 抢占,所以它只能更慢地完成其操作。因此看起来仿佛进程 B 的优先级高于进程 A 一样。

这种情况称为无限制优先级反转(unbounded priority inversion)。该问题可以通过优先级继承解决。如果高优先级进程阻塞在互斥量上,该互斥量当前由低优先级进程持有,那么进程 C 的优先级(在我们的例子中)临时提高到进程 A 的优先级。如果进程 B 现在开始运行,只能得到与进程 A 竞争情况下的 CPU 时间,这就理顺了优先级的问题。

struct rt_mutex {
    // 提供实际保护
    spinlock_t wait_lock;
    // 等待队列,按优先级排序
    struct plist_head wait_list;
    // 当前所有者
    struct task_struct *owner;
};

在上例中,如果 C 当前持有该互斥量,A 进程进入等待,因为 A 的优先级大于 C 所以会临时提高到 A 的优先级。这会动态的改变 task_struct->prio,而普通优先级 task_struct->normal_priority 不变。这两者的区别我们在前面介绍进程的时候提过。

锁竞争与细粒度锁

对于内核频繁使用的数据,要尽可能地提高性能,同时要能够允许并发。如果整个数据结构(甚至于多个数据结构、整个驱动程序或整个子系统)由一个锁保护的话,那么该锁会很容易发生竞争,该锁会成为内核的一个热点(hotspot)。为补救这种情况,通常需要标识数据结构中各个独立的部分,使用多个锁来保护结构的成员。这种解决方案称之为细粒度锁。但这也会带来一些问题:

  1. 获取多个锁会增加操作的开销,特别是在较小的 SMP 计算机上。
  2. 在通过多个锁保护一个数据结构时,很自然会出现一个操作需要同时访问两个受保护区域的情况,因而需要同时持有多个锁。这要求必须遵循某个特定的锁定顺序,必须按照顺序获取和释放锁,否则会导致死锁!

进程间通讯

信号

信号是一种比较原始的通信机制。尽管提供的选项较少,但是它们非常有用。其底层概念非常简单,kill命令根据 PID 向进程发送信号。信号通过 -s sig 指定,是一个正整数,最大长度取决于处理器类型。该命令有两种最常用的变体: 一种是 kill 不指定信号,实际上是要求进程结束(进程可以忽略该信号)另一种是 kill-9,等价于在死刑批准上签字(导致某些进程死亡)。

进程必须设置处理程序例程来处理信号。这些例程在信号发送到进程时调用(但有几个信号的行为无法修改,如SIGKILL)。如果没有显式地设置处理程序例程,内核则使用默认的处理程序实现。进程可以决定阻塞特定的信号(有时称之为信号屏蔽)。

如果发生这种情况,会一直忽略该信号,直至进程决定解除阻塞。因而,进程是否能感知到发送的信号,是不能保证的。在信号被阻塞时,内核将其放置到待决列表上。如果同一个信号被阻塞多次,则在待决列表中只放置一次。不管发送了多少相同的信号,在进程删除阻塞之后,都只会接收到一个信号。

SIGKILL 信号无法阻塞,也不能通过特定于进程的处理程序处理。之所以不能修改该信号的行为,是因为它是从系统删除失控进程的最后手段。它与 SIGTERM 信号不同,后者可以通过用户定义的信号处理程序处理,实际上只是向进程发出的一个客气的请求,要求进程尽快停止工作而已。

如果已经为该信号设置了处理程序,那么程序就有机会保存数据或询问用户是否确实想要退出程序。SIGKILL 不会提供这种机会,因为内核会立即强行终止进程。但是 init 进程属于特例。内核会忽略发送给该进程的 SIGKILL 信号。因为该进程对整个系统尤其重要,不能强制结束该进程,即使无意结束也不行。

sigaction 系统调用用于设置新的处理程序:

#include<signal.h>
#include<stdio.h>
/*处理程序函数*/
void handler(int sig) {
    printf("Receive signal: %u\n",sig);
};
int main(void) {
    struct sigaction sa;
    int count;

    /* 初始化信号处理程序结构 */
    sa.sa_handler = handler;
    sigemptyset(&sa.sa_mask);
    sa.sa_flags = 0;

    /* 给 SIGTERM 信号分配一个新的处理程序函数 */
    sigaction(SIGTERM,&sa,NULL);

    /*sa_mask 是一个位掩码,一个位代表系统中的一个信号是否屏蔽,这里表示接收所有信号 */
    sigprocmask(&sa.sa_mask);
    /* 阻塞,一直等到信号到达 */
    while (1) {
        /*等待一个信号*/
        sigsuspend (&sa.sa_mask);
        printf("loop\n");
    }

    return 0;
};

尽管信号处理发生在内核中,但设置的信号处理程序是在用户状态运行,否则很容易向内核引入恶意或有缺陷的代码,从而破坏系统安全机制。
signal-call
如果应用进程没有为信号指定信号处理程序,那么内核会根据信号类型分别进行如下之一的操作:

  • 忽略:什么都不做
  • 结束:结束进程或进程组
  • 停止:将进程置于 TASK_STOPPED 状态
  • 内存转储:创建地址空间的内存转储,并写入内存转储文件供调试器查看

信号和其默认处理操作的映射关系如下:
default-signal-handler
在内核中通过如下结构来维护进程的信号处理相关内容:
kernel-signal-manage
上图中的 pending 对应的就是由于信号屏蔽而被阻塞的信号,它们以链表的形式保存。而 sighand 对应的则是信号处理程序,其中 count 指的是共享了该信号处理方案的进程数,回想一下 clone 操作产生的父子进程会共享同一套信号处理程序,这个时候 count 就是 2。此外,action 数组对应的就是信号处理程序的地址,_NSIG 代表了该体系结构中信号的总数。

当通过 kill 系统调用发送一个信号后,会先找到回应的进程,确认信号是否被忽略handler == SIG_IGN || (handler == SIG_DFL && sig_kernel_ignore(sig)),如果没有被忽略,则会添加到待决队列(如果信号被阻塞并且待决队列中存在该信号,则不添加)。如果发送成功,则调用 signal_wake_up 唤醒进程,使调度器可以选择运行该进程。此外,还设置了进程的 TIF_SIGPENDING 标志,标有有待处理的信号。到此为止,信号已经发送完成,注意:信号的处理过程不会同步触发

kill 系统调用不会触发信号队列的处理,在每次由核心态切换到用户状态时,内核都会发起信号队列处理,如果待决队列中的某个信号处于阻塞状态,则暂时先不处理它。

handle_signal 会修改该进程在用户状态下的栈,使得在从核心态切换到用户状态之后运行信号处理程序,而不是回到之前正常的程序流程。这种复杂的方法是必要的,因为处理程序函数不能在核心态执行。当信号处理程序执行完毕后,会调用 sigreturn 系统调用(通过修改栈或用户空间"胶水"代码实现)。sigreturn 系统调用负责恢复进程上下文,使得下次切换到用户态时,应用可以继续执行。
signal-call

管道

shell 用户可能比较熟悉管道,在命令行上可以如下使用:

prog | ghostscript | lpr-

这里将一个进程的输出用作另个进程的输入,管道负责数据的传输。顾名思义,管道是用于交换数据的连接。一个进程向管道的一端供给数据,另一个在管道的另一端取出数据,供进步处理。几个进程可以通过系列管道连按起来。

在通过 shell 生成管道时,总有个读进程和个写进程。而在应用程序中,必须调用 pipe 系统调用产生管道。该调用返回两个文件描述符,分别用于管道的两端,即分别用于管道的读和写。由于两个描述符存在于同一个进程中,所以最初只能向自身发送消息,但这显然没什么意义。

管道是进程地址空间中的数据对象,在用 fork 或 clone 复制进程时同样会被复制。使用管道通信的程序就利用了这种特征,在 exec 系统调用用另一个程序替换子进程之后,两个不同的应用程序之间就建立了一条通信链路(必须把管道描述符重定向到标准输入和输出,或者调用 dup 系统调用,以确保 exec 调用时不会关闭文件描述符)。

套接字

套接字对象在内核中初始化时也返回个文件描述符,因此可以像普通文件样处理。但不同于管道,套接字可以双向使用,除了本地使用外,还可以用于通过网络连接的远程系统通信。

套接字的实现是内核中相当复杂的一部分,因为需要大量抽象机制来隐藏通信的细节,从用户的角度来看,同一系统上两个本地进程之间的通信和不同主机之间的通讯没有太大差别。

套接字 API 原本是为网络通讯设计的,但后来在套接字的框架上发展出一种新的 IPC 机制,就是 UNIX Domain Socket。虽然网络 socket 也可用于同一台主机的进程间通讯(通过loopback地址127.0.0.1),但是 UNIX Domain Socket 用于 IPC 更有效率:因为它不需要经过网络协议栈,不需要打包拆包、计算校验和、维护序号和应答等,只是将应用层数据从一个进程拷贝到另一个进程。

UNIX 域套接字与 TCP 套接字相比较,在同一台主机的传输速度前者是后者的两倍。这是因为,IPC 机制本质上是可靠的通讯,而网络协议是为不可靠的通讯设计的。UNIX Domain Socket 也提供面向流和面向数据包两种 API 接口,类似于 TCP 和 UDP,但是面向消息(类似于UDP)的 UNIX Domain Socket 也是可靠的,消息既不会丢失也不会顺序错乱。

信号量介绍

就像前面所说的,用户进程使用的信号量不仅仅是控制原子操作的工具,而且可以在多个进程间共享以进行进程间通讯的任务。

信号量可以通过命名空间隔离,通过魔数可以查到信号量的内核内部 ID,然后可以访问到信号量对象。在信号量对象中会维护撤销列表,如果进程修改信号量后崩溃,保存在撤销列表的信息可用于恢复信号量。通过这种崩溃撤销机制,可以防止死锁。
seg-structure
上图就是信号量组的结构,其中故意隐藏了撤销列表来降低图示的复杂度。我们可以看到一个信号量组可以包含多个信号量(sem_base),此外还有一个等待列表来维护所有的等待进程。

消息队列

消息队列的功能比较简单,如下所示:
message-queue
产生消息并将其写到队列的进程通常称之为发送者,而一个或多个其他进程(逻辑上称之为接收者)则从队列获取信息。各个消息包含消息正文和一个序号,接收者可以根据该数字检索消息,例如,可以指定只接收编号 1 的消息,或接收编号不大于 5 的消息。在消息已经读取后,内核将其从队列剔除。即使几个进程在同一信道上监听,每个消息仍然只能由一个进程读取。

同一编号的消息按先进先出次序处理。放置在队列开始的消息将首先读取。但如果有选择地读取消息,则先进先出次序就不再适用。发送者和接收者通过消息队列通信时,无需同时运行。例如,发送进程可以打开一个队列,写入消息,然后结束工作。接收进程在发送者结束之后启动,仍然可以访问队列并获取消息。中间的一段时间内,消息由内核维护。

消息队列中的每个消息至少都要占用一个内存页,如果一个消息一个内存页装不下的话,会使用指针连接多个页来装。

multiple-page-message
消息队列可以通过命名空间隔离,通过内核内部 ID 将映射到 msg_queue,其中包含了消息链表和接受者列表,每个接受者又映射到了所属的进程。当消息队列已满时,消息的发送者会在试图发送消息时进入睡眠,反之,如果消息队列没有消息,那么接受者试图获取消息时进入睡眠。
message-structure

共享内存

共享内存和上述两种机制非常类似

  • 应用请求的共享内存对象,可以通过魔数或者内核内部 ID 访问
  • 对内存的访问,可以通过权限控制
  • 有权限的进程都可访问共享内存

share-memory
共享内存可以通过命名空间隔离,通过内核内部 ID 将映射到 shmid_kernel 对象,其中管理的权限相关的内容,每个共享内存都创建一个伪文件,通过该文件又能链接到地址空间对象,用于创建匿名映射。在需要使用共享内存时,需要修改相关进程的页表,来进行访问。

文章说明

更多有价值的文章均收录于贝贝猫的文章目录

stun

版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!

创作声明: 本文基于下列所有参考内容进行创作,其中可能涉及复制、修改或者转换,图片均来自网络,如有侵权请联系我,我会第一时间进行删除。

参考内容

[1]《Linux内核设计与实现》
[2]《Linux系统编程》
[3]《深入理解Linux内核》
[4]《深入Linux内核架构》
[5] Linux 内核进程管理之进程ID
[6] 服务器三大体系SMP、NUMA、MPP介绍
[7] [Linux中的物理内存管理 [一]](https://zhuanlan.zhihu.com/p/68465952)
[8] Linux内核中的page migration和compaction机制简介
[9] 物理地址、虚拟地址(线性地址)、逻辑地址以及MMU的知识
[10] 逻辑地址
[11] linux内核学习笔记-struct vm_area_struct
[12] Linux中匿名页的反向映射
[13] 系统调用过程详解
[14] 再谈Linux内核中的RCU机制
[15] Unix domain socket 和 TCP/IP socket 的区别
[16] Linux通用块设备层
[17] ext2文件系统结构分析
[18] linux ACL权限规划:getfacl,setfacl使用
[18] 查找——图文翔解RadixTree(基数树)
[19] 页缓存page cache和地址空间address_space
[20] rocketmq使用的系统参数(dirty_background_ration dirty_ratio)
[21] Linux内存调节之zone watermark
[22] Linux的内存回收和交换
[23] [Linux中的内存回收[一]](https://zhuanlan.zhihu.com/p/70964195)
[24] linux内存源码分析 - 内存回收(整体流程)
[25] Linux 软中断机制分析
[26] 对 jiffies 溢出、回绕及 time_after 宏的理解
[27] learn-linux-network-namespace
[28] 显式拥塞通知
[29] 聊聊 TCP 长连接和心跳那些事
[30] 关于 TCP/IP,必知必会的十个问题
[31] TCP协议三次握手连接四次握手断开和DOS攻击
[32] TCP 的那些事儿(上)
[33] TCP 的那些事儿(下)

相关文章
|
18天前
|
缓存 监控 Linux
linux进程管理万字详解!!!
本文档介绍了Linux系统中进程管理、系统负载监控、内存监控和磁盘监控的基本概念和常用命令。主要内容包括: 1. **进程管理**: - **进程介绍**:程序与进程的关系、进程的生命周期、查看进程号和父进程号的方法。 - **进程监控命令**:`ps`、`pstree`、`pidof`、`top`、`htop`、`lsof`等命令的使用方法和案例。 - **进程管理命令**:控制信号、`kill`、`pkill`、`killall`、前台和后台运行、`screen`、`nohup`等命令的使用方法和案例。
51 4
linux进程管理万字详解!!!
|
8天前
|
存储 运维 监控
深入Linux基础:文件系统与进程管理详解
深入Linux基础:文件系统与进程管理详解
48 8
|
6天前
|
Linux
如何在 Linux 系统中查看进程占用的内存?
如何在 Linux 系统中查看进程占用的内存?
|
13天前
|
Linux 数据库
Linux内核中的锁机制:保障并发操作的数据一致性####
【10月更文挑战第29天】 在多线程编程中,确保数据一致性和防止竞争条件是至关重要的。本文将深入探讨Linux操作系统中实现的几种关键锁机制,包括自旋锁、互斥锁和读写锁等。通过分析这些锁的设计原理和使用场景,帮助读者理解如何在实际应用中选择合适的锁机制以优化系统性能和稳定性。 ####
31 6
|
17天前
|
算法 Linux 定位技术
Linux内核中的进程调度算法解析####
【10月更文挑战第29天】 本文深入剖析了Linux操作系统的心脏——内核中至关重要的组成部分之一,即进程调度机制。不同于传统的摘要概述,我们将通过一段引人入胜的故事线来揭开进程调度算法的神秘面纱,展现其背后的精妙设计与复杂逻辑,让读者仿佛跟随一位虚拟的“进程侦探”,一步步探索Linux如何高效、公平地管理众多进程,确保系统资源的最优分配与利用。 ####
52 4
|
18天前
|
缓存 负载均衡 算法
Linux内核中的进程调度算法解析####
本文深入探讨了Linux操作系统核心组件之一——进程调度器,着重分析了其采用的CFS(完全公平调度器)算法。不同于传统摘要对研究背景、方法、结果和结论的概述,本文摘要将直接揭示CFS算法的核心优势及其在现代多核处理器环境下如何实现高效、公平的资源分配,同时简要提及该算法如何优化系统响应时间和吞吐量,为读者快速构建对Linux进程调度机制的认知框架。 ####
|
20天前
|
消息中间件 存储 Linux
|
26天前
|
运维 Linux
Linux查找占用的端口,并杀死进程的简单方法
通过上述步骤和命令,您能够迅速识别并根据实际情况管理Linux系统中占用特定端口的进程。为了获得更全面的服务器管理技巧和解决方案,提供了丰富的资源和专业服务,是您提升运维技能的理想选择。
33 1
|
1月前
|
算法 Linux 调度
深入理解Linux操作系统的进程管理
【10月更文挑战第9天】本文将深入浅出地介绍Linux系统中的进程管理机制,包括进程的概念、状态、调度以及如何在Linux环境下进行进程控制。我们将通过直观的语言和生动的比喻,让读者轻松掌握这一核心概念。文章不仅适合初学者构建基础,也能帮助有经验的用户加深对进程管理的理解。
25 1
|
1月前
|
消息中间件 Linux API
Linux c/c++之IPC进程间通信
这篇文章详细介绍了Linux下C/C++进程间通信(IPC)的三种主要技术:共享内存、消息队列和信号量,包括它们的编程模型、API函数原型、优势与缺点,并通过示例代码展示了它们的创建、使用和管理方法。
31 0
Linux c/c++之IPC进程间通信
下一篇
无影云桌面