Linux 内核里的“智能指针”【转】

简介:

转自:http://blog.jobbole.com/88279/

众所周知,C/C++语言本身并不支持垃圾回收机制,虽然语言本身具有极高的灵活性,但是当遇到大型的项目时,繁琐的内存管理往往让人痛苦异常。现代的C/C++类库一般会提供智能指针来作为内存管理的折中方案,比如STL的auto_ptr,Boost的Smart_ptr库,QT的QPointer家族,甚至是基于C语言构建的GTK+也通过引用计数来实现类似的功能。Linux内核是如何解决这个问题呢?同样作为C语言的解决方案,Linux内核采用的也是引用计数的方式。如果您更熟悉C++,可以把它类比为Boost的shared_ptr,或者是QT的QSharedPointer。

在Linux内核里,引用计数是通过 struct kref 结构来实现的。在介绍如何使用 kref 之前,我们先来假设一个情景。假如您开发的是一个字符设备驱动,当设备插上时,系统自动建立一个设备节点,用户通过文件操作来访问设备节点。

如上图所示,最左边的绿色框图表示实际设备的插拔动作,中间黄色的框图表示内核中设备对象的生存周期,右边蓝色的框图表示用户程序系统调用的顺序。如果用户程序正在访问的时候设备突然被拔掉,驱动程序里的设备对象是否立刻释放呢?如果立刻释放,用户程序执行的系统调用一定会发生内存非法访问;如果要等到用户程序close之后再释放设备对象,我们应该怎么来实现?kref就是为了解决类似的问题而生的。

kref的定义非常简单,其结构体里只有一个原子变量。

1
2
3
struct  kref {
  atomic_t refcount;
};

Linux内核定义了下面三个函数接口来使用kref:

1
2
3
void  kref_init( struct  kref *kref);
void  kref_get( struct  kref *kref);
int  kref_put( struct  kref *kref, void  (*release) ( struct  kref *kref));

我们先通过一段伪代码来了解一下如何使用kref。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
struct  my_obj
{
  int  val;
  struct  kref refcnt;
};
 
struct  my_obj *obj;
 
void  obj_release( struct  kref *ref)
{
  struct  my_obj *obj = container_of(ref, struct  my_obj, refcnt);
  kfree(obj);
}
 
device_probe()
{
  obj = kmalloc( sizeof (*obj), GFP_KERNEL);
  kref_init(&obj->refcnt);
}
 
device_disconnect()
{
  kref_put(&obj->refcnt, obj_release);
}
 
.open()
{
  kref_get(&obj->refcnt);
}
 
.close()
{
  kref_put(&obj->refcnt, obj_release);
}

在这段代码里,我们定义了obj_release来作为释放设备对象的函数,当引用计数为0时,这个函数会被立刻调用来执行真正的释放动作。我们先在device_probe里把引用计数初始化为1,当用户程序调用open时,引用计数又会被加1,之后如果设备被拔掉,device_disconnect会减掉一个计数,但此时refcnt还不是0,设备对象obj并不会被释放,只有当close被调用之后,obj_release才会执行。

看完伪代码之后,我们再来实战一下。为了节省篇幅,这个实作并没有建立一个字符设备,只是通过模块的加载和卸载过程来对感受一下kref。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
#include <linux/kernel.h>
#include <linux/module.h>
 
struct  my_obj {
  int  val;
  struct  kref refcnt;
};
 
struct  my_obj *obj;
 
void  obj_release( struct  kref *ref)
{
  struct  my_obj *obj = container_of(ref, struct  my_obj, refcnt);
  printk(KERN_INFO "obj_release\n" );
  kfree(obj);
}
 
static  int  __init kreftest_init( void )
{
  printk(KERN_INFO "kreftest_init\n" );
  obj = kmalloc( sizeof (*obj), GFP_KERNEL);
  kref_init(&obj->refcnt);
  return  0;
}
 
static  void  __exit kreftest_exit( void )
{
  printk(KERN_INFO "kreftest_exit\n" );
  kref_put(&obj->refcnt, obj_release);
  return ;
}
 
module_init(kreftest_init);
module_exit(kreftest_exit);
 
MODULE_LICENSE( "GPL" );

通过kbuild编译之后我们得到kref_test.ko,然后我们顺序执行以下命令来挂载和卸载模块。

sudo insmod ./kref_test.ko

sudo rmmod kref_test

此时,系统日志会打印出如下消息:

kreftest_init

kreftest_exit

obj_release

这正是我们预期的结果。

有了kref引用计数,即使内核驱动写的再复杂,我们对内存管理也应该有信心了吧。

接下来主要介绍几点使用kref时的注意事项。

Linux内核文档kref.txt罗列了三条规则,我们在使用kref时必须遵守。

规则一:

If you make a non-temporary copy of a pointer, especially if it can be passed to another thread of execution, you must increment the refcount with kref_get() before passing it off;

规则二:

When you are done with a pointer, you must call kref_put();

规则三:

If the code attempts to gain a reference to a kref-ed structure without already holding a valid pointer, it must serialize access where a kref_put() cannot occur during the kref_get(), and the structure must remain valid during the kref_get().

对于规则一,其实主要是针对多条执行路径(比如另起一个线程)的情况。如果是在单一的执行路径里,比如把指针传递给一个函数,是不需要使用kref_get的。看下面这个例子:

1
2
3
4
5
6
7
8
9
10
11
12
13
kref_init(&obj->ref);
 
// do something here
// ...
 
kref_get(&obj->ref);
call_something(obj);
kref_put(&obj->ref);
 
// do something here
// ...
 
kref_put(&obj->ref);

您是不是觉得call_something前后的一对kref_get和kref_put很多余呢?obj并没有逃出我们的掌控,所以它们确实是没有必要的。

但是当遇到多条执行路径的情况就完全不一样了,我们必须遵守规则一。下面是摘自内核文档里的一个例子:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
struct  my_data
{
  .
  .
  struct  kref refcount;
  .
  .
};
 
void  data_release( struct  kref *ref)
{
  struct  my_data *data = container_of(ref, struct  my_data, refcount);
  kfree(data);
}
 
void  more_data_handling( void  *cb_data)
{
  struct  my_data *data = cb_data;
  .
  . do  stuff with data here
  .
  kref_put(&data->refcount, data_release);
}
 
int  my_data_handler( void )
{
  int  rv = 0;
  struct  my_data *data;
  struct  task_struct *task;
  data = kmalloc( sizeof (*data), GFP_KERNEL);
  if  (!data)
  return  -ENOMEM;
  kref_init(&data->refcount);
 
  kref_get(&data->refcount);
  task = kthread_run(more_data_handling, data, "more_data_handling" );
  if  (task == ERR_PTR(-ENOMEM)) {
  rv = -ENOMEM;
  goto  out;
  }
 
  .
  . do  stuff with data here
  .
  out:
  kref_put(&data->refcount, data_release);
  return  rv;
}

因为我们并不知道线程more_data_handling何时结束,所以要用kref_get来保护我们的数据。

注意规则一里的那个单词“before”,kref_get必须是在传递指针之前进行,在本例里就是在调用kthread_run之前就要执行kref_get,否则,何谈保护呢?

对于规则二我们就不必多说了,前面调用了kref_get,自然要配对使用kref_put。

规则三主要是处理遇到链表的情况。我们假设一个情景,如果有一个链表摆在你的面前,链表里的节点是用引用计数保护的,那你如何操作呢?首先我们需要获得节点的指针,然后才可能调用kref_get来增加该节点的引用计数。根据规则三,这种情况下我们要对上述的两个动作串行化处理,一般我们可以用mutex来实现。请看下面这个例子:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
static  DEFINE_MUTEX(mutex);
static  LIST_HEAD(q);
struct  my_data
{
  struct  kref refcount;
  struct  list_head link;
};
 
static  struct  my_data *get_entry()
{
  struct  my_data *entry = NULL;
  mutex_lock(&mutex);
  if  (!list_empty(&q)) {
  entry = container_of(q.next, struct  my_q_entry, link);
  kref_get(&entry->refcount);
  }
  mutex_unlock(&mutex);
  return  entry;
}
 
static  void  release_entry( struct  kref *ref)
{
  struct  my_data *entry = container_of(ref, struct  my_data, refcount);
 
  list_del(&entry->link);
  kfree(entry);
}
 
static  void  put_entry( struct  my_data *entry)
{
  mutex_lock(&mutex);
  kref_put(&entry->refcount, release_entry);
  mutex_unlock(&mutex);
}

这个例子里已经用mutex来进行保护了,假如我们把mutex拿掉,会出现什么情况?记住,我们遇到的很可能是多线程操作。如果线程A在用container_of取得entry指针之后、调用kref_get之前,被线程B抢先执行,而线程B碰巧又做的是kref_put的操作,当线程A恢复执行时一定会出现内存访问的错误,所以,遇到这种情况一定要串行化处理。

我们在使用kref的时候要严格遵循这三条规则,才能安全有效的管理数据。
















本文转自张昺华-sky博客园博客,原文链接:http://www.cnblogs.com/sky-heaven/p/4825995.html,如需转载请自行联系原作者

相关文章
|
4月前
|
缓存 Linux 开发者
Linux内核中的并发控制机制
本文深入探讨了Linux操作系统中用于管理多线程和进程的并发控制的关键技术,包括原子操作、锁机制、自旋锁、互斥量以及信号量。通过详细分析这些技术的原理和应用,旨在为读者提供一个关于如何有效利用Linux内核提供的并发控制工具以优化系统性能和稳定性的综合视角。
|
2天前
|
自然语言处理 监控 Linux
Linux 内核源码分析---proc 文件系统
`proc`文件系统是Linux内核中一个灵活而强大的工具,提供了一个与内核数据结构交互的接口。通过本文的分析,我们深入探讨了 `proc`文件系统的实现原理,包括其初始化、文件的创建与操作、动态内容生成等方面。通过对这些内容的理解,开发者可以更好地利用 `proc`文件系统来监控和调试内核,同时也为系统管理提供了便利的工具。
30 16
|
4月前
|
缓存 负载均衡 算法
深入探索Linux内核的调度机制
本文旨在揭示Linux操作系统核心的心脏——进程调度机制。我们将从Linux内核的架构出发,深入剖析其调度策略、算法以及它们如何共同作用于系统性能优化和资源管理。不同于常规摘要提供文章概览的方式,本摘要将直接带领读者进入Linux调度机制的世界,通过对其工作原理的解析,展现这一复杂系统的精妙设计与实现。
201 8
|
4月前
|
算法 Linux 调度
深入理解Linux内核调度器:从基础到优化####
本文旨在通过剖析Linux操作系统的心脏——内核调度器,为读者揭开其高效管理CPU资源的神秘面纱。不同于传统的摘要概述,本文将直接以一段精简代码片段作为引子,展示一个简化版的任务调度逻辑,随后逐步深入,详细探讨Linux内核调度器的工作原理、关键数据结构、调度算法演变以及性能调优策略,旨在为开发者与系统管理员提供一份实用的技术指南。 ####
141 4
|
2月前
|
安全 Linux 测试技术
Intel Linux 内核测试套件-LKVS介绍 | 龙蜥大讲堂104期
《Intel Linux内核测试套件-LKVS介绍》(龙蜥大讲堂104期)主要介绍了LKVS的定义、使用方法、测试范围、典型案例及其优势。LKVS是轻量级、低耦合且高代码覆盖率的测试工具,涵盖20多个硬件和内核属性,已开源并集成到多个社区CICD系统中。课程详细讲解了如何使用LKVS进行CPU、电源管理和安全特性(如TDX、CET)的测试,并展示了其在实际应用中的价值。
|
2月前
|
Ubuntu Linux 开发者
Ubuntu20.04搭建嵌入式linux网络加载内核、设备树和根文件系统
使用上述U-Boot命令配置并启动嵌入式设备。如果配置正确,设备将通过TFTP加载内核和设备树,并通过NFS挂载根文件系统。
138 15
|
4月前
|
负载均衡 算法 Linux
深入探索Linux内核调度器:公平与效率的平衡####
本文通过剖析Linux内核调度器的工作机制,揭示了其在多任务处理环境中如何实现时间片轮转、优先级调整及完全公平调度算法(CFS),以达到既公平又高效地分配CPU资源的目标。通过对比FIFO和RR等传统调度策略,本文展示了Linux调度器如何在复杂的计算场景下优化性能,为系统设计师和开发者提供了宝贵的设计思路。 ####
93 26
|
4月前
|
缓存 并行计算 Linux
深入解析Linux操作系统的内核优化策略
本文旨在探讨Linux操作系统内核的优化策略,包括内核参数调整、内存管理、CPU调度以及文件系统性能提升等方面。通过对这些关键领域的分析,我们可以理解如何有效地提高Linux系统的性能和稳定性,从而为用户提供更加流畅和高效的计算体验。
129 17
|
3月前
|
算法 Linux
深入探索Linux内核的内存管理机制
本文旨在为读者提供对Linux操作系统内核中内存管理机制的深入理解。通过探讨Linux内核如何高效地分配、回收和优化内存资源,我们揭示了这一复杂系统背后的原理及其对系统性能的影响。不同于常规的摘要,本文将直接进入主题,不包含背景信息或研究目的等标准部分,而是专注于技术细节和实际操作。
|
3月前
|
存储 缓存 网络协议
Linux操作系统的内核优化与性能调优####
本文深入探讨了Linux操作系统内核的优化策略与性能调优方法,旨在为系统管理员和高级用户提供一套实用的指南。通过分析内核参数调整、文件系统选择、内存管理及网络配置等关键方面,本文揭示了如何有效提升Linux系统的稳定性和运行效率。不同于常规摘要仅概述内容的做法,本摘要直接指出文章的核心价值——提供具体可行的优化措施,助力读者实现系统性能的飞跃。 ####