Linux驱动的软件架构(一):驱动的软件设计模式理念

简介: Linux驱动的软件架构(一):驱动的软件设计模式理念

这个内容是我观看《Linux设备驱动开发详解》的学习笔记,其实书里面是先讲了关于驱动的很多的基础知识,然后再讲驱动的软件架构。但是我最近深深地沉迷于自顶向下的学习逻辑,所以打算先对整个驱动有了框架之后,再带着这个学习的过程中的疑惑与思维去学习基础。

老师是基于globalmem和globalfifo两个虚拟得驱动开始讲解的,所以先说一下这两个是什么?

**globalmem意味着“全局内存”,**在globalmem字符设备驱动中会分配一片大小为GLOBALMEM_SIZE(4KB)的内存空间,并在驱动中提供针对该片内存的读写、控制和定位函数,以供用户空间的进程能通过Linux系统调用获取或设置这片内存的内容。实际上,这个虚拟的globalmem设备几乎没有任何实用价值,仅仅是一种为了讲解问题的方便而凭空制造的设备。

globalfifo,现在我们给globalmem增加这样的约束:把globalmem中的全局内存变成一个FIFO,只有当FIFO中有数据的时候(即有进程把数据写到这个FIFO而且没有被读进程读空),读进程才能把数据读出,而且读取后的数据会从globalmem的全局内存中被拿掉;只有当FIFO不是满的时(即还有一些空间未被写,或写满后被读进程从这个FIFO中读出了数据),写进程才能往这个FIFO中写入数据。

开整:

1、Linux驱动的软件架构

Linux不是为了某单一电路板而设计的操作系统,它可以支持约30种体系结构下一定数量的硬件,因此,它的驱动架构很显然不能像RTOS下或者无操作系统下那么小儿科的做法。(以前玩单片机的时候,可惜了空闲时间全拿去搞应用层了,一直跑的都是裸板,没有玩玩操作系统)

Linux设备驱动非常重视软件的可重用和跨平台能力。譬如,如果我们写下一个DM9000网卡的驱动,Linux的想法是这个驱动应该最好一行都不要改就可以在任何一个平台上跑起来。为了做到这一点(看似很难,因为每个板子连接DM9000的基地址,中断号什么的都可能不一样),驱动中势必会有类似这样的代码:

#ifdef  BOARD_XXX
#define DM9000_BASE 0x10000
#define DM9000_IRQ 8
#elif defined(BOARD_YYY)
#define DM9000_BASE 0x20000
#define DM9000_IRQ 7
#elif defined(BOARD_ZZZ)
#define DM9000_BASE 0x30000
#define DM9000_IRQ 9…
#endif

上述代码主要有如下问题:

1)此段代码看起来面目可憎,如果有100个板子,就要if/else 100次,到了第101个板子,又得重新加if/else。代码进行着简单的“复制—粘贴”,“复制—粘贴”式的简单重复通常意味着代码编写者的水平很差。

2)非常难做到一个驱动支持多个设备,如果某个电路板上有两个DM9000网卡,则DM9000_BASE这个宏就不够用了,此时势必要定义出来DM9000_BASE 1、DM9000_BASE 2、DM9000_IRQ 1、DM9000_IRQ 2类的宏;定义了DM9000_BASE 1、DM9000_BASE 2后,如果又有第3个DM9000网卡加到板子上,前面的代码就又不适用了。

3)依赖于make menuconfig选择的项目来编译内核,因此,在不同的硬件平台下要依赖于所选择的BOARD_XXX、BOARD_YYY选项来决定代码逻辑。这不符合ARM Linux 3.x一个映像适用于多个硬件的目标。实际上,我们可能同时选择了BOARD_XXX、BOARD_YYY、BOARD_ZZZ。

我们按照上面的方法编写代码的时候,相信自己编着编着也会觉得奇怪,闻到了代码里不好的味道。这个时候,请停下你飞奔的脚步,等一等你的灵魂。我们有没有办法把设备端的信息从驱动里面剥离出来,让驱动以某种标准方法拿到这些平台信息呢,Linux总线、设备和驱动模型实际上可以做到这一点,**驱动只管驱动,设备只管设备,总线则负责匹配设备和驱动,**而驱动则以标准途径拿到板级信息,这样,驱动就可以放之四海而皆准了,如图12.1所示。

Linux的字符设备驱动需要编写file_operations成员函数,并负责处理阻塞、非组塞、多路复用、SIGIO等复杂事物

但是,当我们面对一个真实的硬件驱动时,假如要编写一个按键的驱动,作为一个“懒惰”的程序员,你真的只想做最简单的工作,譬如,收到一个按键中断、汇报一个按键值,至于什么file_operations、几种I/O模型,那是Linux的事情,为什么要我管Linux也是程序员写出来的,因此,程序员怎么想,它必然要怎么做。

于是,这里就衍生出来了一个软件分层的想法,尽管file_operations、I/O模型不可或缺,但是关于此部分的代码,全世界恐怕所有的输入设备都是一样的,为什么不提炼一个中间层出来,把这些事情搞定,也就是在底层编写驱动的时候,搞定具体的硬件操作呢?

将软件进行分层设计应该是软件工程最基本的一个思想,如果提炼一个input的核心层出来,把跟Linux接口以及整个一套input事件的汇报机制都在这里面实现,如图12.2所示,显然是非常好的。

(确实,我上次实现一个字符设备的时候,对于很多的功能如open、read这些函数进行了自定义挂钩子,但是框架是直接复用的)

在Linux设备驱动框架的设计中,除了有分层设计以外还有分隔的思想

举一个简单的例子,假设我们要通过SPI总线访问某外设,假设CPU的名字叫XXX1,SPI外设叫YYY1。在访问YYY1外设的时候,要通过操作CPU XXX1上的SPI控制器的寄存器才能达到访问SPI外设YYY1的目的,最简单的代码逻辑是:

cpu_xxx1_spi_reg_write()
cpu_xxx1_spi_reg_read()
spi_client_yyy1_work1()
cpu_xxx1_spi_reg_write()
cpu_xxx1_spi_reg_read()
spi_client_yyy1_work2()

如果按照这种方式来设计驱动,结果对于任何一个SPI外设来讲,它的驱动代码都是与CPU相关的。也就是说,当代码用在CPU XXX1上的时候,它访问XXX1的SPI主机控制寄存器,当用在XXX2上的时候,它访问XXX2的SPI主机控制寄存器:

cpu_xxx2_spi_reg_write()
cpu_xxx2_spi_reg_read()
spi_client_yyy1_work1()
cpu_xxx2_spi_reg_write()
cpu_xxx2_spi_reg_read()
spi_client_yyy1_work2()

这显然是不被接受的,因为这意味着外设YYY1用在不同的CPU XXX1和XXX2上的时候需要不同的驱动。同时,如果CPU XXX1除了支持YYY1以外,还要支持外设YYY2、YYY3、YYY4等,这个XXX的代码就要重复出现在YYY1、YYY2、YYY3、YYY4的驱动里面:

cpu_xxx1_spi_reg_write()
cpu_xxx1_spi_reg_read()
spi_client_yyy2_work1()
cpu_xxx1_spi_reg_write()
cpu_xxx1_spi_reg_read()
spi_client_yyy2_work2()…

按照这样的逻辑,如果要让N个不同的YYY在M个不同的CPU XXX上跑起来,需要M*N份代码。这是一种典型的强耦合,不符合软件工程“高内聚、低耦合”和“信息隐蔽”的基本原则。

这种软件架构是一种典型的网状耦合,网状耦合一般不太适合人类的思维逻辑,会把我们的思维搞乱。对于网状耦合的M∶N,我们一般要提炼出一个中间“1”,让M与“1”耦合,N也与这个“1”耦合,如图12.3所示。

那么,我们可以用如图12.4所示的思想对主机控制器驱动和外设驱动进行分离。

这样的结果是,外设YYY1、YYY2、YYY3、YYY4的驱动与主机控制器XXX1、XXX2、XXX3、XXX4的驱动不相关,主机控制器驱动不关心外设,而外设驱动也不关心主机外设只是访问核心层的通用API进行数据传输,主机和外设之间可以进行任意组合。

如果我们不进行如图12.4所示的主机和外设分离,外设YYY1、YYY2、YYY3和主机XXX1、XXX2、XXX3进行组合的时候,需要9个不同的驱动。设想一共有m个主机控制器,n个外设,分离的结果是需要m+n个驱动,不分离则需要m*n个驱动。因为,m个主机控制器,n个外设的驱动都可以被充分地复用了。

目录
相关文章
|
26天前
|
存储 运维 关系型数据库
2024年最全ceph的功能组件和架构概述(2),Linux运维工程面试问题
2024年最全ceph的功能组件和架构概述(2),Linux运维工程面试问题
2024年最全ceph的功能组件和架构概述(2),Linux运维工程面试问题
|
2天前
|
监控 安全 API
探索微服务架构中的API网关模式
【6月更文挑战第13天】本文深入探讨了在现代软件开发中,微服务架构如何通过API网关模式提升系统的可扩展性、安全性和性能。我们将分析API网关的核心功能,包括请求路由、负载均衡、认证授权以及日志监控等,并讨论如何在实际项目中有效实现这些功能。
|
4天前
|
监控 Cloud Native 持续交付
云原生架构:从理念到实践的全面解析
云原生架构已经成为现代软件开发和部署的核心理念。它不仅改变了传统的软件开发模式,还为企业提供了更高的灵活性、可扩展性和可靠性。本篇文章将深入探讨云原生架构的基本概念、关键组件以及实际应用案例,帮助读者更好地理解和应用这一先进的技术框架。
24 3
|
4天前
|
监控 负载均衡 安全
探索微服务架构中的API网关模式
【6月更文挑战第10天】本文将深入探讨微服务架构中的一个重要组件——API网关。我们将详细分析API网关的功能、优势以及在微服务架构中的关键作用,并通过实例展示如何有效实现和部署API网关以提升系统性能和安全性。
19 2
|
7天前
|
安全 API 开发者
探索微服务架构中的API网关模式
【6月更文挑战第8天】本文深入探讨了在构建可扩展的微服务系统中,API网关所扮演的关键角色。我们将从API网关的定义和作用出发,分析其如何作为系统入口统一流量管理、提供安全控制、实现服务聚合以及优化客户端与各微服务间的通信。通过具体案例,本文将展示如何有效设计API网关以提升系统的灵活性和响应速度。
|
8天前
|
监控 负载均衡 安全
微服务架构中的API网关模式
【6月更文挑战第7天】本文将深入探讨微服务架构中API网关的关键作用,分析其如何作为系统的统一入口点,实现请求路由、负载均衡、认证授权和监控日志等功能。我们将通过一个虚构的案例,展示API网关在提升系统性能和安全性方面的实际应用。
|
9天前
|
存储 前端开发 数据库
MVC模式和三层架构
MVC模式和三层架构
13 2
|
11天前
|
缓存 负载均衡 API
探索微服务架构中的API网关模式
【6月更文挑战第4天】在微服务架构的海洋中,API网关扮演着灯塔的角色,为复杂的服务网络提供导航。本文将深入探讨API网关的设计原则、实现方式以及它如何优化微服务间的通信流程。我们将一起揭开API网关的神秘面纱,理解其在现代软件架构中的重要性。
|
11天前
|
存储 负载均衡 NoSQL
MongoDB的架构设计基于三种集群模式
【6月更文挑战第5天】MongoDB的架构设计基于三种集群模式
15 3
|
11天前
|
Linux 数据安全/隐私保护 Windows
linux 搭建cloudreve win映射网络驱动器WebDav
linux 搭建cloudreve win映射网络驱动器WebDav