xenomai内核解析--双核系统调用(二)--应用如何区分xenomai/linux系统调用或服务

简介: 本文介绍了如何将POSIX应用程序编译为在Xenomai实时内核上运行的程序。

版权声明:本文为本文为博主原创文章,转载请注明出处。如有错误,欢迎指正。

1. 引出问题

上一篇文章xenomai内核解析--双核系统调用(一)以X86处理器为例,分析了xenomai内核调用的流程,读了以后可能会觉得缺了点什么,你可能会有以下疑问:

  1. 系统中的两个内核都是POSIX接口实现系统调用,那么我写一个POSIX接口的应用程序,怎样知道它调用的内核,或者说怎样成为运行在cobalt内核的RT应用,而不是普通linux应用?
  2. 对于同一个POSIX接口,可能我的程序中,既需要xenomai内核提供服务(xenomai 系统调用),又需要调用linux内核提供服务(linux内核系统调用),或者说既有libcobalt,又有glibc库,他们是如何实现或区分的?

2. 编译链接

对于问题1,答案是:由编译的链接过程决定,链接的库不同当然执行的也就不同,如果普通的编译,则该应用编译后是一个普通linux运用。如果要编译为xenomai应用,则需要链接到xenomai库,但链接时是通过符号表(symbol)来链接的,当然也就要从代码符号(symbol)入手,我们会有疑惑xenomai是如何狸猫换太子的?首先来看一个常用的编译xenomai 应用的makefile:

XENO_CONFIG := /usr/xenomai/bin/xeno-config

PROJPATH = .

CFLAGS := $(shell $(XENO_CONFIG)   --posix --alchemy --cflags)
LDFLAGS := $(shell $(XENO_CONFIG)  --posix --alchemy --ldflags)
INCFLAGS= -I$(PROJPATH)/include/


EXECUTABLE := rt-app

src = $(wildcard ./*.c)
obj = $(patsubst %.c, %.o, $(src))

all: $(EXECUTABLE)

$(EXECUTABLE): $(obj)
        $(CC) -g -o $@ $^  $(INCFLAGS) $(CFLAGS) $(LDFLAGS)

%.o:%.c
        $(CC) -g -o $@ -c $<  $(INCFLAGS) $(CFLAGS) $(LDFLAGS)

.PHONY: clean
clean:
        rm -f $(EXECUTABLE) $(obj)

其中最重要的就是编译时需要xeno-config来生成gcc参数。xeno-config在我们编译安装xenomai库后,默认放在/usr/bin/xeno-config

$ /usr/bin/xeno-config --help
xeno-config --verbose
        --core=cobalt
        --version="3.1"
        --cc="gcc"
        --ccld="/usr/bin/wrap-link.sh gcc"
        --arch="x86"
        --prefix="/usr"
        --library-dir="/usr/lib"
Usage xeno-config OPTIONS
Options :
        --help
        --v,--verbose
        --version
        --cc
        --ccld
        --arch
        --prefix
        --[skin=]posix|vxworks|psos|alchemy|rtdm|smokey|cobalt
        --auto-init|auto-init-solib|no-auto-init
        --mode-check|no-mode-check
        --cflags
        --ldflags
        --lib*-dir|libdir|user-libdir
        --core
        --info
        --compat

例如编译一个POSIX接口的实时应用,参数--cflags表示编译,指定接口(skin)--posix,就能得到编译该程序的gcc参数了,看着没什么特别的:

$ /usr/bin/xeno-config --posix --cflags
-I/usr/include/xenomai/cobalt -I/usr/include/xenomai -D_GNU_SOURCE -D_REENTRANT -fasynchronous-unwind-tables -D__COBALT__ -D__COBALT_WRAP__

再看链接--ldflags表示链接,如下得到链接参数:

$ /usr/bin/xeno-config --ldflags --posix
-Wl,--no-as-needed -Wl,@/usr/lib/cobalt.wrappers -Wl,@/usr/lib/modechk.wrappers  /usr/lib/xenomai/bootstrap.o -Wl,--wrap=main -Wl,--dynamic-list=/usr/lib/dynlist.ld -L/usr/lib -lcobalt -lmodechk -lpthread -lrt

这一看就多出不少东西,重点就在这cobalt.wrappersmodechk.wrappers,两个文件的内容如下:

...
--wrap open
--wrap open64
--wrap socket
--wrap close
--wrap ioctl
--wrap read
....
--wrap recv
--wrap send
--wrap getsockopt
--wrap setsockop
...

里面是一些posix系统调用,前面的--wrap是什么作用?这是执行链接过程的程序ld的一个参数,通过man ld可以找到该参数的说明:

--wrap symbol
           Use a wrapper function for symbol.  Any undefined reference to symbol will be resolved to "__wrap_symbol".  Any undefined reference to "__real_symbol" will be resolved to symbol.

           This can be used to provide a wrapper for a system function.  The wrapper function should be called "__wrap_symbol".  If it wishes to call the system function, it should call "__real_symbol".

           Here is a trivial example:

                   void *
                   __wrap_malloc (size_t c)
                   {
                     printf ("malloc called with %zu\n", c);
                     return __real_malloc (c);
                   }

           If you link other code with this file using --wrap malloc, then all calls to "malloc" will call the function "__wrap_malloc" instead.  The call to "__real_malloc" in "__wrap_malloc" will call the real "malloc"
           function.

           You may wish to provide a "__real_malloc" function as well, so that links without the --wrap option will succeed.  If you do this, you should not put the definition of "__real_malloc" in the same file as
           "__wrap_malloc"; if you do, the assembler may resolve the call before the linker has a chance to wrap it to "malloc".

简单来说就是:任何 对symbol未定义 的 引用 (undefined reference) 将 解析为 __wrap_symbol. 任何 对__real_symbol未定义 的 引用 将 解析为 symbol。意思就是我们代码里使用到且是参数--wrap指定的符号symbol(即文件里的内容),链接的时候就认为它是__wrap_symbol,同时编译参数还指定了头文件目录,这样代码中头文件stdio.h编译时使用的是libcobalt中的stdio.h,stdio.h中声明了__wrap_symbol,比如我们代码用到了open()在链接的时候是与库中的__wrap_open()链接的,__wrap_open就是在xenomai 实时库libcobalt中实现,我们还有另一个问题,既然链接到了libcobalt,但我们是要Linux来服务,又是怎么让Linux来提供服务的呢?看libcobalt具体实现可以知道答案。

对于xeno-config的其他更多参数可通过xenomai Manual Page了解。

这样就将POSIX接口源码编译成一个xenomai可执行程序了。

3. libcobalt中的实现

下面来看问题2,既然我们已将一个接口链接到实时内核库libcobalt,当然由实时内核库libcobalt来区分该发起linux内核调用还是xenomai内核系统。与上一篇文章一样,以一个POSIX接口pthread_cretate()来解析libcobalt中的实现。

xenomai线程的创建流程比较复杂,需要先让linux创建普通线程,然后再由xenomai创建该线程的shadow 线程,即xenomai调度的实时线程,很符合我们上面的提出的问题2。 说到这先简答介绍一下xenomai实时线程的创建,详细的创建流程后面会写专门写一篇文章解析,敬请期待。

pthread_cretate()不是一个系统调用,由NPTL(Native POSIX Threads Library)实现(NPTL是Linux 线程实现的现代版,由UlrichDrepper 和Ingo Molnar 开发,以取代LinuxThreads),NPTL负责一个用户线程的用户空间栈创建、内存分配、初始化等工作,与linux内核配合完成线程的创建。每一线程映射一个单独的内核调度实体(KSE,Kernel Scheduling Entity)。内核分别对每个线程做调度处理。线程同步操作通过内核系统调用实现。

xenomai coblat作为实时任务的调度器,每个实时线程需要对应到 coblat调度实体,如果要创建实时线程就需要像linux那样NPTL与linux 内核深度结合,那么coblat与libcoblat实现将会变得很复杂。在这里,xenomai使用了一种方式,由NPTL方式去完成实时线程实体的创建(linux部分),在普通线程的基础上附加一些属性,对应到xenomai cobalt内核实体时能被实时内核cobalt调度。

所以libcoblat库中的实时线程创建函数pthread_cretate最后还是需要使用 glibc的pthread_cretate函数,xenomai只是去扩展glibc pthread_cretate创建的线程,使这个线程可以在实时内核cobalt调度。

pthread_cretate()在libcobalt中pthread.h文件中定义如下:

COBALT_DECL(int, pthread_create(pthread_t *ptid_r,
                const pthread_attr_t *attr,
                void *(*start) (void *),
                void *arg));

COBALT_DECL宏在wrappers.h中如下,展开上面宏,会为pthread_create()生成三个类型函数:

#define __WRAP(call)        __wrap_ ## call
#define __STD(call)        __real_ ## call
#define __COBALT(call)        __cobalt_ ## call
#define __RT(call)        __COBALT(call)
#define COBALT_DECL(T, P)    \
    __typeof__(T) __RT(P);    \
    __typeof__(T) __STD(P); \
    __typeof__(T) __WRAP(P)

int __cobalt_pthread_create(pthread_t *ptid_r,
                const pthread_attr_t *attr,
                void *(*start) (void *),
                void *arg);
int __wrap_pthread_create(pthread_t *ptid_r,
                const pthread_attr_t *attr,
                void *(*start) (void *),
                void *arg);
int __real_pthread_create(pthread_t *ptid_r,
                const pthread_attr_t *attr,
                void *(*start) (void *),
                void *arg);

声明pthread_create()函数的这三个宏意思为:

  • __RT(P):__cobalt_pthread_create 明确表示Cobalt实现的POSIX函数
  • __COBALT(P):与__RT()等效。
  • __STD(P):__real_pthread_create表示这是原始的POSIX函数(Linux glibc实现),cobalt库内部通过它来表示调用原始的POSIX函数(glibc NPTL).
  • __WRAP(P)__wrap_pthread_create__cobalt_pthread_create 的弱别名,如果编译器编译时知道有该函数其它的实现,该函数就会被覆盖。

    主要关注前面两个,对于最后一个宏,如果外部库想覆盖已有的函数,应提供其自己的__wrap_pthread_create()实现,来覆盖Cobalt实现的pthread_create()版本。 原始的Cobalt实现仍可以引用为__COBALT(pthread_create)。由宏COBALT_IMPL来定义:

    #define COBALT_IMPL(T, I, A)                                \
    __typeof__(T) __wrap_ ## I A __attribute__((alias("__cobalt_" __stringify(I)), weak));    \
    __typeof__(T) __cobalt_ ## I A
    

最后cobalt库函数pthread_create实现主体为(xenomai3.x.x\lib\cobalt\thread.c):

COBALT_IMPL(int, pthread_create, (pthread_t *ptid_r,
                  const pthread_attr_t *attr,
                  void *(*start) (void *), void *arg))
{
    pthread_attr_ex_t attr_ex;
    ......
    return pthread_create_ex(ptid_r, &attr_ex, start, arg);
}

COBALT_IMPL定义了__cobalt_pthread_create函数及该函数的一个弱别名__wrap_pthread_create,调用这两个函数执行的是同一个函数体。

对于 NPTL函数pthread_create,在Cobalt库里使用__STD()修饰,展开后即__real_pthread_create(),其实只是NPTL pthread_create()的封装,__real_pthread_create()会直接调用 NPTL pthread_create,在lib\cobalt\wrappers.c实现如下:

/* pthread */
__weak
int __real_pthread_create(pthread_t *ptid_r,
              const pthread_attr_t * attr,
              void *(*start) (void *), void *arg)
{
    return pthread_create(ptid_r, attr, start, arg);
}

它调用的就是glibc中的pthread_create函数.同样我们接着__cobalt_pthread_create()看哪里调用的.

int pthread_create_ex(pthread_t *ptid_r,
              const pthread_attr_ex_t *attr_ex,
              void *(*start) (void *), void *arg)
{
    ......
    __STD(sem_init(&iargs.sync, 0, 0));

    ret = __STD(pthread_create(&lptid, &attr, cobalt_thread_trampoline, &iargs));/*__STD 调用标准库的函数*/
    if (ret) {
        __STD(sem_destroy(&iargs.sync));
        return ret;
    }

    __STD(clock_gettime(CLOCK_REALTIME, &timeout));
    .....
}

下面再看另一个例子,实时任务在代码中使用了linux的网络套接字(xenomai任务也是一个linux任务,也可以使用linux来提供服务,只不过会影响实时性),有以下代码,:

....
    int sockfd,ret;                                            
    struct sockaddr_in addr;                           
    sockfd = socket(PF_INET, SOCK_STREAM, 0);            
.....
    bind(sockfd, (struct sockaddr *)&my_addr,sizeof(struct sockaddr_in));        
....

该代码编译时链接到了libcobalt,socket()函数即libcobalt中的__cobalt_socket(),其定义在xenomai-3.x.x\lib\cobalt\rtdm.c,如下:

COBALT_IMPL(int, socket, (int protocol_family, int socket_type, int protocol))
{
    int s;
    s = XENOMAI_SYSCALL3(sc_cobalt_socket, protocol_family,
                 socket_type, protocol);
    if (s < 0) {
        s = __STD(socket(protocol_family, socket_type, protocol));
    }
    return s;
}

可以看到,libcobalt中的函数会先尝试调用实时内核cobalt的系统调用, 当cobalt系统调用不成功的时候才继续尝试通过__STD()宏来调用linux系统调用(cobalt内核根据socket协议类型参数PF_INET,SOCK_STREAM判断),这样就有效的分清了是linux系统调用还是xenomai系统调用,这也是所有libcobalt实现的posix都链接到libobalt库的原因。

一般情况下,可以直接在代码中使用__STD()宏指明我们调用的linux内核的服务,修改如下:

....
    int sockfd,ret;                                            
    struct sockaddr_in addr;                           
    sockfd = __STD(socket(PF_INET, SOCK_STREAM, 0));            
.....
     __STD(bind(sockfd, (struct sockaddr *)&my_addr,sizeof(struct sockaddr_in)));
....

现在一切都明了了,一个函数编译时通过参数链接到xenomai库后,通过__STD()宏来表示使用linux接口。

4. 总结

  • 在实时程序或实时库libcobalt中,通过__STD()宏,或添加前缀__real__来表示使用linux接口;可以使用xenomai内定义宏区分__XENO__来兼容Linux和xenomai平台。
    /* Open a plain Linux UDP socket. */
    #ifndef __XENO__
         fd = socket(PF_INET, SOCK_DGRAM, 0);
    #else /* __XENO__ */
         fd = __real_socket(PF_INET, SOCK_DGRAM, 0);
    #endif /* __XENO__ */
    
  • 对于一个未指明的接口,libcobalt会先尝试发起xenomai系统调用,不成功会接着尝试linux内核系统调用。
  • 如果我们向libcobalt库中新添加一个libcobalt库中没有的自定义POSIX函数/系统调用时,一定要在内部先尝试发起xenomai系统调用,不成功时接着尝试linux内核系统调用,此外还必须将该接口添加到文件xenomai\lib\cobalt\cobalt.wrappers中,这样才能正确链接,否则编译后的应用还是原来的。
目录
相关文章
|
15天前
|
算法 Linux
深入探索Linux内核的内存管理机制
本文旨在为读者提供对Linux操作系统内核中内存管理机制的深入理解。通过探讨Linux内核如何高效地分配、回收和优化内存资源,我们揭示了这一复杂系统背后的原理及其对系统性能的影响。不同于常规的摘要,本文将直接进入主题,不包含背景信息或研究目的等标准部分,而是专注于技术细节和实际操作。
|
15天前
|
存储 缓存 网络协议
Linux操作系统的内核优化与性能调优####
本文深入探讨了Linux操作系统内核的优化策略与性能调优方法,旨在为系统管理员和高级用户提供一套实用的指南。通过分析内核参数调整、文件系统选择、内存管理及网络配置等关键方面,本文揭示了如何有效提升Linux系统的稳定性和运行效率。不同于常规摘要仅概述内容的做法,本摘要直接指出文章的核心价值——提供具体可行的优化措施,助力读者实现系统性能的飞跃。 ####
|
16天前
|
监控 算法 Linux
Linux内核锁机制深度剖析与实践优化####
本文作为一篇技术性文章,深入探讨了Linux操作系统内核中锁机制的工作原理、类型及其在并发控制中的应用,旨在为开发者提供关于如何有效利用这些工具来提升系统性能和稳定性的见解。不同于常规摘要的概述性质,本文将直接通过具体案例分析,展示在不同场景下选择合适的锁策略对于解决竞争条件、死锁问题的重要性,以及如何根据实际需求调整锁的粒度以达到最佳效果,为读者呈现一份实用性强的实践指南。 ####
|
16天前
|
缓存 监控 网络协议
Linux操作系统的内核优化与实践####
本文旨在探讨Linux操作系统内核的优化策略与实际应用案例,深入分析内核参数调优、编译选项配置及实时性能监控的方法。通过具体实例讲解如何根据不同应用场景调整内核设置,以提升系统性能和稳定性,为系统管理员和技术爱好者提供实用的优化指南。 ####
|
18天前
|
负载均衡 算法 Linux
深入探索Linux内核调度机制:公平与效率的平衡####
本文旨在剖析Linux操作系统内核中的进程调度机制,特别是其如何通过CFS(完全公平调度器)算法实现多任务环境下资源分配的公平性与系统响应速度之间的微妙平衡。不同于传统摘要的概览性质,本文摘要将直接聚焦于CFS的核心原理、设计目标及面临的挑战,为读者揭开Linux高效调度的秘密。 ####
32 3
|
21天前
|
负载均衡 算法 Linux
深入探索Linux内核调度器:公平与效率的平衡####
本文通过剖析Linux内核调度器的工作机制,揭示了其在多任务处理环境中如何实现时间片轮转、优先级调整及完全公平调度算法(CFS),以达到既公平又高效地分配CPU资源的目标。通过对比FIFO和RR等传统调度策略,本文展示了Linux调度器如何在复杂的计算场景下优化性能,为系统设计师和开发者提供了宝贵的设计思路。 ####
33 6
|
20天前
|
消息中间件 安全 Linux
深入探索Linux操作系统的内核机制
本文旨在为读者提供一个关于Linux操作系统内核机制的全面解析。通过探讨Linux内核的设计哲学、核心组件、以及其如何高效地管理硬件资源和系统操作,本文揭示了Linux之所以成为众多开发者和组织首选操作系统的原因。不同于常规摘要,此处我们不涉及具体代码或技术细节,而是从宏观的角度审视Linux内核的架构和功能,为对Linux感兴趣的读者提供一个高层次的理解框架。
|
22天前
|
缓存 并行计算 Linux
深入解析Linux操作系统的内核优化策略
本文旨在探讨Linux操作系统内核的优化策略,包括内核参数调整、内存管理、CPU调度以及文件系统性能提升等方面。通过对这些关键领域的分析,我们可以理解如何有效地提高Linux系统的性能和稳定性,从而为用户提供更加流畅和高效的计算体验。
29 2
|
22天前
|
缓存 网络协议 Linux
深入探索Linux操作系统的内核优化策略####
本文旨在探讨Linux操作系统内核的优化方法,通过分析当前主流的几种内核优化技术,结合具体案例,阐述如何有效提升系统性能与稳定性。文章首先概述了Linux内核的基本结构,随后详细解析了内核优化的必要性及常用手段,包括编译优化、内核参数调整、内存管理优化等,最后通过实例展示了这些优化技巧在实际场景中的应用效果,为读者提供了一套实用的Linux内核优化指南。 ####
44 1
|
22天前
|
算法 前端开发 Linux
深入理解Linux内核调度器:CFS与实时性的平衡####
本文旨在探讨Linux操作系统的核心组件之一——完全公平调度器(CFS)的工作原理,分析其在多任务处理环境中如何实现进程间的公平调度,并进一步讨论Linux对于实时性需求的支持策略。不同于传统摘要仅概述内容要点,本部分将简要预览CFS的设计哲学、核心算法以及它是如何通过红黑树数据结构来维护进程执行顺序,同时触及Linux内核为满足不同应用场景下的实时性要求而做出的权衡与优化。 ####
下一篇
DataWorks