linux内核探索--编写一个netlink通信模块

简介: 如何编写一个netlink通信模块

 目录

1,编写内核模块

2,增加相应的生成文件

3,编写用户进程代码

4,测试结果


要求:实现一个网络链路通信模块,用户发送字符串数据后,内核将字符串翻转,然后回复给用户态程序


与系统调用,/ proc,sysfs等类似,netlink也是一种用于用户进程与内核通信的机制,它是基于BSD套接字协议,使用AF_NETLINK地址簇。与系统调用,proc,sysfs文件系统等方式相比,网络链路具有简单,支持双向通信的特点,并支持消息多播机制。

1,编写内核模块

vim netlink_mod.c:

#include <linux/module.h>
#include <net/sock.h>
#include <linux/netlink.h>
#include <linux/skbuff.h>
#define MY_NETLINK_TYPE 31 //max is 32, see netlink.h
struct sock *my_nl_sock = NULL;
static void hello_nl_recv_msg(struct sk_buff *skb)
{
    struct nlmsghdr *nlh;
    int pid;
    struct sk_buff *skb_out;
    int msg_size;
    char *msg=NULL;
    char *msg_zj=NULL;
    int res;
    int i;
    printk(KERN_INFO "Entering: %s\n", __FUNCTION__);
    //msg_size = strlen(msg);
    nlh = (struct nlmsghdr *)skb->data;//Kernel Space receive message from user
    printk(KERN_INFO "Netlink receive msg: %s\n", (char *)nlmsg_data(nlh));
    msg =nlmsg_data(nlh);
    printk(KERN_INFO "msg:%s\n",msg);    
    msg_size = strlen(msg);
    printk(KERN_INFO "size of msg:%d\n",msg_size);    
    //String inversion
    msg_zj = (char *)kmalloc(msg_size + 1,GFP_KERNEL);
    memset(msg_zj, 0, msg_size + 1);
    for(i = 0; i < msg_size;i++)
    {
  msg_zj[i]=msg[msg_size-i-1];
    }    
    printk(KERN_INFO "msg_zj:%s\n",msg_zj);    
    pid = nlh->nlmsg_pid;
    skb_out = nlmsg_new(msg_size, 0);
    if (!skb_out) {
        printk(KERN_INFO "alloc nlmsg failed\n");
        return;
    }
    nlh = nlmsg_put(skb_out, 0, 0, NLMSG_DONE, msg_size, 0);
    NETLINK_CB(skb_out).dst_group = 0;
    //strncpy(nlmsg_data(nlh), msg, msg_size);
    strncpy(nlmsg_data(nlh), msg_zj, msg_size);
    res = nlmsg_unicast(my_nl_sock, skb_out, pid);//Kernel Space send message toUser Space
    if (res < 0)
        printk(KERN_INFO "nlmsg unicast failed\n");
    kfree(msg_zj);
    return;
}
static int __init hello_init(void)
{
    struct netlink_kernel_cfg cfg = {
            .groups = 0,
            .input = hello_nl_recv_msg
    };
    printk("Entering: %s:\n", __FUNCTION__);
    my_nl_sock = netlink_kernel_create(&init_net, MY_NETLINK_TYPE, &cfg);
    if (!my_nl_sock) {
        printk(KERN_ALERT "netlink create sock failed\n");
        return -10;
    }
    return 0;
}
static void __exit hello_exit(void)
{
    printk(KERN_INFO "Exiting hello module\n");
    netlink_kernel_release(my_nl_sock);
    my_nl_sock = NULL;
}
module_init(hello_init);
module_exit(hello_exit);
MODULE_LICENSE("GPL");

image.gif

2,增加相应的生成文件

vim Makefile:

obj-m += netlink_mod.o
#KVERSION = $(shell uname -r)
#PWD = $(shell pwd)
all:
  make -C /lib/modules/$(shell uname -r)/build M=$(PWD) modules
clean:
  make -C /lib/modules/$(shell uname -r)/build M=$(PWD) clean

如果觉得文章对你有帮助,欢迎关注微信公众号:小牛呼噜噜

3,编写用户进程代码

用户进程主要使用netlink的socket与内核进行通信,首先向内核发送一条消息,然后再接收内核的消息,代码如下:

#include <stdlib.h>
#include <stdio.h>
#include <string.h>
#include <sys/socket.h>
#include <linux/netlink.h>
#define MY_NETLINK_TYPE 31
#define MAX_PAYLOAD 1024 /* maximum payload size*/
struct sockaddr_nl src_addr, dest_addr;
struct nlmsghdr *nlh = NULL;
struct iovec iov;
int sock_fd;
struct msghdr msg;
int 
main(int argc, char *argv[])
{
    sock_fd = socket(PF_NETLINK, SOCK_DGRAM, MY_NETLINK_TYPE);
    if (sock_fd < 0)
        return -1;
    memset(&src_addr, 0, sizeof(src_addr));
    src_addr.nl_family = AF_NETLINK;
    src_addr.nl_pid = getpid(); /* self pid */
    bind(sock_fd, (struct sockaddr *)&src_addr, sizeof(src_addr));
    memset(&dest_addr, 0, sizeof(dest_addr));
    memset(&dest_addr, 0, sizeof(dest_addr));
    dest_addr.nl_family = AF_NETLINK;
    dest_addr.nl_pid = 0; /* For Linux Kernel */
    dest_addr.nl_groups = 0; /* unicast */
    nlh = (struct nlmsghdr *)malloc(NLMSG_SPACE(MAX_PAYLOAD));
    memset(nlh, 0, NLMSG_SPACE(MAX_PAYLOAD));
    nlh->nlmsg_len = NLMSG_SPACE(MAX_PAYLOAD);
    nlh->nlmsg_pid = getpid();
    nlh->nlmsg_flags = 0;
    strcpy(NLMSG_DATA(nlh), "Hello");
    iov.iov_base = (void *)nlh;
    iov.iov_len = nlh->nlmsg_len;
    msg.msg_name = (void *)&dest_addr;
    msg.msg_namelen = sizeof(dest_addr);
    msg.msg_iov = &iov;
    msg.msg_iovlen = 1;
    printf("Sending message to kernel<<<%s\n",NLMSG_DATA(nlh));
    sendmsg(sock_fd, &msg, 0);//User Space send message to kernel
    printf("Waiting for message from kernel\n");
    /* Read message from kernel */
    recvmsg(sock_fd, &msg, 0);//User Space receive message from kernel
    printf("Received message payload>>>%s\n", NLMSG_DATA(nlh));
    close(sock_fd);
    return 0;
}

image.gif

4,测试结果

编译模块:

使

image.png

加载该模块:

sudo insmod netlink_mod.ko

image.gif

加载后可用的lsmod查看是否加载成功,然后编译并运行用户进程hello_user

gcc user.c -o user

image.gif

运行

./user

image.gif

可在终端中看到如下结果:

Sending message to kernel<<<Hello
Waiting for message from kernel
Received message payload>>>olleH
上面是用户进程的输出,可用dmesg命令查看内核模块的输出(或者直接查看/var/log/kern).

image.gif

image.png

卸载模块

sudo rmmod netlink_mod

参考:https//yangjin-unique.github.io/ru-he-zai-linuxnei-he-mo-kuai-zhong-jia-ru-netlinktong-xin-jie-kou.html


相关文章
|
3天前
|
缓存 负载均衡 Linux
深入理解Linux内核调度器
本文探讨了Linux操作系统核心组件之一——内核调度器的工作原理和设计哲学。不同于常规的技术文章,本摘要旨在提供一种全新的视角来审视Linux内核的调度机制,通过分析其对系统性能的影响以及在多核处理器环境下的表现,揭示调度器如何平衡公平性和效率。文章进一步讨论了完全公平调度器(CFS)的设计细节,包括它如何处理不同优先级的任务、如何进行负载均衡以及它是如何适应现代多核架构的挑战。此外,本文还简要概述了Linux调度器的未来发展方向,包括对实时任务支持的改进和对异构计算环境的适应性。
18 6
|
4天前
|
缓存 Linux 开发者
Linux内核中的并发控制机制:深入理解与应用####
【10月更文挑战第21天】 本文旨在为读者提供一个全面的指南,探讨Linux操作系统中用于实现多线程和进程间同步的关键技术——并发控制机制。通过剖析互斥锁、自旋锁、读写锁等核心概念及其在实际场景中的应用,本文将帮助开发者更好地理解和运用这些工具来构建高效且稳定的应用程序。 ####
18 5
|
1天前
|
算法 Linux 调度
深入理解Linux内核调度器:从基础到优化####
本文旨在通过剖析Linux操作系统的心脏——内核调度器,为读者揭开其高效管理CPU资源的神秘面纱。不同于传统的摘要概述,本文将直接以一段精简代码片段作为引子,展示一个简化版的任务调度逻辑,随后逐步深入,详细探讨Linux内核调度器的工作原理、关键数据结构、调度算法演变以及性能调优策略,旨在为开发者与系统管理员提供一份实用的技术指南。 ####
14 4
|
4天前
|
算法 Unix Linux
深入理解Linux内核调度器:原理与优化
本文探讨了Linux操作系统的心脏——内核调度器(Scheduler)的工作原理,以及如何通过参数调整和代码优化来提高系统性能。不同于常规摘要仅概述内容,本摘要旨在激发读者对Linux内核调度机制深层次运作的兴趣,并简要介绍文章将覆盖的关键话题,如调度算法、实时性增强及节能策略等。
|
3天前
|
缓存 运维 网络协议
深入Linux内核架构:操作系统的核心奥秘
深入Linux内核架构:操作系统的核心奥秘
18 2
|
网络协议 NoSQL Linux
阿里云 Linux 内核优化实战(sysctl.conf 和 ulimits )
一、sysctl.conf优化Linux系统内核参数的配置文件为 /etc/sysctl.conf 和 /etc/sysctl.d/ 目录。其读取顺序为: /etc/sysctl.d/ 下面的文件按照字母排序;然后读取 /etc/sysctl.conf 。
8596 1
|
4天前
|
缓存 资源调度 安全
深入探索Linux操作系统的心脏——内核配置与优化####
本文作为一篇技术性深度解析文章,旨在引领读者踏上一场揭秘Linux内核配置与优化的奇妙之旅。不同于传统的摘要概述,本文将以实战为导向,直接跳入核心内容,探讨如何通过精细调整内核参数来提升系统性能、增强安全性及实现资源高效利用。从基础概念到高级技巧,逐步揭示那些隐藏在命令行背后的强大功能,为系统管理员和高级用户打开一扇通往极致性能与定制化体验的大门。 --- ###
19 9
|
7天前
|
机器学习/深度学习 负载均衡 算法
深入探索Linux内核调度机制的优化策略###
本文旨在为读者揭开Linux操作系统中至关重要的一环——CPU调度机制的神秘面纱。通过深入浅出地解析其工作原理,并探讨一系列创新优化策略,本文不仅增强了技术爱好者的理论知识,更为系统管理员和软件开发者提供了实用的性能调优指南,旨在促进系统的高效运行与资源利用最大化。 ###
|
6天前
|
监控 网络协议 算法
Linux内核优化:提升系统性能与稳定性的策略####
本文深入探讨了Linux操作系统内核的优化策略,旨在通过一系列技术手段和最佳实践,显著提升系统的性能、响应速度及稳定性。文章首先概述了Linux内核的核心组件及其在系统中的作用,随后详细阐述了内存管理、进程调度、文件系统优化、网络栈调整及并发控制等关键领域的优化方法。通过实际案例分析,展示了这些优化措施如何有效减少延迟、提高吞吐量,并增强系统的整体健壮性。最终,文章强调了持续监控、定期更新及合理配置对于维持Linux系统长期高效运行的重要性。 ####
|
9天前
|
人工智能 算法 大数据
Linux内核中的调度算法演变:从O(1)到CFS的优化之旅###
本文深入探讨了Linux操作系统内核中进程调度算法的发展历程,聚焦于O(1)调度器向完全公平调度器(CFS)的转变。不同于传统摘要对研究背景、方法、结果和结论的概述,本文创新性地采用“技术演进时间线”的形式,简明扼要地勾勒出这一转变背后的关键技术里程碑,旨在为读者提供一个清晰的历史脉络,引领其深入了解Linux调度机制的革新之路。 ###