基于Linux socket聊天室-多线程服务器问题处理(02)

简介: 基于Linux socket聊天室-多线程服务器问题处理(02)

     根据上篇文章中,遗留的问题,进行进一步的分析。

     server创建子线程的时候用的是以下代码:

pconnsocke = (int *) malloc(sizeof(int));
  *pconnsocke = new_fd;
  ret = pthread_create(&tid, NULL, rec_func, (void *) pconnsocke);
  if (ret < 0) 
  {
   perror("pthread_create err");
   return -1;
  }

   为什么必须要malloc一块内存专门存放这个新的套接字呢?

要讲清楚这个问题的原因需要一些背景知识:

  1. Linux创建一个新进程时,新进程会创建一个主线程;
  2. 每个用户进程有自己的地址空间,系统为每个用户进程创建一个task_struct来描述该进程, 实际上task_struct 和地址空间映射表一起用来,表示一个进程;
  3. Linux里同样用task_struct来描述一个线程,线程和进程都参与统一的调度;
  4. 进程内的不同线程执行是同一程序的不同部分,各个线程并行执行,受操作系统异步调度;
  5. 由于进程的地址空间是私有的,因此在进程间上下文切换时,系统开销比较大;
  6. 在同一个进程中创建的线程共享该进程的地址空间。

明白这些基础知识后,下面我来看下,当进程创建一个子线程的时候,传递的参数情况:

直接传递栈中内存地址

我们首先分析下如果创建子线程传递的是局部变量new_fd的地址这种情况。

由上图所示:

  1. 创建一个线程,如果我们按照图中传递参数方法,那么new_fd是在栈中的,创建子线程的时候我们把new_fd地址传递给了thread1,线程回调参数arg的地址是new_fd地址。
  2. 因为主函数会一直循环不退出,所以new_fd一直存在栈中。用这种方法的确可以把new_fd的值3传递到子线程的局部变量fd,这样子线程就可以使用这个fd与客户端通信。
  3. 但是因为我们设计的是并发服务器模型,我们没有办法预测客户端什么时候会连接我们的服务器,假设遇到一个极端情况,在同一时刻,多个客户端同时连接服务器,那么主线程是要同时创建多个子线程的。

多个客户端同时连接服务器

如上图所示,所有新建的的thread回调函数的参数arg存放的都是new_fd的地址。如果客户端连接的时候时间间隔比较大,是没有问题的,但是在一些极端的情况下还是有可能出现由于高并发引起的错误。

我们来捋一下极端的调用时序:

第一步:

如上图所示:

  1. T1时刻,当客户端1连接服务器的时候,服务器的accept函数会创建新的套接字4;
  2. T2时刻,创建了子线程thread1,同时子线程回调函数参数arg指向了栈中new_fd对应的内存。
  3. 假设,正在此时,又有一个客户端要连接服务器,而且thread1页已经用尽了时间片,那么主线程server会被调度到。

第二步:

如上图所示:

  1. T3时刻,主线程server接受了客户端的连接,accept函数会创建新的套接字5,同时创建子线程thread2,此时OS调度的thread2;
  2. T4时刻,thread2通过arg得到new_fd了的值5,并存入fd;
  3. T5时刻,时间片到了,调度thread1,thread1通过arg去读取new_fd,此时栈中new_fd的值已经修5覆盖了;
  4. 所以出现了2个线程同时使用同一个fd的情况发生。

这种情况的发生,虽然概率很低,但是并不代表不发生,该bug就是一口君在解决实际项目中遇到过的。

传递堆内存地址

如果采用传递堆的地址的方式,我们看下图:

  1. T1时刻,当客户端1连接服务器的时候,服务器的accept函数会创建新的套接字4,在堆中申请一块内存,用指针pconnsocke指向该内存,同时将4保存到堆中;
  2. T2时刻,创建了子线程thread1,同时子线程回调函数参数arg指向了堆中pconnsocke指向的内存。
  3. 假设,正在此时,又有一个客户端要连接服务器,而且thread1页已经用尽了时间片,那么主线程server会被调度到。
  4. T3时刻,主线程server接受了客户端的连接,accept函数会创建新的套接字5,在堆中申请一块内存,用指针pconnsocke指向该内存,同时将5保存到堆中,然后创建子线程thread2;
  5. T4时刻,thread2通过arg指向了堆中pconnsocke指向的内存,此处值为5,并存入fd;
  6. T5时刻,时间片到了,调度thread1,thread1通过arg去读取fd,此时堆中数据位5;
  7. 就不会出现了2个线程同时使用同一个fd的情况发生。

这个知识点有点隐蔽,希望读者在使用的时候多加小心。

目录
相关文章
|
前端开发
前端 window.print() 打印方案、优化策略总结(一)
前端 window.print() 打印方案、优化策略总结(一)
1277 0
前端 window.print() 打印方案、优化策略总结(一)
|
人工智能 算法 安全
人工智能伦理困境:机器自主性的边界与挑战
本文深入探讨了人工智能技术发展中的伦理问题,特别关注于机器自主性带来的挑战和边界。文章通过分析当前AI技术的发展现状、未来趋势以及可能引发的社会、法律和道德问题,提出了对AI伦理治理的建议。旨在为读者提供一种全面的视角,以理解并应对由AI技术快速发展带来的伦理困境。
672 0
|
运维 监控 安全
阿里云云通信短信服务安全之安全责任共担与安全合规
阿里云云通信长久以来致力于为客户提供稳定可靠、安全可信、合法合规的通信服务,利用先进技术、建立产品体系、严格管理人员等不同手段以保护客户及合作伙伴数据的机密性、完整性、可用性,以数据安全、用户隐私保护作为阿里云云通信的最高准则。
790 0
|
Oracle 关系型数据库 数据库
oracle 重启步骤及踩坑经验
oracle 重启步骤及踩坑经验
734 0
|
机器学习/深度学习 人工智能 算法
【BN层】基础回顾:带你认识神经网络中常见的BN层
【BN层】基础回顾:带你认识神经网络中常见的BN层
1861 0
|
XML Java 应用服务中间件
Spring Boot:WEB项目,以WAR包形式部署到外部tomcat部署
Spring Boot:WEB项目,以WAR包形式部署到外部tomcat部署
Spring Boot:WEB项目,以WAR包形式部署到外部tomcat部署
|
机器学习/深度学习 存储 人工智能
英伟达 H100 vs. 苹果M2,大模型训练,哪款性价比更高?
训练和微调大型语言模型对于硬件资源的要求非常高。目前,主流的大模型训练硬件通常采用英特尔的CPU和英伟达的GPU。然而,最近苹果的M2 Ultra芯片和AMD的显卡进展给我们带来了一些新的希望。
2348 0
|
人工智能 缓存 Ubuntu
AI+树莓派=阿里P8技术专家。模拟面试、学技术真的太香了 | 手把手教学
本课程由阿里P8技术专家分享,介绍如何使用树莓派和阿里云服务构建AI面试助手。通过模拟面试场景,讲解了Java中`==`与`equals`的区别,并演示了从硬件搭建、语音识别、AI Agent配置到代码实现的完整流程。项目利用树莓派作为核心,结合阿里云的实时语音识别、AI Agent和文字转语音服务,实现了一个能够回答面试问题的智能玩偶。课程展示了AI应用的简易构建过程,适合初学者学习和实践。
547 22
|
机器学习/深度学习 PyTorch 算法框架/工具
即插即用模块 | RFAConv助力YOLOv8再涨2个点(二)
即插即用模块 | RFAConv助力YOLOv8再涨2个点(二)
1864 0
|
11月前
|
JSON 监控 API
深度解析淘宝天猫店铺所有商品API接口,一文带你吃透
本文介绍如何通过淘宝开放平台的API获取店铺所有商品信息,适用于电商数据分析、竞品监控等场景。核心接口为`tb.items.onsale.get`(出售中商品)和`tb.items.inventory.get`(库存商品列表)。接口采用HTTP POST请求,返回JSON格式数据,包含商品总数、列表及各商品的ID、标题、价格、图片URL等关键信息,并提供Python实现示例,助力开发者高效获取与处理数据。

热门文章

最新文章

下一篇
开通oss服务