手撸一款简单高效的线程池(四)

简介: 在前几章的内容中,我们给大家介绍了一些 C++线程池中的优化思路和实现方案。这一章中,我们来聊一聊在编程实现过程中,一些工程层面的优化。让我们的代码执行的速度,跟得上自己的思路。

在前几章的内容中,我们给大家介绍了一些 C++线程池中的优化思路和实现方案。这一章中,我们来聊一聊在编程实现过程中,一些工程层面的优化。让我们的代码执行的速度,跟得上自己的思路


大家好,我是不会写代码的纯序员——Chunel Feng,有两周的时间没有更新文章了哈。主要是上上周啊,我随便 copy 了一段功能代码,也不知道执行后会是啥结果,还没测试就直接发布到线上了。然后这两周就一直在改 bug 了。当然了,如果不是组里朋友一起来帮忙,可能还会耽搁的更久。事后,我就想啊,这样一个程序员毁了一个组的狗血剧情,也可能发生在多线程开发过程中。有必要进行一些针对性的优化。


在之前的几篇文章里,我们主要跟大家介绍了线程池中一些增加扇入扇出、增加负载均衡的优化思路和方法。这一章,我们跟大家聊一下CGraph中的 threadpool 实现过程中,在工程层面做的一些考量。主要会涉及到 避免 busy waiting分支预测优化减少无用 copy 等机制。有些东西看似跟多线程没有什么关系,但是落地后的提升是明显的——甚至会比线程调度理论上的优化,来的更加明显。


首先,还是照例,先上源码链接:CGraph 源码链接[1] 其中,线程池的实现在 /src/UtilsCtrl/ThreadPool/ 文件夹中


避免 busy waiting


写多线程代码的时候,单个线程在一些特定的流程中(比如:等着队列中来信息),会有可能陷入不定期的无效等待中去,并且这种等待是不会自动释放 cpu 资源的,这就是所谓的busy waiting逻辑。


它的缺点是显而易见的:自身陷入无用等待的过程中的同时,也阻碍了其他线程顺利执行——像极了自己写了 bug 却查不出来,还要拉着同事一起来查的纯序员本员了


11.png


我举个例子:


void push(UTaskWrapper&& task) {    while (true) {        if (mutex_.try_lock()) {            // 可能出现长期无法抢到锁的情况            queue_.emplace_front(std::move(task));            mutex_.unlock();            break;        } else {            // 让出cpu执行权            std::this_thread::yield();        }    }}


看上面一段代码,多个线程往一个 queue中 push 任务的时候,可能遇到一些情况,使得 mutex被其他的线程占着。这个时候是保持现状,不断的重复尝试抢锁,还是直接让出当前线程的执行权,过 n 个时间片再来重新尝试一次?我想绝大部分情况下,应该选择后者。而yield()函数的用途,就是使得当前线程让出 cpu 执行权。


之所以在最外面加了 while (true),是因为无论尝试多少次,最终总需要把这个任务 push 进 queue_中——总不能半途而废吧。


顺便说一句,这种 busy waiting 的现象,在 cas 操作和 atomic 操作中会经常出现。cas 是因为需要一直比较expectedptr是否一致,而 atomic 是因为还需要保证当前线程不退出。


分支预测优化


来看下面很简单的一个逻辑,函数入口处先判定一下传入的指针是否非空,非空的话则继续往下执行。


void function(CObject* ptr, CParam* param) {    if (nullptr == ptr || nullptr == param) {        return;    }    // do something    ptr->doSomeThing(param);}


这种写法,在一定程度上体现了编程的严谨性。但是有个问题:如果所有函数的开头处,都对所有的指针入参做非空判断,这会是一个很繁杂的逻辑。而且很多指针(比如:指针型成员变量)基本上是初始化一次,之后就都不会为空了。还要每次进入函数开头进行逻辑判断么?为此,我们引入了执行分支预测逻辑。


12.png


先来简单的说一下程序执行的流程哈。我们上面的那段代码虽然是线性的流程,但是在执行的时候,程序在if那个地方,并不会等着判断条件(例中为:(nullptr == ptr || nullptr == param),也可能是一个非常复杂的逻辑)得出一个 true or false 的结果后,再决定从哪个分支开始执行。


执行逻辑是:当遇到if判断的时候,“随便”选一个分支(反正是 2 选 1 嘛,蒙对的概率还不小)把对应的指令加载进来执行。如果蒙对了最好;蒙不对,就掉头回去,再执行另外分支的逻辑。从而在一定程度上,达到了加速执行的目的——像极了还不确定代码功能是否正常,就直接发布到线上,有问题再回滚的纯序员本员了


注:我再来解释一下我刚才“随便”说的那个“随便”哈。这其中的优化算法和调度逻辑,是很多资深的行业大佬和一些巨头科技公司一起合作研究出来的,复杂程度难以想象。如果不是专门研究这个方向,我认为知道有这事即可,术业有专攻嘛。


那我们再往后想一步,针对例子中这种入参为空逻辑,是不是应该极大概率不会出现呢?这个时候,如果我们能给编译器一个明确的提示,是不是就能从 50%的命中率,提高到 90%甚至是 99.99%呢。


#define likely(x)   __builtin_expect(!!(x), 1)#define unlikely(x) __builtin_expect(!!(x), 0)bool stealTask(UTaskWrapperRef task) {    if (unlikely(pool_threads_->size() < CGRAPH_DEFAULT_THREAD_SIZE)) {        // 线程池还未初始化完毕的时候无法进行steal。确保程序安全运行        return false;    }    // do something    return true;}


结合代码说一下:上述代码中 当且仅当程序刚开始运行,线程池中所有的 Primary 线程未初始化完毕,且未初始化线程又被 steal 的情况下 才会出现if那个分支为 true 的情况。这个时候,我们可以明确的告诉编译器,这里unlikely(不太可能)被执行。

__builtin_expect是 C++自带的函数,这个没什么好说的(主要是我也说不出来啥,嘿嘿)。一句话介绍一下为什么是!!(x):目的就是为了将 x 值变成一个 bool 类型。例:


!!(5) = 1

!!(1) = 1

!!(0) = 0


关于这一点,我们来做个有意思的小实验


#include <iostream>#define likely(x)   __builtin_expect(!!(x), 1)#define unlikely(x) __builtin_expect(!!(x), 0)int main() {    long long outLoop = 10000;    long long inLoop = 10000000;    while (outLoop--) {        long long loop = inLoop;        static long long i = 1;    // tag-1        while (loop--) {            if (unlikely(0 == i % 2)) {    // tag-2                i += 1;            } else {                i += 2;            }        }    }    return 0;}


大家看一下上面这段又臭又长的代码哈,具体逻辑没啥好说的——就是循环里面套循环。主要看 unlikely 那句话:如果直接运行的话,执行耗时是 35.69 秒;但如果删除unlikely修饰的话,则执行耗时是 100.44 秒——接近 3 倍的差距。


我再说几个问题,有兴趣的朋友可以自己试试看:


如果tag-1那句话,不加static,会怎样?

如果tag-2那句话,使用likely修饰,会怎样?


如果你没亲身试过,结果很有可能跟你想的不一样哦。


减少无用 copy


C++ 中存在着各种形式的或默认或自定义的赋值构造、拷贝构造。搞不好的话,会出逻辑问题;搞好的话,来回赋值其实也是挺费时费力的。最好的解决方法,就是在不需要 copy 的时候,直接转移当前对象——类似 C++11 中提出的std::move概念。


为此,CGraph 中 threadpool 在开发过程中,全程传参和赋值中,采用的都是std::moveemplace的传递方式,尽可能的避免出现中间流程无意义 copy 的情况。


同时,在指针类型的选取方面,也是基本上采用原生指针,自行对资源进行分发和管理。仅针对不定期申请/释放的资源,会通过 make_unique 进行申请,以 unique_ptr 的方式进行生命周期管理。且全程均未使用 shared_ptr。这些,都是基于性能方面的考量。


注:shared_ptr 和 unique_ptr 在反复多次申请和来回赋值的情况下,有一定的性能差距,同时,shared_ptr 自身内存占用也比 unique_ptr 大(主要都是因为 shared_ptr 中的 cas 校验机制)。很多大型项目,是明文禁止使用 shared_ptr 的。


13.png


在这里跟大家分享一个我前段时间遇到的一个问题:


#include <iostream>struct Message {    Message(std::string msg) : msg_(std::move(msg)) {    }    Message(const Message& msg) : msg_(std::move(msg.msg_)) {        std::cout << "copy construct\n";    }    Message(Message&& msg) : msg_(std::move(msg.msg_)) {        std::cout << "move construct\n";    }    // 如果把这个函数注释掉,会如何执行??    Message(const Message&& msg) : msg_(std::move(msg.msg_)) {        std::cout << "right move construct\n";    }    std::string msg_;};int main() {    const Message cm{"aaa"};    // 如果把const去掉,会如何执行?    Message cm1 = std::move(cm);}


大家可以看一下,上这段代码中,如果直接运行,应该是输出:


>> right move construct


这个应该没有什么疑问。但是,如果把第四个函数Message(const Message&& msg)注释掉,再重新执行,则是输出:


>> copy construct (打印)>> move construct (不打印)


你以为它 move 了,实际上却是在 copy。再如果,把 main 函数中,const Message cm{"aaa"};中的const字段删除,那结果又会不一样了,大家可以自己尝试一下。


聊这些的意思,主要目的就是提醒大家,尽可能不要在自己定义各种构造函数的时候踩坑——像极了反复 ctrl c/v 代码,但却又不知道这一段代码会不会被执行的纯序员本员


本章小结


本章内容,主要介绍了一些在实现 CGraph 框架中 threadpool 功能的过程中,用到了一些实用工程侧的小技巧。其实都蛮简单的,很多技巧在写其他工程逻辑的时候,都可以被用到。


14.png


再说一个事情哈,我们之前聊到过work-stealing机制。介绍了该机制的优劣,并且通过实验,证明了在线程数量远大于 cpu 数量情况下,仅 steal 相邻 index 的几个 thread,会显著提升整体调度性能(调度时间降低)。


最近,有一位在国内顶尖 AI 公司做高性能计算的资深大佬跟我提到,之所以在限制 stealing 个数后会有性能提升,还跟 CPU 自身的构造和机制有关系,不同的系统架构上,也可能会有不同的效果。至于最底层的内容究竟怎样,作为上层的纯序员已经无法探究,甚至连能够探究的实验也不会设计,验证的专业工具也不会使用。


就是借此感慨一下,计算机知识的海洋深不见底,有时候亲眼所见所得,也未必就是全部的真相。作为新晋民工的我们,更应该保持不断学习和充电,不断去打破自己思维和认知的边界,提高水平。这样才会让我们看到的世界更加完整真实,思维的武器更加强大,顺便认识更多的妹子


15.png


当然,今天我们聊到的所有内容也均仅限于本人的既有认知。欢迎大家加我微信,以便随时交流。我们也会在接下来的文章中,介绍 CGraph 中线程池的使用 demo 和一些性能测试数据。欢迎大家继续关注。


推荐阅读


纯序员给你介绍图化框架的简单实现——执行逻辑[2]

纯序员给你介绍图化框架的简单实现——循环逻辑[3]

纯序员给你介绍图化框架的简单实现——参数传递[4]

纯序员给你介绍图化框架的简单实现——条件判断[5]

纯序员给你介绍图化框架的简单实现——线程池优化(一)[6]

纯序员给你介绍图化框架的简单实现——线程池优化(二)[7]

纯序员给你介绍图化框架的简单实现——线程池优化(三)[8]


引用链接


[1] CGraph 源码链接: https://github.com/ChunelFeng/CGraph

[2] 纯序员给你介绍图化框架的简单实现——执行逻辑: http://www.chunel.cn/archives/cgraph-run-introduce

[3] 纯序员给你介绍图化框架的简单实现——循环逻辑: http://www.chunel.cn/archives/cgraph-loop-introduce

[4] 纯序员给你介绍图化框架的简单实现——参数传递: http://www.chunel.cn/archives/cgraph-param-introduce

[5] 纯序员给你介绍图化框架的简单实现——条件判断: http://www.chunel.cn/archives/cgraph-condition-introduce

[6] 纯序员给你介绍图化框架的简单实现——线程池优化(一): http://www.chunel.cn/archives/cgraph-threadpool-1-introduce

[7] 纯序员给你介绍图化框架的简单实现——线程池优化(二): http://www.chunel.cn/archives/cgraph-threadpool-2-introduce

[8] 纯序员给你介绍图化框架的简单实现——线程池优化(三): http://www.chunel.cn/archives/cgraph-threadpool-3-introduce


目录
相关文章
|
6月前
|
安全 Java 编译器
多线程(看这一篇就够了,超详细,满满的干货)
多线程(看这一篇就够了,超详细,满满的干货)
64 2
|
6月前
|
存储 并行计算 监控
为师妹写的《Java并发编程之线程池十八问》被表扬啦!
【6月更文挑战第5天】为师妹写的《Java并发编程之线程池十八问》被表扬啦!
59 7
|
7月前
|
Java
剑指JUC原理-12.手写简易版线程池思路
剑指JUC原理-12.手写简易版线程池思路
44 0
|
7月前
|
存储 安全 Java
手撕线程池与性能测试
手撕线程池与性能测试
127 0
|
SQL 缓存 安全
【多线程】——java多线程编程核心读书总结
前段时间学习到多线程相关内容了,看了java多线程编程核心这本书,下面是小编对这本书的总结
直击灵魂!美团大牛手撸并发原理笔记,由浅入深剖析JDK源码
并发编程这四个字想必大家最近都在网上看到过有很多的帖子在讨论。我们都知道并发编程可选择的方式有多进程、多线程和多协程。在Java中,并发就是多线程模式。而多线程编程也一直是一个被广泛而深入讨论的领域。如果遇到复杂的多线程编程场景,大多数情况下我们就需要站在巨人的肩膀上利用并发编程框架——JDK Concurrent包来解决相关线程问题。
面试官:小伙子我们先来唠唠并发编程的几大核心知识点
并发编程算是Java的一个难点,经常做业务相关的程序员基本上用不到juc的包,但是这些知识点十分重要,所以不管在哪里,时刻保持学习真的很重要。
【多线程】线程池如何复用,怎么才能让面试官听懂我说的?
今天来说一下面试中常问到问题,我们知道线程池是帮助我们对线程资源的管理,只有我们合理的使用使用线程池,他才能做到事倍功半,但是你知道线程池是如何复用的吗?
|
监控 Java
手撕Java线程池
原理和源码解析
3836 0
手撕Java线程池
|
存储 负载均衡 并行计算
手撸一款简单高效的线程池(五)
在之前的内容中,我们给大家介绍了 C++实现线程池过程中的一些常用线优化方案,并分析了不同机制使用时的利弊。这一篇,是线程池系列的最后一章。我们会介绍一下 CGraph 中的 threadpool 如何使用,给出性能对比,并对接下来的工作做一些展望。让我们在线程池性能优化和功能提升的道路上,越走越远。
359 0
手撸一款简单高效的线程池(五)