手撸一款简单高效的线程池(四)

简介: 在前几章的内容中,我们给大家介绍了一些 C++线程池中的优化思路和实现方案。这一章中,我们来聊一聊在编程实现过程中,一些工程层面的优化。让我们的代码执行的速度,跟得上自己的思路。

在前几章的内容中,我们给大家介绍了一些 C++线程池中的优化思路和实现方案。这一章中,我们来聊一聊在编程实现过程中,一些工程层面的优化。让我们的代码执行的速度,跟得上自己的思路


大家好,我是不会写代码的纯序员——Chunel Feng,有两周的时间没有更新文章了哈。主要是上上周啊,我随便 copy 了一段功能代码,也不知道执行后会是啥结果,还没测试就直接发布到线上了。然后这两周就一直在改 bug 了。当然了,如果不是组里朋友一起来帮忙,可能还会耽搁的更久。事后,我就想啊,这样一个程序员毁了一个组的狗血剧情,也可能发生在多线程开发过程中。有必要进行一些针对性的优化。


在之前的几篇文章里,我们主要跟大家介绍了线程池中一些增加扇入扇出、增加负载均衡的优化思路和方法。这一章,我们跟大家聊一下CGraph中的 threadpool 实现过程中,在工程层面做的一些考量。主要会涉及到 避免 busy waiting分支预测优化减少无用 copy 等机制。有些东西看似跟多线程没有什么关系,但是落地后的提升是明显的——甚至会比线程调度理论上的优化,来的更加明显。


首先,还是照例,先上源码链接:CGraph 源码链接[1] 其中,线程池的实现在 /src/UtilsCtrl/ThreadPool/ 文件夹中


避免 busy waiting


写多线程代码的时候,单个线程在一些特定的流程中(比如:等着队列中来信息),会有可能陷入不定期的无效等待中去,并且这种等待是不会自动释放 cpu 资源的,这就是所谓的busy waiting逻辑。


它的缺点是显而易见的:自身陷入无用等待的过程中的同时,也阻碍了其他线程顺利执行——像极了自己写了 bug 却查不出来,还要拉着同事一起来查的纯序员本员了


11.png


我举个例子:


void push(UTaskWrapper&& task) {    while (true) {        if (mutex_.try_lock()) {            // 可能出现长期无法抢到锁的情况            queue_.emplace_front(std::move(task));            mutex_.unlock();            break;        } else {            // 让出cpu执行权            std::this_thread::yield();        }    }}


看上面一段代码,多个线程往一个 queue中 push 任务的时候,可能遇到一些情况,使得 mutex被其他的线程占着。这个时候是保持现状,不断的重复尝试抢锁,还是直接让出当前线程的执行权,过 n 个时间片再来重新尝试一次?我想绝大部分情况下,应该选择后者。而yield()函数的用途,就是使得当前线程让出 cpu 执行权。


之所以在最外面加了 while (true),是因为无论尝试多少次,最终总需要把这个任务 push 进 queue_中——总不能半途而废吧。


顺便说一句,这种 busy waiting 的现象,在 cas 操作和 atomic 操作中会经常出现。cas 是因为需要一直比较expectedptr是否一致,而 atomic 是因为还需要保证当前线程不退出。


分支预测优化


来看下面很简单的一个逻辑,函数入口处先判定一下传入的指针是否非空,非空的话则继续往下执行。


void function(CObject* ptr, CParam* param) {    if (nullptr == ptr || nullptr == param) {        return;    }    // do something    ptr->doSomeThing(param);}


这种写法,在一定程度上体现了编程的严谨性。但是有个问题:如果所有函数的开头处,都对所有的指针入参做非空判断,这会是一个很繁杂的逻辑。而且很多指针(比如:指针型成员变量)基本上是初始化一次,之后就都不会为空了。还要每次进入函数开头进行逻辑判断么?为此,我们引入了执行分支预测逻辑。


12.png


先来简单的说一下程序执行的流程哈。我们上面的那段代码虽然是线性的流程,但是在执行的时候,程序在if那个地方,并不会等着判断条件(例中为:(nullptr == ptr || nullptr == param),也可能是一个非常复杂的逻辑)得出一个 true or false 的结果后,再决定从哪个分支开始执行。


执行逻辑是:当遇到if判断的时候,“随便”选一个分支(反正是 2 选 1 嘛,蒙对的概率还不小)把对应的指令加载进来执行。如果蒙对了最好;蒙不对,就掉头回去,再执行另外分支的逻辑。从而在一定程度上,达到了加速执行的目的——像极了还不确定代码功能是否正常,就直接发布到线上,有问题再回滚的纯序员本员了


注:我再来解释一下我刚才“随便”说的那个“随便”哈。这其中的优化算法和调度逻辑,是很多资深的行业大佬和一些巨头科技公司一起合作研究出来的,复杂程度难以想象。如果不是专门研究这个方向,我认为知道有这事即可,术业有专攻嘛。


那我们再往后想一步,针对例子中这种入参为空逻辑,是不是应该极大概率不会出现呢?这个时候,如果我们能给编译器一个明确的提示,是不是就能从 50%的命中率,提高到 90%甚至是 99.99%呢。


#define likely(x)   __builtin_expect(!!(x), 1)#define unlikely(x) __builtin_expect(!!(x), 0)bool stealTask(UTaskWrapperRef task) {    if (unlikely(pool_threads_->size() < CGRAPH_DEFAULT_THREAD_SIZE)) {        // 线程池还未初始化完毕的时候无法进行steal。确保程序安全运行        return false;    }    // do something    return true;}


结合代码说一下:上述代码中 当且仅当程序刚开始运行,线程池中所有的 Primary 线程未初始化完毕,且未初始化线程又被 steal 的情况下 才会出现if那个分支为 true 的情况。这个时候,我们可以明确的告诉编译器,这里unlikely(不太可能)被执行。

__builtin_expect是 C++自带的函数,这个没什么好说的(主要是我也说不出来啥,嘿嘿)。一句话介绍一下为什么是!!(x):目的就是为了将 x 值变成一个 bool 类型。例:


!!(5) = 1

!!(1) = 1

!!(0) = 0


关于这一点,我们来做个有意思的小实验


#include <iostream>#define likely(x)   __builtin_expect(!!(x), 1)#define unlikely(x) __builtin_expect(!!(x), 0)int main() {    long long outLoop = 10000;    long long inLoop = 10000000;    while (outLoop--) {        long long loop = inLoop;        static long long i = 1;    // tag-1        while (loop--) {            if (unlikely(0 == i % 2)) {    // tag-2                i += 1;            } else {                i += 2;            }        }    }    return 0;}


大家看一下上面这段又臭又长的代码哈,具体逻辑没啥好说的——就是循环里面套循环。主要看 unlikely 那句话:如果直接运行的话,执行耗时是 35.69 秒;但如果删除unlikely修饰的话,则执行耗时是 100.44 秒——接近 3 倍的差距。


我再说几个问题,有兴趣的朋友可以自己试试看:


如果tag-1那句话,不加static,会怎样?

如果tag-2那句话,使用likely修饰,会怎样?


如果你没亲身试过,结果很有可能跟你想的不一样哦。


减少无用 copy


C++ 中存在着各种形式的或默认或自定义的赋值构造、拷贝构造。搞不好的话,会出逻辑问题;搞好的话,来回赋值其实也是挺费时费力的。最好的解决方法,就是在不需要 copy 的时候,直接转移当前对象——类似 C++11 中提出的std::move概念。


为此,CGraph 中 threadpool 在开发过程中,全程传参和赋值中,采用的都是std::moveemplace的传递方式,尽可能的避免出现中间流程无意义 copy 的情况。


同时,在指针类型的选取方面,也是基本上采用原生指针,自行对资源进行分发和管理。仅针对不定期申请/释放的资源,会通过 make_unique 进行申请,以 unique_ptr 的方式进行生命周期管理。且全程均未使用 shared_ptr。这些,都是基于性能方面的考量。


注:shared_ptr 和 unique_ptr 在反复多次申请和来回赋值的情况下,有一定的性能差距,同时,shared_ptr 自身内存占用也比 unique_ptr 大(主要都是因为 shared_ptr 中的 cas 校验机制)。很多大型项目,是明文禁止使用 shared_ptr 的。


13.png


在这里跟大家分享一个我前段时间遇到的一个问题:


#include <iostream>struct Message {    Message(std::string msg) : msg_(std::move(msg)) {    }    Message(const Message& msg) : msg_(std::move(msg.msg_)) {        std::cout << "copy construct\n";    }    Message(Message&& msg) : msg_(std::move(msg.msg_)) {        std::cout << "move construct\n";    }    // 如果把这个函数注释掉,会如何执行??    Message(const Message&& msg) : msg_(std::move(msg.msg_)) {        std::cout << "right move construct\n";    }    std::string msg_;};int main() {    const Message cm{"aaa"};    // 如果把const去掉,会如何执行?    Message cm1 = std::move(cm);}


大家可以看一下,上这段代码中,如果直接运行,应该是输出:


>> right move construct


这个应该没有什么疑问。但是,如果把第四个函数Message(const Message&& msg)注释掉,再重新执行,则是输出:


>> copy construct (打印)>> move construct (不打印)


你以为它 move 了,实际上却是在 copy。再如果,把 main 函数中,const Message cm{"aaa"};中的const字段删除,那结果又会不一样了,大家可以自己尝试一下。


聊这些的意思,主要目的就是提醒大家,尽可能不要在自己定义各种构造函数的时候踩坑——像极了反复 ctrl c/v 代码,但却又不知道这一段代码会不会被执行的纯序员本员


本章小结


本章内容,主要介绍了一些在实现 CGraph 框架中 threadpool 功能的过程中,用到了一些实用工程侧的小技巧。其实都蛮简单的,很多技巧在写其他工程逻辑的时候,都可以被用到。


14.png


再说一个事情哈,我们之前聊到过work-stealing机制。介绍了该机制的优劣,并且通过实验,证明了在线程数量远大于 cpu 数量情况下,仅 steal 相邻 index 的几个 thread,会显著提升整体调度性能(调度时间降低)。


最近,有一位在国内顶尖 AI 公司做高性能计算的资深大佬跟我提到,之所以在限制 stealing 个数后会有性能提升,还跟 CPU 自身的构造和机制有关系,不同的系统架构上,也可能会有不同的效果。至于最底层的内容究竟怎样,作为上层的纯序员已经无法探究,甚至连能够探究的实验也不会设计,验证的专业工具也不会使用。


就是借此感慨一下,计算机知识的海洋深不见底,有时候亲眼所见所得,也未必就是全部的真相。作为新晋民工的我们,更应该保持不断学习和充电,不断去打破自己思维和认知的边界,提高水平。这样才会让我们看到的世界更加完整真实,思维的武器更加强大,顺便认识更多的妹子


15.png


当然,今天我们聊到的所有内容也均仅限于本人的既有认知。欢迎大家加我微信,以便随时交流。我们也会在接下来的文章中,介绍 CGraph 中线程池的使用 demo 和一些性能测试数据。欢迎大家继续关注。


推荐阅读


纯序员给你介绍图化框架的简单实现——执行逻辑[2]

纯序员给你介绍图化框架的简单实现——循环逻辑[3]

纯序员给你介绍图化框架的简单实现——参数传递[4]

纯序员给你介绍图化框架的简单实现——条件判断[5]

纯序员给你介绍图化框架的简单实现——线程池优化(一)[6]

纯序员给你介绍图化框架的简单实现——线程池优化(二)[7]

纯序员给你介绍图化框架的简单实现——线程池优化(三)[8]


引用链接


[1] CGraph 源码链接: https://github.com/ChunelFeng/CGraph

[2] 纯序员给你介绍图化框架的简单实现——执行逻辑: http://www.chunel.cn/archives/cgraph-run-introduce

[3] 纯序员给你介绍图化框架的简单实现——循环逻辑: http://www.chunel.cn/archives/cgraph-loop-introduce

[4] 纯序员给你介绍图化框架的简单实现——参数传递: http://www.chunel.cn/archives/cgraph-param-introduce

[5] 纯序员给你介绍图化框架的简单实现——条件判断: http://www.chunel.cn/archives/cgraph-condition-introduce

[6] 纯序员给你介绍图化框架的简单实现——线程池优化(一): http://www.chunel.cn/archives/cgraph-threadpool-1-introduce

[7] 纯序员给你介绍图化框架的简单实现——线程池优化(二): http://www.chunel.cn/archives/cgraph-threadpool-2-introduce

[8] 纯序员给你介绍图化框架的简单实现——线程池优化(三): http://www.chunel.cn/archives/cgraph-threadpool-3-introduce


目录
相关文章
|
5月前
|
安全 Java 编译器
多线程(看这一篇就够了,超详细,满满的干货)
多线程(看这一篇就够了,超详细,满满的干货)
45 2
|
1月前
|
存储 缓存 监控
线程池夺命十四问
线程池夺命十四问
线程池夺命十四问
|
6月前
|
存储 缓存 Oracle
Java线程池,白话文vs八股文,原来是这么回事!
一、线程池原理 1、白话文篇 1.1、正式员工(corePoolSize) 正式员工:这些是公司最稳定和最可靠的长期员工,他们一直在工作,不会被解雇或者辞职。他们负责处理公司的核心业务,比如生产、销售、财务等。在Java线程池中,正式员工对应于核心线程(corePoolSize),这些线程会一直存在于线程池中。他们负责执行线程池中的任务,如果没有任务,他们会等待新的任务到来。 1.2、所有员工(maximumPoolSize) 所有员工:这些是公司所有的员工,包括正式员工和外包员工。他们共同组成了公司的团队,协作完成公司的各种业务。在Java线程池中,所有员工对应于所有线程(maxim
|
6月前
|
存储 安全 Java
手撕线程池与性能测试
手撕线程池与性能测试
117 0
|
监控 Java
手撕Java线程池
原理和源码解析
3825 0
手撕Java线程池
|
缓存 负载均衡 前端开发
手撸一款简单高效的线程池(一)
线程池大家应该都用过,不过如何从 0 到 1 的设计一款简单好用且性能较好的线程池?我们在接下来的几篇文章中,为您一一介绍。
488 0
手撸一款简单高效的线程池(一)
|
存储 负载均衡 并行计算
手撸一款简单高效的线程池(五)
在之前的内容中,我们给大家介绍了 C++实现线程池过程中的一些常用线优化方案,并分析了不同机制使用时的利弊。这一篇,是线程池系列的最后一章。我们会介绍一下 CGraph 中的 threadpool 如何使用,给出性能对比,并对接下来的工作做一些展望。让我们在线程池性能优化和功能提升的道路上,越走越远。
350 0
手撸一款简单高效的线程池(五)
|
缓存 负载均衡 Java
手撸一款简单高效的线程池(二)
大家好,我是不会写代码的纯序员——Chunel Feng[1]。这篇文章是线程池优化系列连载的第二篇。主要跟大家介绍几种线程池优化思路,包括:local-thread 机制、lock-free 机制、work-stealing 机制。
523 0
手撸一款简单高效的线程池(二)
|
架构师 Dubbo Java
耗时两周手撸了一个 RPC 轮子,是驴子是马拉出来遛遛
耗时两周手撸了一个 RPC 轮子,是驴子是马拉出来遛遛
耗时两周手撸了一个 RPC 轮子,是驴子是马拉出来遛遛
10分钟手撸Java线程池,yyds!!
10分钟手撸Java线程池,yyds!!
268 0
10分钟手撸Java线程池,yyds!!