认识 std::async

简介: 认识 std::async

 认识 std::async: 用同步的语法却做着异步的事情!

#include <future>
#include <iostream>
#include <string>
#include <functional>
void run(std::string str)
{
    if (str.compare("a1") == 0)
    {
        char pause = getchar(); // 获取键盘输入,  这里起到阻塞线程的作用,方便观察调试结果
    }
    std::cout << str << std::endl;
}
void Print(std::function< void(std::string)> funcPtr)
{
    while(1){
        auto a1 = std::async(std::launch::async, funcPtr, "a1");
        auto a2 = std::async(std::launch::async, funcPtr, "a2");
        auto a3 = std::async(std::launch::async, funcPtr, "a3");
        auto a4 = std::async(std::launch::async, funcPtr, "a4");
        auto a5 = std::async(std::launch::async, funcPtr, "a5");
        auto a6 = std::async(std::launch::async, funcPtr, "a6");
        std::cout << std::endl << " ================================================== " << std::endl << std::endl;
        // 这里面的代码执行是乱序,还有可能执行多次        
    }
}
int main()
{
    Print(run);
    return 0;
}

image.gif

上面的代码适合调试,再看同步递归版本和异步递归版本的斐波那契数列求和:

#include <iostream>
#include <future>
long long feibonahi(int n)
{
  if (n <= 2)
  {
    return 1;
  }
  else
  {
    return feibonahi(n - 1) + feibonahi(n - 2);
  }
}
int fib(int n) {
    if (n <= 1) {
        return n;
    }
    auto future1 = std::async(std::launch::async, fib, n-1);
    auto future2 = std::async(std::launch::async, fib, n-2);
    int f1 = future1.get();
    // std::cout << "future1 = " << f1 << std::endl;
    int f2 = future2.get();
    /* 
        std::cout << f1 + f2 << "   f1 = " << f1 << "   f2 = " << f2 << std::endl; 
        打印的结果有点乱,这里有点难理解,mark一下
    */
    //return future1.get() + future2.get();
    return f1 + f2;
}
int main(int argc, char **argv) {
    int num = 10;
    std::cout << "        " << feibonahi(10) << std::endl << std::endl;
    std::promise<int> p; // p是起到线程间传递值得作用,这里不容易看出,可以将p通过std::ref(p)的方式传递线程的run方法中去,run方法: void run(std::promise<int> &p) {p.set_value(result);}
    std::future<int> f = p.get_future();
    // 开启一个线程异步计算斐波那契数列并将结果存入promise中
    std::thread t([&]{
        int result = fib(num);
        p.set_value(result);  // p.setvalue触发 f.get()
    });
    t.detach();
    /*
        主线程等待结果并打印
    */
    std::cout << "The " << num << "th fibonacci number is: " << f.get() << std::endl; // f.get() 这里有阻塞线程的效果
    return 0;
}

image.gif

上的的异步递归版本也能求出 斐波那契数列 的结果。

个人理解:

       std::async函数是异步执行的,相当于任务提交到线程池中执行,线程池中的线程数量有限,   所以多个std::async的执行顺序和执行次数不确定,可能会出现乱序情况和多次执行的情况(从调试的打印信息可以看出)。

           此外,std::async函数的执行结果也不确定何时返回,需要通过调用std::future对象的get()方法来获取执行结果,

           如果在get()方法调用之前任务没有完成,get()方法会阻塞当前线程直到任务完成。

           因此,如果多个std::async函数的执行顺序很重要,可以使用std::future对象的wait()或者wait_for()方法来等待其它任务完成后再获取结果。

       

相关文章
|
机器学习/深度学习 计算机视觉
AIGC核心技术——计算机视觉(CV)预训练大模型
【1月更文挑战第13天】AIGC核心技术——计算机视觉(CV)预训练大模型
1065 3
AIGC核心技术——计算机视觉(CV)预训练大模型
|
5月前
|
存储 C++ 容器
unordered_set、unordered_multiset、unordered_map、unordered_multimap的介绍及使用
unordered_set是不按特定顺序存储键值的关联式容器,其允许通过键值快速的索引到对应的元素。在unordered_set中,元素的值同时也是唯一地标识它的key。在内部,unordered_set中的元素没有按照任何特定的顺序排序,为了能在常数范围内找到指定的key,unordered_set将相同哈希值的键值放在相同的桶中。unordered_set容器通过key访问单个元素要比set快,但它通常在遍历元素子集的范围迭代方面效率较低。它的迭代器至少是前向迭代器。前向迭代器的特性。
254 0
|
11月前
|
存储 对象存储 C++
C++ 中 std::array<int, array_size> 与 std::vector<int> 的深入对比
本文深入对比了 C++ 标准库中的 `std::array` 和 `std::vector`,从内存管理、性能、功能特性、使用场景等方面详细分析了两者的差异。`std::array` 适合固定大小的数据和高性能需求,而 `std::vector` 则提供了动态调整大小的灵活性,适用于数据量不确定或需要频繁操作的场景。选择合适的容器可以提高代码的效率和可靠性。
|
存储 安全 编译器
一篇文章让你熟悉unordered_map及其模拟实现(中)
unordered_map元素访问和元素查找函数 1. operator[] mapped_type& operator[] ( const key_type& k );: 这个重载函数接受一个const引用类型的键(key_type),并返回与该键关
DeepRec Extension 打造稳定高效的分布式训练
DeepRec Extension 即 DeepRec 扩展,在 DeepRec 训练推理框架之上,围绕大规模稀疏模型分布式训练,我们从训练任务的视角提出了自动弹性训练,分布式容错等功能,进一步提升稀疏模型训练的整体效率,助力 DeepRec 引擎在稀疏场景中发挥更大的优势。
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch 2.2 中文官方教程(十五)(3)
PyTorch 2.2 中文官方教程(十五)
474 2
PyTorch 2.2 中文官方教程(十五)(3)
|
算法框架/工具 PyTorch 调度
PyTorch 2.2 中文官方教程(十五)(4)
PyTorch 2.2 中文官方教程(十五)
319 1
PyTorch 2.2 中文官方教程(十五)(4)
|
机器学习/深度学习 TensorFlow 算法框架/工具
TensorFlow Serving 部署指南超赞!让机器学习模型上线不再困难,轻松开启高效服务之旅!
【8月更文挑战第31天】TensorFlow Serving是一款高性能开源服务系统,专为部署机器学习模型设计。本文通过代码示例详细介绍其部署流程:从安装TensorFlow Serving、训练模型到配置模型服务器与使用gRPC客户端调用模型,展示了一站式模型上线解决方案,使过程变得简单高效。借助该工具,你可以轻松实现模型的实际应用。
504 0
|
机器学习/深度学习 自然语言处理
自注意力机制(Self-Attention Mechanism)
自注意力机制(Self-Attention Mechanism)
1387 6
|
存储 前端开发 rax
协程学习笔记 NtyCo/libgo
协程学习笔记 NtyCo/libgo
243 0

热门文章

最新文章