开发者社区 > 大数据与机器学习 > 人工智能平台PAI > 正文

请问SDK部署优化后的模型推理如何编译代码?

已解决

请问SDK部署优化后的模型推理如何编译代码?

展开
收起
felix@ 2023-01-29 12:45:21 785 0
2 条回答
写回答
取消 提交回答
  • 今天也要加油吖~
    采纳回答

    您好,编译代码时,您需要链接libtorch相关库和SDK /usr/local/lib子目录下的SO文件(libtorch_blade.so和libral_base_context.so)。编译命令可以参照:

    TORCH_DIR=$(python3 -c "import torch; import os; print(os.path.dirname(torch.__file__))")
    g++ torch_app.cc -std=c++14 \
        -D_GLIBCXX_USE_CXX11_ABI=0 \
        -I ${TORCH_DIR}/include \
        -I ${TORCH_DIR}/include/torch/csrc/api/include \
        -Wl,--no-as-needed \
        -L /usr/local/lib \
        -L ${TORCH_DIR}/lib \
        -l torch -l torch_cuda -l torch_cpu -l c10 -l c10_cuda \
        -l torch_blade -l ral_base_context \
        -o torch_app
    
    2023-01-29 12:46:19
    赞同 展开评论 打赏
  • 您好,编译代码时,您需要链接libtorch相关库和SDK /usr/local/lib子目录下的SO文件(libtorch_blade.so和libral_base_context.so)。编译命令可以参照:TORCH_DIR=$(python3 -c "import torch; import os; print(os.path.dirname(torch.file))")g++ torch_app.cc -std=c++14 \    -D_GLIBCXX_USE_CXX11_ABI=0 \    -I ${TORCH_DIR}/include \    -I ${TORCH_DIR}/include/torch/csrc/api/include \    -Wl,--no-as-needed \    -L /usr/local/lib \    -L ${TORCH_DIR}/lib \    -l torch -l torch_cuda -l torch_cpu -l c10 -l c10_cuda \    -l torch_blade -l ral_base_context \    -o torch_app

    2023-02-09 19:32:23
    赞同 展开评论 打赏

人工智能平台 PAI(Platform for AI,原机器学习平台PAI)是面向开发者和企业的机器学习/深度学习工程平台,提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的AI开发全链路服务,内置140+种优化算法,具备丰富的行业场景插件,为用户提供低门槛、高性能的云原生AI工程化能力。

相关产品

  • 人工智能平台 PAI
  • 热门讨论

    热门文章

    相关电子书

    更多
    从 SDK 到编解码:视频直播架构解析 立即下载
    跨平台的云服务SDK需要什么 立即下载
    一个跨平台的云服务SDK需要什么 立即下载