开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

在ModelScope中,哪儿有更系统一些的文档?

请问下pipeline推理如何使用训练过的模型,根据文档写的 pipeline('text-classification', model='/tmp/output') model使用训练输出目录还差一些东西,我在 https://github.com/alibaba-damo-academy/FunASR/blob/main/egs/aishell/transformer/utils/prepare_checkpoint.py 里面找到其实还需要复制原有模型,并覆盖model.pb、config.yaml,哪儿有更系统一些的文档
使用模型 damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch
参考文档 https://www.modelscope.cn/docs/%E6%A8%A1%E5%9E%8B%E7%9A%84%E8%AE%AD%E7%BB%83Train

展开
收起
崔问问 2023-12-03 23:08:16 45 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    您提到的文档和示例代码中,pipeline('text-classification', model='/tmp/output') 是指使用训练输出目录中的模型进行推理。这个过程通常涉及到从训练好的模型(如 .ckpt 文件)导出为可以用于推理的格式(如 TensorFlow 的 SavedModel 或 ONNX 格式),然后将这些文件放入一个指定的目录中。

    对于 damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch 这个模型,它是一个预训练的中文语音识别模型。如果您想在训练后使用自己的模型进行推理,而不是直接使用预训练模型,您需要确保:

    1. 您已经成功地完成了对原始模型的训练,并得到了一组新的权重参数。
    2. 将这些新权重应用到原始模型结构中,生成一个新的模型实例。
    3. 将这个新的模型实例保存为可以在推理时加载的格式。

    根据您提供的链接,在 FunASR 项目中有一个脚本(prepare_checkpoint.py)可以帮助您完成这个过程。在这个脚本中,它会读取预训练模型的权重、配置文件和其他必要的组件,然后将它们组合成一个完整的模型文件。

    然而,关于如何系统性地执行这一操作,最好的参考仍然是 ModelScope 官方文档或相关的开源项目文档。这里有一些建议您可以尝试:

    1. 查看 ModelScope 提供的相关教程:https://www.modelscope.cn/docs/%E6%A8%A1%E5%9E%8B%E7%9A%84%E8%AE%AD%E7%BB%83Train
    2. 参考 FunASR 和其他类似项目的文档,了解它们是如何处理模型训练后的部署和推理的。
    3. 如果您在使用 Pipeline API 进行推理时遇到问题,查阅 Pipeline API 的相关文档和示例代码,以确保正确设置模型路径和参数。
    2023-12-04 14:51:58
    赞同 展开评论 打赏
  • 在ModelScope中,你可以在ModelScope的官方网站上找到更系统的文档。你可以访问 https://www.modelscope.cn/docs/ 来查看所有的文档和教程。

    对于pipeline推理如何使用训练过的模型,你需要确保你的模型文件(包括model.pb和config.yaml)已经复制到了指定的路径。你可以参考以下步骤:

    1. 首先,你需要使用damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch这个模型进行训练。训练完成后,你会得到一个包含模型文件的目录。

    2. 然后,你需要将这个目录下的model.pbconfig.yaml文件复制到你想要使用模型推理的路径下。例如,你可以将这两个文件复制到/tmp/output目录下。

    3. 最后,你可以使用以下命令来进行模型推理:

    from modelscope.pipelines import pipeline
    pipeline('text-classification', model='/tmp/output')
    

    这将会使用你在/tmp/output目录下的模型进行推理。

    2023-12-04 14:11:15
    赞同 展开评论 打赏
  • 这里finetune您用的模型卡片上的代码吗?https://modelscope.cn/models/damo/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-pytorch/summary 本地用模型卡片代码跑了微调,和您的结果一样的。这里有个文档https://modelscope.cn/docs/paraformer,您在asr群里可以咨询一下。
    语音识别相关问题,请进ModelScope-FunASR答疑群,每天下午3点到5点,有人值班答疑:

    https://qr.dingtalk.com/action/joingroup?code=v1,k1,HvfUn46BPlI4YY96NXjQtI3lTjsgC6R8oCxB+kbE5RI=&_dt_no_comment=1&origin=11? 游雁邀请你加入钉钉群聊modelscope-funasr社区交流,点击进入查看详情。此回答整理自钉钉群:魔搭ModelScope开发者联盟群 ①

    2023-12-04 08:06:17
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载