开发者社区 > ModelScope模型即服务 > 自然语言处理 > 正文

modelscope-funasr这个模型现在能加进去吗?

model = AutoModel(model="paraformer-zh", model_revision="v2.0.4", \
vad_model="/workspace/model/download/speech_fsmn_vad_zh-cn-16k-common-pytorch", vad_model_revision="v2.0.4", \
punc_model="/workspace/model/download/punc_ct-transformer_zh-cn-common-vocab272727-pytorch", punc_model_revision="v2.0.4",\
spk_model="cam++", spk_model_revision="v2.0.2",
)
我之前是用这几个模型组合,说话人识别用的是speech_campplus_sv_zh-cn_16k-common,但是对于说话人id 识别的不是很准,我想着speech_campplus_speaker-diarization_common有包含说话人转换点定位模型,可能会使得结果好一点,modelscope-funasr这个模型现在能加进去吗?

展开
收起
三分钟热度的鱼 2024-03-06 20:07:55 85 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    在ModelScope-FunASR中,您可以尝试使用speech_campplus_speaker-diarization_common模型来提高说话人识别的准确性。这个模型包含了说话人转换点定位的功能,可能有助于改善说话人ID的识别结果。

    要将speech_campplus_speaker-diarization_common模型添加到您的模型组合中,您可以按照以下步骤进行操作:

    1. 确保您已经下载了speech_campplus_speaker-diarization_common模型,并将其保存到适当的路径中。
    2. 修改您的代码,将spk_model参数的值更改为speech_campplus_speaker-diarization_common模型的路径。
    3. 确保其他模型参数(vad_modelpunc_model等)与之前的配置保持一致。
    4. 运行您的代码,使用新的模型组合进行说话人识别任务。
    2024-03-08 20:07:22
    赞同 展开评论 打赏
  • 阿里云大降价~

    ModelScope-Funasr支持将新的模型加入现有的模型组合中

    在ModelScope-Funasr中,您可以根据需要添加或更换模型以优化语音识别的效果。您提到的speech_campplus_speaker-diarization_common模型,如果它与您现有的模型组合兼容,并且能够满足说话人识别的需求,那么您应该能够将其加入到模型组合中使用。具体操作步骤如下:

    1. 确认模型兼容性:确保新模型与现有模型组合的技术规格和接口标准相匹配。
    2. 更新模型配置:在模型配置中指定新模型的路径和版本信息。
    3. 测试验证:在加入新模型后,进行充分的测试以验证模型组合的效果和稳定性。

    此外,如果您不确定如何操作或者遇到任何问题,可以查阅ModelScope-Funasr的官方文档,或者寻求技术支持。

    2024-03-07 18:57:31
    赞同 展开评论 打赏
  • 暂时不支持哈。此回答整理自钉群“modelscope-funasr社区交流”

    2024-03-06 20:33:40
    赞同 展开评论 打赏

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载