model = AutoModel(model="paraformer-zh", model_revision="v2.0.4", \
vad_model="/workspace/model/download/speech_fsmn_vad_zh-cn-16k-common-pytorch", vad_model_revision="v2.0.4", \
punc_model="/workspace/model/download/punc_ct-transformer_zh-cn-common-vocab272727-pytorch", punc_model_revision="v2.0.4",\
spk_model="cam++", spk_model_revision="v2.0.2",
)
我之前是用这几个模型组合,说话人识别用的是speech_campplus_sv_zh-cn_16k-common,但是对于说话人id 识别的不是很准,我想着speech_campplus_speaker-diarization_common有包含说话人转换点定位模型,可能会使得结果好一点,modelscope-funasr这个模型现在能加进去吗?
在ModelScope-FunASR中,您可以尝试使用speech_campplus_speaker-diarization_common
模型来提高说话人识别的准确性。这个模型包含了说话人转换点定位的功能,可能有助于改善说话人ID的识别结果。
要将speech_campplus_speaker-diarization_common
模型添加到您的模型组合中,您可以按照以下步骤进行操作:
speech_campplus_speaker-diarization_common
模型,并将其保存到适当的路径中。spk_model
参数的值更改为speech_campplus_speaker-diarization_common
模型的路径。vad_model
、punc_model
等)与之前的配置保持一致。ModelScope-Funasr支持将新的模型加入现有的模型组合中。
在ModelScope-Funasr中,您可以根据需要添加或更换模型以优化语音识别的效果。您提到的speech_campplus_speaker-diarization_common
模型,如果它与您现有的模型组合兼容,并且能够满足说话人识别的需求,那么您应该能够将其加入到模型组合中使用。具体操作步骤如下:
此外,如果您不确定如何操作或者遇到任何问题,可以查阅ModelScope-Funasr的官方文档,或者寻求技术支持。