NER模型使用pipeline方式进行模型推理速度太慢

NER模型使用pipeline方式进行模型推理速度太慢1条大概3S,不太适合进行线上部署,有没有什么解决办法?

展开
收起
caicaicaij 2023-03-08 16:59:51 694 分享 版权
2 条回答
写回答
取消 提交回答
  • 我猜你用的是CPU进行推理,我最开始用的CPU也是一条差不多4~5S,后来用的3060Ti,差不多5000条,30秒

    2023-04-12 16:16:32
    赞同 展开评论
  • 有几种解决方案可以尝试一下:

    1. 使用GPU进行模型推理
    2. 多条query以batch的方式批量处理(仅GPU下有性能提升)
    3. 使用小模型,部分NER模型有LSTM版本可以使用
    4. 将模型导出为onnx格式进行推理(1.4版本后支持)
    2023-03-22 17:23:38
    赞同 1 展开评论

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

还有其他疑问?
咨询AI助理