开发者社区 > ModelScope模型即服务 > 正文

ModelScope中为啥我的Baichuan-13B-Chat用vllm推理的时候很多答案是空的?

ModelScope中我的Baichuan-13B-Chat用vllm推理的时候很多答案是空的是为什么?fedc3b511f7f148168f7061f674cb766.png

展开
收起
小小鹿鹿鹿 2024-03-03 19:20:13 367 0
2 条回答
写回答
取消 提交回答
  • model_type不能传本地路径。model_type = 'baichuan2-13b-chat'
    model_id_or_path = 'local_path'
    get_vllm_engine(model_type, model_id_or_path=model_id_or_path)c56e2787ea5348179ac6ef2b894f1232.pngd67dc249235c105ebf302d7de1062a29.png参考:
    https://github.com/modelscope/swift/blob/main/docs/source/LLM/%E6%94%AF%E6%8C%81%E7%9A%84%E6%A8%A1%E5%9E%8B%E5%92%8C%E6%95%B0%E6%8D%AE%E9%9B%86.md
    此回答来自钉群魔搭ModelScope开发者联盟群 ①。

    2024-03-05 16:40:33
    赞同 1 展开评论 打赏
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    在使用VLLM进行推理时,如果您发现Baichuan-13B-Chat模型给出的很多答案是空的,这可能是由于几个原因造成的:

    1. 模型兼容性问题:VLLM可能尚未支持某些中文大模型,包括Baichuan-13B-Chat。如果VLLM的文档中明确指出不支持该模型,那么这可能是导致问题的主要原因。
    2. 模型量化问题:如果您使用的是量化后的模型版本,可能存在一些兼容性或者性能问题。量化过程有时会影响模型的准确性和稳定性。
    3. 输入数据格式:确保您的输入数据格式与模型所期望的格式相匹配。如果格式不正确,模型可能无法正确处理输入,从而导致输出为空。
    4. 环境配置:检查您的推理环境是否满足模型运行的所有要求,包括硬件资源和软件依赖。
    5. 代码实现错误:如果您是在自定义的环境中使用模型,可能是因为代码实现中存在错误,导致模型无法正常工作。
    6. 模型损坏:在极少数情况下,模型文件可能已损坏或不完整,这也会导致无法得到正确的输出。

    为了解决这个问题,您可以尝试以下几个步骤:

    1. 确认VLLM是否支持Baichuan-13B-Chat模型,并查看是否有更新的版本或补丁可以解决这个问题。
    2. 如果是量化模型导致的问题,尝试使用未经量化的原始模型进行推理。
    3. 仔细检查输入数据的格式,确保它们符合模型的要求。
    4. 检查推理环境的配置,确保所有依赖项都已正确安装。
    5. 如果可能,查看模型的官方文档或社区讨论,看是否有其他用户遇到类似问题,并找到解决方案。
    6. 如果是自己部署的环境,检查代码实现是否有误,必要时寻求专业人士的帮助。

    综上所述,在使用VLLM进行推理时,如果发现Baichuan-13B-Chat模型给出的很多答案是空的,可能是由于模型兼容性、量化问题、输入数据格式、环境配置、代码实现错误或模型损坏等原因导致的。为了解决这个问题,可以确认VLLM的支持情况、使用原始模型、检查输入数据格式、检查环境配置、查看官方文档和社区讨论,并检查代码实现。

    2024-03-03 19:58:19
    赞同 2 展开评论 打赏

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载