开发者社区 > ModelScope模型即服务 > 正文

ModelScope中我上次将agent 使用训练数据跑通了,训练结束后产出一个模型,怎么加载推理?

ModelScope中我上次将agent 使用训练数据跑通了,训练结束后产出一个模型,但是我不知道咋用llm-infer.py 去加载和推理模型;运行llm-infer.py需要参数和文件这个我不知道在哪里,文档也没有给出。另外我的显存为 32GB,使用的是 Qiwen7b 模型,模型文件位于 D 盘,可以看下吗?

展开
收起
小小鹿鹿鹿 2024-03-03 18:36:19 45 0
2 条回答
写回答
取消 提交回答
  • 参考:
    https://github.com/modelscope/swift/blob/main/docs/source/LLM/LLM%E5%BE%AE%E8%B0%83%E6%96%87%E6%A1%A3.md#%E5%BE%AE%E8%B0%83%E5%90%8E%E6%A8%A1%E5%9E%8B
    。环境变量,os.environ['MODELSCOPE_CACHE']='your path' 。此回答来自钉群魔搭ModelScope开发者联盟群 ①。

    2024-03-05 16:26:16
    赞同 展开评论 打赏
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    要使用llm-infer.py加载和推理ModelScope中的模型,您需要了解模型的参数和文件位置。

    对于llm-infer.py的运行参数,这通常包括但不限于模型路径、推理参数如批量大小(batch size)和可能的部署参数如主机和端口等。在ModelScope中,如果您上次是使用训练数据跑通了模型,那么训练结束后产出的模型通常会保存在一个特定的文件夹内,例如名为best_model_checkpoint的文件夹。您可以将此文件夹路径作为模型路径参数传递给llm-infer.py来加载模型。

    至于llm-infer.py文件的位置,根据您提供的信息,该文件位于D盘上。具体在哪个文件夹内,若没有特别提及,可能需要您进行一番查找。一种方法是在D盘的根目录下使用搜索功能,查找名为llm-infer.py的文件。如果这个文件被放在了一个特定的项目文件夹或仓库中,那么可能需要您根据项目的文档或说明来找到正确的位置和运行方法。比如,在Langchain-chatchat项目中,您可以参考其GitHub仓库里的README文件或者相关文档来获取如何利用llm-infer.py进行推理的具体步骤。

    总的来说,为了使用llm-infer.py加载和推理ModelScope中的模型,您需要确定模型参数、找到llm-infer.py文件的准确位置,并确保您的环境配置正确无误。如果环境变量或路径设置有误,可能导致无法成功加载模型或执行推理。同时,请确保您使用的GPU显存足以支持模型的推理过程。如果文档未详细说明,您可能需要参考类似项目的实现或向开发者社区寻求帮助。

    2024-03-03 18:46:07
    赞同 展开评论 打赏

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载