开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

ModelScope Qwen-7B-Chat如何微调,16G显存跑不动?

ModelScope Qwen-7B-Chat如何微调,16G显存跑不动?

展开
收起
闲o月 2023-12-18 13:36:13 507 0
2 条回答
写回答
取消 提交回答
  • 2023-12-18 21:49:25
    赞同 展开评论 打赏
  • 网站:http://ixiancheng.cn/ 微信订阅号:小马哥学JAVA

    ModelScope中7B-chat的用法可以通过以下步骤进行指定调用某张显卡:

    首先,确保已经安装了ModelScope库。可以使用以下命令进行安装:
    pip install modelscope
    然后,在代码中导入所需的库和模块:
    from modelscope.pipelines import pipeline
    from modelscope.utils.constant import Tasks
    第二步:创建一个7B-chat的管道实例,并指定使用的显卡编号。例如,如果要使用第0号显卡,可以这样创建管道实例:
    第三步:创建一个7B-chat的管道实例,指定使用第0号显卡
    chat_pipeline = pipeline(Tasks.text_generation, model='7B-chat', device_id=0)
    其中,device_id参数用于指定要使用的显卡编号。请注意,显卡编号从0开始计数。

    最后,使用管道实例进行文本生成任务。例如,可以这样生成一段对话:
    生成一段对话
    input_text = "你好"
    output_text = chat_pipeline(input_text)
    print(output_text)
    这样,就可以通过指定显卡编号来使用7B-chat模型进行文本生成任务了。

    2023-12-18 13:49:48
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载