开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

ModelScope chatgml可以在cpu环境下跑吗?

ModelScope chatgml可以在cpu环境下跑吗?

展开
收起
真的很搞笑 2023-03-27 23:16:37 1128 0
3 条回答
写回答
取消 提交回答
  • 不行的,此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”

    2023-03-29 21:51:22
    赞同 展开评论 打赏
  • 随心分享,欢迎友善交流讨论:)

    不可以哦,需要在GPU环境下

    2023-03-28 09:51:33
    赞同 展开评论 打赏
  • ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。ChatGLM-6B 使用了和 ChatGLM 相同的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。

    2023-03-28 08:00:44
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
RDS SQL Server CPU高使用率性能优化 立即下载