开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

ModelScope中cpu32核心64gb内存,跑qwen模型能跑起来不?

ModelScope中cpu32核心64gb内存,跑qwen模型能跑起来不?

展开
收起
真的很搞笑 2024-01-03 21:51:36 258 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    通义千问模型,包括通用模型Qwen-7B和对话模型Qwen-7B-Chat,已经在ModelScope魔搭社区上线,并且是开源、免费、可商用的。其中,Qwen-7B是基于Transformer的大语言模型,预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。

    在硬件配置上,具体能否运行起来主要取决于您的电脑配置。CPU32核心64GB内存的配置对于运行这类大规模的语言模型来说应该是足够的。然而,这也取决于其他的因素,比如你的电脑的其他软件是否正在使用大量的资源,以及你是否有足够的硬盘空间来存储模型文件和生成的数据。

    2024-01-04 14:37:40
    赞同 展开评论 打赏
  • 通义千问模型,包括通用模型Qwen-7B和对话模型Qwen-7B-Chat,两款模型均已经上线ModelScope魔搭社区。ModelScope库使开发人员能够通过丰富的API设计执行推理、训练和评估。然而,对于具有32个CPU核心和64GB内存的设备来说,运行这样的大型模型可能会面临一些挑战。

    首先,我们需要明确模型的大小和复杂性。Qwen-7B是一个大规模的语言模型,其参数数量达到70亿。此外,还有一些更复杂的版本,如Qwen-VL和Qwen-VL-Chat,这些模型在预训练过程中使用了更多的数据和更复杂的架构。因此,即使您的硬件配置相对较好,运行这样的模型也可能会对CPU和内存造成相当大的压力。

    其次,我们需要考虑推理速度和延迟的要求。由于模型的大小和复杂性,推理速度可能会比较慢,这可能会影响到实时应用的性能。如果您的应用对延迟有严格的要求,那么使用这种规模的模型可能会不太合适。

    2024-01-04 10:52:37
    赞同 展开评论 打赏
  • 自己算一下就好了,CPU部署就不建议了就是e7-8890v4*8的性能还不如gtx1080ti,384线程 3.4ghz的睿频状态,都比不过,一个cuda核心的AI性能相当于一个CPU线程,1080ti有3000+个cuda核心,加载肯定可以,可以做部署,但性能不行 ,此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”

    2024-01-03 23:42:02
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

热门讨论

热门文章

相关电子书

更多
ModelScope助力语音AI模型创新与应用 立即下载
内存取证与IaaS云平台恶意行 为的安全监控 立即下载
云服务器ECS内存增强型实例re6全新发布 立即下载