ModelScope中,baichuan-inc-百川2-13B-对话模型在魔塔平台上跑不通?
Baichuan 2-13B-Chat是百川智能推出的新一代开源大语言模型,这个模型采用2.6万亿Tokens的高质量语料进行训练,在多个权威的中文、英文和多语言的通用、领域benchmark上取得了同尺寸最佳的效果。
对于您的问题,如果无法在魔塔平台上运行Baichuan-inc-百川2-13B-对话模型,可能的原因有很多。首先,确保您已经按照正确的步骤操作,并且对模型进行了正确配置。此外,也需要检查您的环境是否满足运行此模型的要求。例如,您可能需要安装特定版本的Python或TensorFlow等依赖库。
如果您已经按照正确的步骤操作,且环境配置也无误,但仍然遇到问题,那么可能是模型与魔塔平台之间的兼容性问题。在这种情况下,建议您联系魔塔平台的技术支持团队,他们应该能提供更具体的帮助。
很抱歉,我无法直接确认ModelScope在魔塔平台上是否能够运行baichuan-inc-百川2-13B-对话模型。然而,根据我所了解的信息,Baichuan 2是百川智能推出的新一代开源大语言模型,它采用了2.6万亿Tokens的高质量语料进行训练,并在多个权威的中文、英文和多语言的通用领域基准测试上取得了优异的效果。
该模型提供了7B、13B的Base和Chat版本,同时为Chat版本提供了4bits量化选项。这一系列的模型对学术研究是完全开放的,开发者甚至可以在通过邮件申请并获得官方商用许可后免费用于商业用途。
模型不支持在cpu上跑,qwen可以,模型卡片上有cpu的代码,chatglm cpp,qwen cpp也可以 ,此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”