ModelScope需要准备什么样配置的服务器才能支持?

ModelScope需要准备什么样配置的服务器才能支持?

展开
收起
小小爱吃香菜 2024-01-31 18:50:06 106 分享 版权
阿里云 AI 助理回答

在ModelScope上部署和运行模型时,服务器的配置需求取决于具体的模型类型、规模以及推理或训练任务的复杂度。根据知识库中的参考资料,以下是支持ModelScope模型部署的服务器配置建议:


1. CPU实例配置

适用于轻量级模型或对成本敏感的场景,推荐使用基于Intel CPU的实例。

  • 实例规格
    • 推荐使用阿里云第八代Intel CPU实例(如c8i系列),例如ecs.c8i.4xlarge
    • 配置:至少32 GiB内存,16核CPU。
  • 操作系统
    • 推荐使用Alibaba Cloud Linux 3.2104 LTS 64位镜像。
  • 存储
    • 系统盘:建议设置为100 GiB,以确保有足够的存储空间。
    • 数据盘:根据模型大小预留足够的存储空间(建议模型大小的1.5倍)。
  • 网络
    • 分配公网IPv4地址,带宽峰值建议设置为100 Mbps。
  • 安全组规则
    • 放行必要的端口,例如SSH访问端口(22)和WebUI服务端口(如7860或8080)。

2. GPU实例配置

适用于大规模模型或需要高性能推理/训练的场景。

  • 实例规格
    • 推荐使用GPU实例,例如ecs.gn7i-c16g1.4xlargeecs.ebmgn8v.48xlarge
    • 配置:
    • ecs.gn7i-c16g1.4xlarge:16核CPU,64 GiB内存,1块NVIDIA A10 GPU。
    • ecs.ebmgn8v.48xlarge:192 vCPU,1024 GiB内存,8块NVIDIA A100 GPU(每块显存40 GB)。
  • 操作系统
    • 推荐使用Ubuntu 22.04版本。
  • GPU驱动
    • 安装Tesla驱动,版本需为550及以上。
    • 安装CUDA和cuDNN库。
  • 存储
    • 系统盘:建议设置为100 GiB。
    • 数据盘:建议添加3 TiB以上数据盘,用于存放模型文件。
  • 网络
    • 分配公网IPv4地址,带宽峰值建议设置为100 Mbps。
  • 安全组规则
    • 放行必要的端口,例如SSH访问端口(22)和服务端口(如50001或8000)。

3. 软件环境准备

无论是CPU实例还是GPU实例,都需要安装以下软件环境:

  • 容器环境
    • 安装并启动Docker。
    • 对于GPU实例,还需安装nvidia-container-toolkit,并确保Docker支持GPU加速。
  • 依赖工具
    • 安装Git LFS,用于下载大模型文件。
    • 安装其他必要工具,例如wgettmuxvim等。
  • 推理框架
    • 使用xFasterTransformer(针对CPU实例)或vLLM(针对GPU实例)作为推理框架。

4. 模型部署的具体要求

不同模型对资源的需求有所不同,以下是一些常见模型的部署要求:

ChatGLM2-6B

  • 硬件需求
    • CPU实例:ecs.c8i.4xlarge,32 GiB内存,16核CPU。
    • GPU实例:ecs.gn7i-c16g1.4xlarge,64 GiB内存,1块NVIDIA A10 GPU。
  • 存储需求
    • 模型文件大小约为10 GiB,建议预留15 GiB存储空间。
  • 端口需求
    • WebUI服务端口:7860。

Llama-2-7B

  • 硬件需求
    • CPU实例:ecs.c8i.4xlarge,32 GiB内存,16核CPU。
    • GPU实例:ecs.gn7i-c16g1.4xlarge,64 GiB内存,1块NVIDIA A10 GPU。
  • 存储需求
    • 模型文件大小约为15 GiB,建议预留20 GiB存储空间。
  • 端口需求
    • 服务端口:8080。

DeepSeek-V3/R1

  • 硬件需求
    • GPU实例:ecs.ebmgn8v.48xlarge,1024 GiB内存,8块NVIDIA A100 GPU。
  • 存储需求
    • 模型文件大小约为500 GiB,建议预留750 GiB存储空间。
  • 端口需求
    • 服务端口:8000。

5. 其他注意事项

  • 并发需求
    • 如果需要支持高并发访问,建议增加实例数量或使用负载均衡。
  • 安全性
    • 加粗提醒:务必配置防火墙规则,仅开放必要的端口,并限制访问来源。
    • 建议启用FTPS或SFTP协议以加密传输数据。
  • 性能优化
    • 对于GPU实例,合理设置tensor-parallel-sizepipeline-parallel-size参数以充分利用多GPU资源。
    • 对于CPU实例,启用Intel AMX指令加速AI任务。

通过以上配置,您可以根据具体模型的需求选择合适的服务器规格和软件环境,从而高效地部署和运行ModelScope上的模型。

有帮助
无帮助
AI 助理回答生成答案可能存在不准确,仅供参考
0 条回答
写回答
取消 提交回答

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

还有其他疑问?
咨询AI助理