Alpaca模型在阿里云GPU服务器上的部署

本文涉及的产品
资源编排,不限时长
无影云电脑企业版,4核8GB 120小时 1个月
无影云电脑个人版,1个月黄金款+200核时
简介: 【6月更文挑战第1天】

创建个人版的对话大模型。Alpaca大模型是一款基于LLaMA的大语言模型,它能够模拟自然语

操作步骤

创建ECS实例

  1. 实例创建:在ECS实例创建页面,创建一个ECS实例。选择实例规格为ecs.gn7i-c16g1.4xlarge,选择公共镜像Ubuntu 20.04,并确保选中了安装GPU驱动选项,选择CUDA版本为11.4.1,Driver版本为470.161.03,CUDNN版本为8.2.4

  2. 公网IP配置:选中分配公网IPv4地址,带宽计费方式选择按量付费,带宽峰值选择100Mbps。

  3. 安全组配置:在ECS实例安全组的入方向添加安全组规则并放行7860端口。

  4. 驱动和CUDA库安装验证

    • 使用root用户远程登录ECS实例。
    • 检查驱动以及CUDA库是否安装成功,执行命令查看GPU驱动和CUDA库的版本。

配置软件

  1. 安装Git和Git LFS

    apt install -y git git-lfs python-is-python3
    
  2. 安装Python包

    pip install git+https://github.com/huggingface/transformers
    pip install sentencepiece==0.1.97 -i https://pypi.tuna.tsinghua.edu.cn/simple
    pip install peft==0.2.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
    
  3. 验证GPU工作

    • 进入PyTorch环境。
    • 执行torch.cuda.is_available()验证GPU是否正常工作。

下载与配置模型

  1. 下载tmux并创建session:建议在tmux session中下载模型,以免因ECS断开连接导致下载中断。

  2. 下载模型

    • 下载Chinese-LLaMA-Alpaca模型。
    • 下载chinese-alpaca-lora-13b模型。
    • 下载预训练的llama-13b-hf模型。
  3. 合并代码

    cd Chinese-LLaMA-Alpaca/
    python scripts/merge_llama_with_chinese_lora.py --base_model ~/llama-13b-hf/ \
         --lora_model ~/chinese-alpaca-lora-13b/ --output_type huggingface \
         --output_dir ./llama_with_lora_hf
    
  4. 查看转换完成的文件

    ls -lh llama_with_lora_hf
    

部署WebUI

  1. 下载WebUI并部署代码

    cd
    git clone https://github.com/oobabooga/text-generation-webui.git
    
  2. 安装依赖库

    cd text-generation-webui/
    pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
    
  3. 生成软链接

    ln -s /root/Chinese-LLaMA-Alpaca/llama_with_lora_hf/ models/llama_with_lora_hf
    

验证结果

  1. 运行WebUI
    ```bash
    cd text-generation-webui/
    python server.py --model llama_with_lora_hf --listen --chat --load-in-8bit
相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
3天前
|
弹性计算 运维 安全
阿里云轻量应用服务器与ECS的区别及选择指南
轻量应用服务器和云服务器ECS(Elastic Compute Service)是两款颇受欢迎的产品。本文将对这两者进行详细的对比,帮助用户更好地理解它们之间的区别,并根据自身需求做出明智的选择。
|
4天前
|
SQL 弹性计算 安全
阿里云上云优选与飞天加速计划活动区别及购买云服务器后续必做功课参考
对于很多用户来说,购买云服务器通常都是通过阿里云当下的各种活动来购买,这就有必要了解这些活动的区别,同时由于活动内的云服务器购买之后还需要单独购买并挂载数据盘,还需要设置远程密码以及安全组等操作之后才能正常使用云服务器。本文就为大家介绍一下目前比较热门的上云优选与飞天加速计划两个活动的区别,以及通过活动来购买云服务器之后的一些必做功课,确保云服务器可以正常使用,以供参考。
|
7天前
|
弹性计算 安全 开发工具
灵码评测-阿里云提供的ECS python3 sdk做安全组管理
批量变更阿里云ECS安全组策略(批量变更)
|
22天前
|
机器学习/深度学习 弹性计算 人工智能
阿里云服务器架构有啥区别?X86计算、Arm、GPU异构、裸金属和高性能计算对比
阿里云ECS涵盖x86、ARM、GPU/FPGA/ASIC、弹性裸金属及高性能计算等多种架构。x86架构采用Intel/AMD处理器,适用于广泛企业级应用;ARM架构低功耗,适合容器与微服务;GPU/FPGA/ASIC专为AI、图形处理设计;弹性裸金属提供物理机性能;高性能计算则针对大规模并行计算优化。
|
1天前
|
机器学习/深度学习 人工智能 编解码
阿里云GPU云服务器优惠收费标准,GPU服务器优缺点与适用场景详解
随着人工智能、大数据分析和高性能计算的发展,对计算资源的需求不断增加。GPU凭借强大的并行计算能力和高效的浮点运算性能,逐渐成为处理复杂计算任务的首选工具。阿里云提供了从入门级到旗舰级的多种GPU服务器,涵盖GN5、GN6、GN7、GN8和GN9系列,分别适用于图形渲染、视频编码、深度学习推理、训练和高性能计算等场景。本文详细介绍各系列的规格、价格和适用场景,帮助用户根据实际需求选择最合适的GPU实例。
|
24天前
|
弹性计算 固态存储 Linux
阿里云服务器、轻量应用服务器、gpu云服务器收费标准与实时活动价格参考
云服务器ECS、轻量应用服务器和gpu云服务器是阿里云的主要云服务器产品,目前轻量应用服务器2核2G收费标准为60元/月,活动价格只要36元/1年或68元1年,云服务器1核1G包月收费标准最低为24.0元/月,GPU云服务器中gn6i实例4核15G配置月付1681.00/1个月起,gn6v实例8核32G配置月付3817.00/1个月起。本文为大家整理汇总了阿里云服务器、轻量应用服务器、gpu云服务器的最新收费标准与活动价格情况,以表格形式展示给大家,以供参考。
|
3天前
|
弹性计算 Linux 数据安全/隐私保护
阿里云上快速搭建幻兽帕鲁游戏联机服务器指南
对于热爱幻兽帕鲁游戏的玩家来说,搭建一台专属的联机服务器无疑能够大大提升游戏体验。阿里云作为领先的云计算服务商,为玩家提供了便捷、高效的服务器搭建方案。本文将为您详细介绍如何在阿里云上快速搭建幻兽帕鲁游戏联机服务器,让您轻松享受多人游戏的乐趣。
|
数据采集 SQL 弹性计算
使用云服务器ECS部署了自己的第一个爬虫
云服务器部署爬虫爬取网站最新通告并推送
使用云服务器ECS部署了自己的第一个爬虫
|
24天前
|
存储 人工智能 弹性计算
阿里云弹性计算(ECS)提供强大的AI工作负载平台,支持灵活的资源配置与高性能计算,适用于AI训练与推理
阿里云弹性计算(ECS)提供强大的AI工作负载平台,支持灵活的资源配置与高性能计算,适用于AI训练与推理。通过合理优化资源分配、利用自动伸缩及高效数据管理,ECS能显著提升AI系统的性能与效率,降低运营成本,助力科研与企业用户在AI领域取得突破。
45 6
|
29天前
|
人工智能 弹性计算 编解码
阿里云GPU云服务器性能、应用场景及收费标准和活动价格参考
GPU云服务器作为阿里云提供的一种高性能计算服务,通过结合GPU与CPU的计算能力,为用户在人工智能、高性能计算等领域提供了强大的支持。其具备覆盖范围广、超强计算能力、网络性能出色等优势,且计费方式灵活多样,能够满足不同用户的需求。目前用户购买阿里云gpu云服务器gn5 规格族(P100-16G)、gn6i 规格族(T4-16G)、gn6v 规格族(V100-16G)有优惠,本文为大家详细介绍阿里云gpu云服务器的相关性能及收费标准与最新活动价格情况,以供参考和选择。

相关产品

  • 云服务器 ECS
  • GPU云服务器