Alpaca模型在阿里云GPU服务器上的部署

本文涉及的产品
无影云电脑个人版,黄金款:40核时/1个月有效
资源编排,不限时长
无影云电脑企业版,4核8GB 120小时 1个月
简介: 【6月更文挑战第1天】

创建个人版的对话大模型。Alpaca大模型是一款基于LLaMA的大语言模型,它能够模拟自然语

操作步骤

创建ECS实例

  1. 实例创建:在ECS实例创建页面,创建一个ECS实例。选择实例规格为ecs.gn7i-c16g1.4xlarge,选择公共镜像Ubuntu 20.04,并确保选中了安装GPU驱动选项,选择CUDA版本为11.4.1,Driver版本为470.161.03,CUDNN版本为8.2.4

  2. 公网IP配置:选中分配公网IPv4地址,带宽计费方式选择按量付费,带宽峰值选择100Mbps。

  3. 安全组配置:在ECS实例安全组的入方向添加安全组规则并放行7860端口。

  4. 驱动和CUDA库安装验证

    • 使用root用户远程登录ECS实例。
    • 检查驱动以及CUDA库是否安装成功,执行命令查看GPU驱动和CUDA库的版本。

配置软件

  1. 安装Git和Git LFS

    apt install -y git git-lfs python-is-python3
    
  2. 安装Python包

    pip install git+https://github.com/huggingface/transformers
    pip install sentencepiece==0.1.97 -i https://pypi.tuna.tsinghua.edu.cn/simple
    pip install peft==0.2.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
    
  3. 验证GPU工作

    • 进入PyTorch环境。
    • 执行torch.cuda.is_available()验证GPU是否正常工作。

下载与配置模型

  1. 下载tmux并创建session:建议在tmux session中下载模型,以免因ECS断开连接导致下载中断。

  2. 下载模型

    • 下载Chinese-LLaMA-Alpaca模型。
    • 下载chinese-alpaca-lora-13b模型。
    • 下载预训练的llama-13b-hf模型。
  3. 合并代码

    cd Chinese-LLaMA-Alpaca/
    python scripts/merge_llama_with_chinese_lora.py --base_model ~/llama-13b-hf/ \
         --lora_model ~/chinese-alpaca-lora-13b/ --output_type huggingface \
         --output_dir ./llama_with_lora_hf
    
  4. 查看转换完成的文件

    ls -lh llama_with_lora_hf
    

部署WebUI

  1. 下载WebUI并部署代码

    cd
    git clone https://github.com/oobabooga/text-generation-webui.git
    
  2. 安装依赖库

    cd text-generation-webui/
    pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
    
  3. 生成软链接

    ln -s /root/Chinese-LLaMA-Alpaca/llama_with_lora_hf/ models/llama_with_lora_hf
    

验证结果

  1. 运行WebUI
    ```bash
    cd text-generation-webui/
    python server.py --model llama_with_lora_hf --listen --chat --load-in-8bit
相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
2天前
|
机器学习/深度学习 弹性计算 编解码
阿里云服务器计算架构X86/ARM/GPU/FPGA/ASIC/裸金属/超级计算集群有啥区别?
阿里云服务器ECS提供了多种计算架构,包括X86、ARM、GPU/FPGA/ASIC、弹性裸金属服务器及超级计算集群。X86架构常见且通用,适合大多数应用场景;ARM架构具备低功耗优势,适用于长期运行环境;GPU/FPGA/ASIC则针对深度学习、科学计算、视频处理等高性能需求;弹性裸金属服务器与超级计算集群则分别提供物理机级别的性能和高速RDMA互联,满足高性能计算和大规模训练需求。
|
1月前
|
网络协议 网络安全
基于bind软件部署DNS服务器
关于如何使用bind软件部署DNS服务器的教程,包括DNS服务器的类型、基于bind软件的部署步骤、验证DNS服务器可用性的指导,以及如何进行DNS正向解析的实现。
32 2
基于bind软件部署DNS服务器
|
21天前
|
监控 JavaScript Java
部署应用程序到服务器
部署应用程序到服务器
38 3
|
1月前
|
存储 关系型数据库 MySQL
使用Docker快速部署Mysql服务器
本文介绍了如何使用Docker快速部署MySQL服务器,包括下载官方MySQL镜像、启动容器、设置密码、连接MySQL服务器以及注意事项。
174 18
|
14天前
|
JavaScript Linux 开发工具
如何将nodejs项目程序部署到阿里云服务器上
该文章详细描述了将Node.js项目部署到阿里云服务器的步骤,包括服务器环境配置、项目上传及使用PM2进行服务管理的过程。
|
21天前
|
Ubuntu 开发工具 git
在Ubuntu上部署BOA服务器的步骤
部署BOA服务器是一个涉及多个步骤的过程,包括系统更新、安装依赖、下载和编译源代码、配置服务器以及启动和验证。遵循上述步骤,可以在Ubuntu系统上成功部署BOA服务器,为开发和测试提供一个轻量级的Web服务器环境。
14 0
|
1月前
|
网络协议 数据处理 C语言
利用C语言基于poll实现TCP回声服务器的多路复用模型
此代码仅为示例,展示了如何基于 `poll`实现多路复用的TCP回声服务器的基本框架。在实际应用中,你可能需要对其进行扩展或修改,以满足具体的需求。
55 0
|
2月前
|
UED
JSF文件下载:解锁终极文件传输秘籍,让你的Web应用瞬间高大上!
【8月更文挑战第31天】掌握JSF文件下载功能对构建全面的Web应用至关重要。本文通过具体代码示例,详细介绍如何在JSF中实现文件下载。关键在于后端Bean中的文件读取与响应设置。示例展示了从创建实体类到使用`<h:commandLink>`触发下载的全过程,并通过正确设置响应头和处理文件流,确保文件能被顺利下载。这将显著提升Web应用的实用性与用户体验。
48 0
|
2月前
|
机器学习/深度学习 编解码 人工智能
阿里云gpu云服务器租用价格:最新收费标准与活动价格及热门实例解析
随着人工智能、大数据和深度学习等领域的快速发展,GPU服务器的需求日益增长。阿里云的GPU服务器凭借强大的计算能力和灵活的资源配置,成为众多用户的首选。很多用户比较关心gpu云服务器的收费标准与活动价格情况,目前计算型gn6v实例云服务器一周价格为2138.27元/1周起,月付价格为3830.00元/1个月起;计算型gn7i实例云服务器一周价格为1793.30元/1周起,月付价格为3213.99元/1个月起;计算型 gn6i实例云服务器一周价格为942.11元/1周起,月付价格为1694.00元/1个月起。本文为大家整理汇总了gpu云服务器的最新收费标准与活动价格情况,以供参考。
阿里云gpu云服务器租用价格:最新收费标准与活动价格及热门实例解析
|
28天前
|
机器学习/深度学习 存储 人工智能
阿里云GPU云服务器实例规格gn6v、gn7i、gn6i实例性能及区别和选择参考
阿里云的GPU云服务器产品线在深度学习、科学计算、图形渲染等多个领域展现出强大的计算能力和广泛的应用价值。本文将详细介绍阿里云GPU云服务器中的gn6v、gn7i、gn6i三个实例规格族的性能特点、区别及选择参考,帮助用户根据自身需求选择合适的GPU云服务器实例。
阿里云GPU云服务器实例规格gn6v、gn7i、gn6i实例性能及区别和选择参考

相关产品

  • 云服务器 ECS
  • GPU云服务器