【活动推荐】Alibaba Cloud Linux实践操作学习赛,有电子证书及丰厚奖品!

简介: 参与开放原子基金会的[龙蜥社区Alibaba Cloud Linux实践操作学习赛](https://competition.atomgit.com/competitionInfo),获取电子证书。报名后,按照提供的链接完成简单实验,成果提交至AtomGit并加入钉钉群。实验包括在ECS Intel实例上部署GPT-2语言模型,需安装PyTorch等软件,预训练模型已预先下载。完成实验后在指定仓库提交结果,并填写信息收集表。

前言

这里给小伙伴们推荐一个新活动,有电子证书可以拿的哦~

这是开放原子基金会的官网,进入赛事界面。

image.png

可以看到下面有一个龙蜥社区Alibaba Cloud Linux实践操作学习赛。点击此处进行报名。

image.png

双方都会提供电子证书的,但是具体还是看完成的质量。

image.png

实验的内容也很简单,链接如下:https://developer.aliyun.com/adc/scenario/3f2409bc21fb4fff8cd581d5ba5de6fd

image.png

按照指引完成体验即可。但需要将完成结果提交到AtomGit仓库:https://atomgit.com/13968133152/alinux-lab 。同时备注“大赛报名姓名、阿里云账号、实验操作完成截图、对实验的反馈或建议”。操作完成之后加入钉钉群填写信息收集表即可。

基于ECS Intel实例部署GPT-2大语言模型

GPT-2

GPT-2(Generative Pre-trained Transformer 2)是由OpenAI开发的一种语言模型,它是基于Transformer架构的深度学习模型。GPT-2模型通过大规模的无监督预训练来学习语言的统计特征和语义关系,然后可以用于各种自然语言处理任务,如文本生成、摘要生成、对话系统、翻译等。GPT-2的特点是可以生成连贯、语义合理的文本,具有较强的语言理解和生成能力。

实验步骤

部署GPT-2

软件安装配置

为了在Alinux 3上安装PyTorch等AI组件,需要首先启用epao repo。执行如下命令,启用epao repo。

yum install -y anolis-epao-release

image.png

执行如下命令,安装部署GPT-2所必须的软件以及PyTorch组件。【注意】本实验已为您提前下载预训练模型,如果您需要在自己的环境中下载预训练模型,建议您安装tmux,下载预训练模型前先执行tmux进入tmux session,预训练模型下载时间很长,ECS断开后就不能继续下载。

yum install -y git git-lfs wget curl gcc gcc-c++ tar unzip pytorch gperftools-libs

image.png

执行如下命令,更新pip,方便后续部署Python环境。

python -m pip install --upgrade pip

image.png

执行如下命令,启用Git LFS,后续下载预训练模型需要启用Git LFS的支持。

git lfs install

image.png

下载 GPT-2 模型

下载GPT-2预训练模型。

本实验已为您提前下载GPT-2预训练模型,请您跳过此步骤,切勿重复下载。如果您需要在自己的环境中下载模型,您可使用命令

GIT_LFS_SKIP_SMUDGE=1 git clone https://gitee.com/modelee/gpt2-large.git
wget https://gitee.com/modelee/gpt2-large/raw/main/pytorch_model.bin -O gpt2-large/pytorch_model.bin

部署运行环境

执行如下命令,安装大模型运行时所需要的依赖环境。

pip install --ignore-installed pyyaml==5.1
pip install transformers streamlit intel-openmp

image.png

运行网页版APP

环境部署完毕后,就可以运行网页版APP,来体验GPT-2帮助完成写作的乐趣。

执行如下命令,创建网页版APP的项目目录。

mkdir write-with-transformer && cd write-with-transformer

执行如下命令,新建并编辑app.py文件。

vim app.py

按i键进入编辑模式,将如下内容复制并粘贴至app.py文件中,完成后按ESC退出编辑模式,输入:wq后回车,保存并退出文件。

import streamlit as st
from transformers import AutoTokenizer, AutoModelWithLMHead

tokenizer = AutoTokenizer.from_pretrained("../gpt2-large")
model = AutoModelWithLMHead.from_pretrained("../gpt2-large")

def infer(input_ids, max_length, temperature, top_k, top_p):
    output_sequences = model.generate(input_ids=input_ids,max_length=max_length,temperature=temperature,
        top_k=top_k,top_p=top_p,do_sample=True,num_return_sequences=1)
    return output_sequences

default_value = "Hello, I'm a language model,"

st.title("Write with Transformers 🦄")
sent = st.text_area("Text", default_value, height = 275)
max_length = st.sidebar.slider("Max Length", min_value = 10, max_value=30)
temperature = st.sidebar.slider("Temperature", value = 1.0, min_value = 0.0, max_value=1.0, step=0.05)
top_k = st.sidebar.slider("Top-k", min_value = 0, max_value=5, value = 0)
top_p = st.sidebar.slider("Top-p", min_value = 0.0, max_value=1.0, step = 0.05, value = 0.9)

encoded_prompt = tokenizer.encode(sent, add_special_tokens=False, return_tensors="pt")
if encoded_prompt.size()[-1] == 0:
    input_ids = None
else:
    input_ids = encoded_prompt

output_sequences = infer(input_ids, max_length, temperature, top_k, top_p)

for generated_sequence_idx, generated_sequence in enumerate(output_sequences):
    print(f"=== GENERATED SEQUENCE {generated_sequence_idx + 1} ===")
    generated_sequences = generated_sequence.tolist()
    text = tokenizer.decode(generated_sequence, clean_up_tokenization_spaces=True)
    total_sequence = (
        sent + text[len(tokenizer.decode(encoded_prompt[0], clean_up_tokenization_spaces=True)) :]
    )
    generated_sequences.append(total_sequence)
    print(total_sequence)

st.write(generated_sequences[-1])

执行如下命令,设置运行环境变量,并运行app.py脚本。

export OMP_NUM_THREADS=$(nproc --all)
export KMP_AFFINITY=granularity=fine,compact,1,0
export LD_PRELOAD=/usr/lib64/libtcmalloc.so.4:/usr/local/lib/libiomp5.so
streamlit run app.py --server.port 7860

出现以下回显信息说明服务运行成功。

image.png

通过EXTERNAL IP:7860访问服务。

image.png

接下来大家就可以尽情的对话了。【注意】执行键是ctrl+enter,这里没有按钮。

image.png

提交结果

具体官方教程如下:https://atomgit.com/evaluation/atomgit_evaluation/wiki/%E6%89%8B%E6%8A%8A%E6%89%8B%E6%95%99%E4%BD%A0%E5%8F%82%E4%B8%8E%20AtomGit%20%E5%BC%80%E6%BA%90%E5%8D%8F%E4%BD%9C%E5%B9%B3%E5%8F%B0%E6%B5%8B%E8%AF%84%E8%B5%9B

image.png

在登录 AtomGit 的前提下,访问官方仓库,此处为龙蜥活动

点击如下图右上的“Fork”按钮。

image.png

将“Fork 代码库”到自己的 AtomGit 账户下。

image.png

安装 Git 客户端,在本地安装Git。

地址:https://atomgit.com/atomgit_operate/quick_link_software/blob/master/git/

配置你的 AtomGit SSH

生成本地的 SSH Key 的公私密钥对。
在命令行执行 ,一直回车.

ssh-keygen.exe

默认生成的密钥对存放在用户目录 C:\Users\OpenAtom.ssh\下,注意:该路径中的“OpenAtom”每个人不一样,实际以你自己电脑的当前登录的用户名为主。
公钥文件名:id_rsa.pub
私钥文件名:id_rsa

复制公钥

clip < ~/.ssh/id_rsa.pub

在 AtomGit 平台设置:个人头像->个人设置->SSH Key,在这里添加一个 SSH 公钥。

image.png

在上面“4.2”步骤中已经设置好了 SSH,那么现在只要在你的 AtomGit 账户的“AtomGit 代码托管平台评测赛”仓库中选择“克隆/下载”按钮->“SSH”->复制SSH地址,如下图

image.png

本地新增测评文档,然后把自己的信息填进去。

image.png

回到自己的仓库里,点击上传文档。

image.png

此时可以看到有两个文件了。

image.png

参赛者在自己fork的仓库中,向官方仓库发起变更请求,创建change request,参考如图操作。

image.png

这时,填写以下自己的个人信息即可。

image.png

回到官方仓库,可以看到自己刚刚发起的请求成功。

image.png

至此,上传完毕。

同时请加入官方的钉钉群,群里会定期公布本月的参与名单及获奖名单,一般电子证书都会是在一周后发布在钉钉群内,所以请务必加群哦!

本次活动持续时间为一年,所以只要是今年内看到的小伙伴都是可以参加的!

建议

希望能够增加更多关于AI+OS的实验,不仅仅局限于部署方面。

相关文章
|
7月前
|
tengine 弹性计算 Linux
Alibaba Cloud Linux 2实践之安装配置Tengine
本场景介绍如何在Alibaba Cloud Linux 2上安装配置Tengine。
165 0
|
7月前
|
安全 Linux 数据安全/隐私保护
Alibaba Cloud Linux 2实践之系统安全更新
本场景介绍如何在Alibaba Cloud Linux 2上使用YUM命令安装系统安全更新。
161 0
|
7月前
|
弹性计算 Linux API
Alibaba Cloud Linux 2实践之管理阿里云资源
本场景将介绍如何在Alibaba CLoud Linux 2上使用Aliyun CLI管理阿里云资源。
137 0
|
弹性计算 算法 Linux
Alibaba Cloud Linux 2 LTS 快速启动优化实践
## 1. 概述 Alibaba Cloud Linux 2(原[Aliyun Linux 2](https://www.aliyun.com/product/alinux?spm=a2c4g.11186623.2.15.484034a3vucRFF),简称Alinux 2)是阿里云操作系统团队基于开源Linux内核4.19 LTS版本打造的一款针对云应用场景的下一代Linux OS发行,不仅提
947 0
|
3月前
|
关系型数据库 MySQL Linux
Alibaba Cloud Linux release 3 (Soaring Falcon)操作系统
Alibaba Cloud Linux release 3 (Soaring Falcon)操作系统
|
弹性计算 安全 Linux
Alibaba Cloud Linux镜像操作系统详解(全方位解析)
Alibaba Cloud Linux是阿里云推出的Linux发行版,Alibaba Cloud Linux是基于龙蜥社区OpenAnolis龙蜥操作系统Anolis OS。Alibaba Cloud Linux针对云服务器ECS进行了深度优化,CentOS停止维护完全可以使用Alibaba Cloud Linux代替,Alibaba Cloud Linux兼容CentOS/RHEL生态,CentOS/RHEL中的大多数软件无需或仅需少量改造即可在Alibaba Cloud Linux中运行。
2833 0
Alibaba Cloud Linux镜像操作系统详解(全方位解析)
|
1月前
|
Java Linux 编译器
Alibaba Cloud Linux 解锁云算力-软硬协同构建云上最佳操作系统体验
为什么需要做软硬件协同?在后摩尔时代,整个算力的提升逐渐放缓,那怎么提升计算机性能?
|
7月前
|
运维 Unix Shell
Alibaba Cloud Linux操作系统Shell程序
了解Alibaba Cloud Linux Shell和用户Shell定制、C/C++编写一个简单的Shell程序
207 0
|
7月前
|
Linux 编译器 KVM
Alibaba Cloud Linux操作系统的安装及使用
Linux操作系统的安装,体会操作系统为了方便用户,不断改进的安装过程;熟悉Linux系统的登录和退出,并熟悉它常用命令的操作使用方法。
1487 0
|
11月前
|
弹性计算 NoSQL Linux
阿里云ECS安装Alibaba Cloud Linux操作系统部署Redis数据库
阿里云ECS安装Alibaba Cloud Linux操作系统部署Redis数据库,阿里云持久内存型云服务器ECS有re7p、r7p、re6p等,云服务器吧以持久内存型re6p实例ecs.re6p-redis.2xlarge为例,操作系统镜像为Alibaba Cloud Linux 2.1903 LTS 64位,安装Redis 6.0.5或Redis 3.2.12教程如下:
306 0