所以!云服务器也可以玩转大模型啦?

简介: 原型《完蛋!我被LLM包围了! 》 是魔搭社区联合灵积平台和通义千问2.0模型推出的一款玩坏LLM的智力挑战游戏 。用户可以通过计算巢服务创建出的游戏进行免费体验。即刻体验由云服务器创建的大模型游戏!

原型《完蛋!我被LLM包围了! 》 是魔搭社区联合灵积平台和通义千问2.0模型推出的一款玩坏LLM的智力挑战游戏 。用户可以通过计算巢服务创建出的游戏进行免费体验。即刻体验由云服务器创建的大模型游戏!

实验简介

本场景会自动创建一台ECS实例,通过计算巢的服务用户可以即刻体验到“为难”大模型的游戏,随时畅玩。

背景知识

计算巢是一个面向ISV、SI和MSP(统称为服务商)的云集成PaaS平台,方便服务商更好地将产品、服务和阿里云集成,借助云原生的能力提升软件服务在交付、部署及后续管理(如:资源扩缩容、软件升级、许可证管理、代运维等)等环节的效率。为最终用户提供更高效、便捷、安全的软件服务和使用体验。

云服务器 ECS(Elastic Compute Service)是一种安全可靠、弹性可伸缩的云计算服务,助您降低IT成本,提升运维效率,使您更专注于核心业务创新。

一、实验资源方式简介及开始实验

云起实验室实验资源方式介绍

云起实验室支持个人账户资源一种实验资源方式。

  • 个人账户资源
  • 使用您个人的云资源进行操作,资源归属于个人。
  • 所有实验操作将保留至您的账号,请谨慎操作。
  • 平台仅提供手册参考,不会对资源做任何操作。

准备开始实验

在实验开始前,请您选择个人账号资源,单击确认开启实验。  

1.png


二、DashScope免费额度开通


在开始实验前,用户需要开通模型服务灵积。该服务提供三种模型,每种对应提供不同的免费额度。开通DashScope即获赠限时免费使用额度,有效期180天,在免费使用额度内您可以免费试用通义千问模型,超出免费额度会产生一定的费用,详情请参见计费详情

  1. 前往模型服务灵积
  2. 模型服务灵积页面,单击立即开通

2.png

  1. 在模型服务开通页面,选中服务协议,单击立即开通

3.png

  1. 开通成功后,单击前往控制台

4.png

  1. 在左侧导航栏,单击API-KEY管理

5.png

  1. 安全提示对话框中,单击确定,我已经了解了风险

7.png

  1. API-KEY管理页面,单击创建新的API-KEY

8.png

  1. 创建API-KEY对话框中,您可看到你的API-KEY。

说明:请您记录API-KEY并保存在安全的地方,在下一章节创建“LLM Riddles社区版”服务实例时会使用到,需要您填写至访问信息区域的DashScopekey中。

9.png

10.png


三、创建“LLM Riddles社区版”服务实例

  1. 前往计算巢控制台
  2. 在左侧导航栏,选择服务目录>服务市场

1.png

  1. 服务市场页面,在搜索框中输入并搜索LLM Riddles社区版,在LLM Riddles社区版服务卡片下,单击免费试用

2.png

  1. 计算巢服务为第三方服务对话框中,选中我已阅读并同意《计算巢服务协议》,单击确定

说明:如果您是老用户,不会弹出如下对话框,可跳过此步骤。如果您是第一次使用计算巢服务,会弹出如下对话框。

3.png

  1. 创建服务实例页面,根据界面提示,设置服务实例名称、选择部署地域、选择实例规格、设置实例密码DashScopeKey软件登录密码,选择交换机可用区,然后单击下一步:确认订单

说明:DashScopeKey为上一小节获取的API-KEY。

4.png

5.png

6.png

  1. 确认订单页面,确认订单费用后,选中我已阅读并同意《计算巢服务协议》,然后单击开始免费试用

7.png

返回如下页面,表示已提交成功。

8.png

四、查看服务实例和使用

  1. 提交成功页面,单击去列表查看

9.png

  1. 服务实例管理页面的试用服务页签,您可以看到刚刚创建的服务实例以及服务部署进度。

说明:预计部署时间2~3分钟。

1.png

  1. 等待服务实例的状态变为已部署后,单击右侧操作列下的详情

2.png

  1. 服务实例详情页面,您可以获取到Endpoint以访问服务,单击Endpoint后面的链接。

3.png

  1. 登录对话框中,输入用户名密码,单击登录

说明:用户名和密码为您创建服务实例时设置的软件登录名和软件登录密码。

5.png

五、开始使用!

现在即可访问首页,开始畅玩吧!

说明:每一关你都需要在输入框中设置一个符合题目的问题,单击发送,挑战结果显示成功,您即可进行下一关。

6.png

7.png

六、删除服务实例

说明:

  • 在实验完成后,如果您需要继续使用LLM Riddles社区版服务实例,请随时关注免费试用到期时间,试用到期后实例会自动销毁。
  • 在实验完成后,如果您不需要使用LLM Riddles社区版服务实例,请根据如下操作,手动删除服务实例。
  1. 服务实例管理页面的试用服务页签,找到您创建的LLM Riddles社区版服务实例,单击右侧操作列下的删除

8.png

  1. 您确定要删除当前服务实例吗对话框中,选中我确认删除服务实例及包含的云资源,单击确定删除

9.png

七、免费试用云服务器ECS

完成实验后,如果您还想体验更多有关云服务器ECS体验,您可以领取以下两款云服务器ECS免费试用,详情请参见云服务器ECS免费试用

10.png

相关实践学习
2分钟自动化部署人生模拟器
本场景将带你借助云效流水线Flow实现人生模拟器小游戏的自动化部署
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
29天前
|
机器学习/深度学习 人工智能 运维
企业内训|LLM大模型在服务器和IT网络运维中的应用-某日企IT运维部门
本课程是为某在华日资企业集团的IT运维部门专门定制开发的企业培训课程,本课程旨在深入探讨大型语言模型(LLM)在服务器及IT网络运维中的应用,结合当前技术趋势与行业需求,帮助学员掌握LLM如何为运维工作赋能。通过系统的理论讲解与实践操作,学员将了解LLM的基本知识、模型架构及其在实际运维场景中的应用,如日志分析、故障诊断、网络安全与性能优化等。
58 2
|
2月前
|
人工智能 运维 安全
世界级大模型群,进化阿里云服务器操作系统新范式
世界级大模型群,进化阿里云服务器操作系统新范式
|
1月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
1月前
|
数据可视化 Linux 网络安全
如何使用服务器训练模型
本文介绍了如何使用服务器训练模型,包括获取服务器、访问服务器、上传文件、配置环境、训练模型和下载模型等步骤。适合没有GPU或不熟悉Linux服务器的用户。通过MobaXterm工具连接服务器,使用Conda管理环境,确保训练过程顺利进行。
65 0
如何使用服务器训练模型
|
6月前
|
存储 弹性计算 安全
ECS的安全责任共担模型
云服务器ECS的云上安全性是阿里云和客户的共同责任。本文介绍云服务器ECS(Elastic Compute Service)与客户在安全性方面各自应该承担的责任。
|
1月前
|
存储 PyTorch API
NVIDIA Triton系列09-为服务器添加模型
本文介绍了如何为NVIDIA Triton模型仓库添加新模型。通过示例模型`inception_graphdef`的配置文件`config.pbtxt`,详细解释了模型名称、平台/后端名称、模型执行策略、最大批量值、输入输出节点及版本策略等配置项。内容涵盖了模型的基本要素和配置细节,帮助读者更好地理解和使用Triton服务器。
34 0
|
1月前
|
机器学习/深度学习 人工智能 并行计算
StableDiffusion-01本地服务器部署服务 10分钟上手 底显存 中等显存机器 加载模型测试效果 附带安装指令 多显卡 2070Super 8GB*2
StableDiffusion-01本地服务器部署服务 10分钟上手 底显存 中等显存机器 加载模型测试效果 附带安装指令 多显卡 2070Super 8GB*2
33 0
|
2月前
|
网络协议 数据处理 C语言
利用C语言基于poll实现TCP回声服务器的多路复用模型
此代码仅为示例,展示了如何基于 `poll`实现多路复用的TCP回声服务器的基本框架。在实际应用中,你可能需要对其进行扩展或修改,以满足具体的需求。
85 0
|
3月前
|
开发工具 git iOS开发
服务器配置Huggingface并git clone模型和文件
该博客提供了在服务器上配置Huggingface、安装必要的工具(如git-lfs和huggingface_hub库)、登录Huggingface以及使用git clone命令克隆模型和文件的详细步骤。
319 1
|
5月前
|
机器学习/深度学习 人工智能 网络安全
人工智能平台PAI产品使用合集之在本地可以成功进入模型流,但在服务器上无法进入,是什么原因
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。

相关产品

  • 云服务器 ECS
  • 下一篇
    无影云桌面