弹性计算双周刊 第 5 期

本文涉及的产品
轻量应用服务器 2vCPU 4GiB,适用于搭建容器环境
轻量应用服务器 2vCPU 4GiB,适用于搭建Web应用/小程序
轻量应用服务器 4vCPU 16GiB,适用于搭建游戏自建服
简介: 阿里云弹性裸金属服务器(神龙)于2018年5月16日在北京举行产品发布会,再度引起行业关注热潮,技术专家狒哥作为嘉宾和大家作了精彩的分享。FPGA-F3的经典使用场景及极大简化FPGA开发部署流程的深度解析爆出干货,专有宿主机(Dedicated Host)开放测试名额申请,这是一个基于阿里云公共云虚拟化技术对ECS的另一种产品售卖形态,通过向用户出售整体物理主机的资源,提供物理独享的单租户环境。

【最新动态

1. 阿里云弹性裸金属服务器(神龙)于2018年5月16日举行产品发布会,再度引起行业关注热潮,直播现场拆服务器!阿里云资深专家旭卿和特邀嘉宾狒哥为大家作了精彩的分享(直播回放福利见文末)。

2. 全新一代FPGA云服务器F3正式上线,一张图看懂FPGA-F3实例

   实现云上 FPGA 加速业务的快速研发、安全分发、一键部署和弹性伸缩能力。为人工智能产业、图片视频转码、基因计算提供强有力的加速服务。阿里云宣布全新一代FPGA云服务器F3正式上线,并且开通邀测。

3.   阿里云专有宿主机(公测)发布

阿里云专有宿主机是一台物理独享的云主机,和其他租户在物理级别上隔离。专有宿主机提供给用户一种依托阿里云虚拟化服务的单租户运行环境,彻底解决多租户争抢问题,获得更高隔离性,满足更严格合规监管,满足自带许可证上云场景。 

4. Bazaar:阿里云serverless计算服务探秘

随着serverless kubernetes的上线公测,作为底层平台的Bazaar也展示在大家的面前。通过Bazaar平台可以为阿里云各类serverless产品提供强大的支持,在管控链路,实例的资源占用、启动时间等方面均做了有针对性的改进和优化,更加适应serverless产品的需要。

 afbb0eff677a7af6e5f9686d999b836ce2b17e42

【产品资讯】

1.  FPGA-F3阿里云FAAS平台,极大简化FPGA开发部署流程

    阿里FPGA云服务器平台FaaS(FPGA as a Service)在云端提供统一硬件平台与中间件,可大大降低加速器的开发与部署成本。用户可以直接使用部署加速器提供商提供的加速服务;也可以在无需了解底层硬件的情况下,快速开发和部署自己的定制加速器。

2.  浅析GPU通信技术(上)-GPUDirect P2P

    随着运算数据量的不断攀升,GPU间需要大量的交换数据,GPU通信性能成为了非常重要的指标。NVIDIA推出的GPUDirect就是一组提升GPU通信性能的技术。但GPUDirect受限于PCI Expresss总线协议以及拓扑结构的一些限制,无法做到更高的带宽,为了解决这个问题,NVIDIA提出了NVLink总线协议。

3.  阿里云E-HPC赋能制造业仿真云弹性

    从公测开始说起 去年9月份E-HPC开始公测,某仿真客户便开始申请使用弹性高性能服务。该客户因为业务关系已开始或多或少使用云计算产品,另一方面传统制造业发展问题也促使客户想尝试做出一些改变。 经过同客户的初步交流,客户的主要痛点集中在以下方面:客户从事仿真行业,通过服务传统的制造业获得营收,因此客户的客户集中在汽车,航天,船舶等。

535e8a7d9fefae6bbe5bc04433b5d9fb7664763a 

【工程实践】

1.   F3经典使用场景

2. ESS 控制台之访问控制篇

3. 配置网卡从此与关机无缘,弹性网卡支持热插拔功能

4. 精文分享:后羿射日般的精准 - 阿里云ECS调度是如何炼成的

       默默工作在舞台背后的正是ECS的调度系统,那个传说中的“后羿”。作为一个创建交付了不计其数的虚拟机的资源调度系统,后羿带来的感觉就像蒙娜丽莎的微笑,神秘而好奇。今天就让我们扒一扒“后羿”的前世与今生。

福利一:5月23日云栖大会武汉峰会 门票!

武汉光谷希尔顿酒店 北京厅2,嘉宾邀约21日中午12点截至,直接访问:https://yida.alibaba-inc.com/o/yqdhwh ,输入嘉宾验证码:ftjs3,现场领证。

福利二:弹性裸金属服务器(神龙)发布会回放

回放链接:点此查看


【下期预告】

    下期看点:云栖大会武汉峰会、GPU驱动自动安装、镜像优化

发布时间:2018年5月30日

弹性计算团队出品

e17c3b0381ba79ff4a950b9c8fb2f7a1c5d19a6b

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
打赏
0
0
0
0
2172
分享
相关文章
深度评测 | 仅用3分钟,百炼调用满血版 Deepseek-r1 API,百万Token免费用,简直不要太爽。
仅用3分钟,百炼调用满血版Deepseek-r1 API,享受百万免费Token。阿里云提供零门槛、快速部署的解决方案,支持云控制台和Cloud Shell两种方式,操作简便。Deepseek-r1满血版在推理能力上表现出色,尤其擅长数学、代码和自然语言处理任务,使用过程中无卡顿,体验丝滑。结合Chatbox工具,用户可轻松掌控模型,提升工作效率。阿里云大模型服务平台百炼不仅速度快,还确保数据安全,值得信赖。
188464 32
深度评测 | 仅用3分钟,百炼调用满血版 Deepseek-r1 API,百万Token免费用,简直不要太爽。
用DeepSeek,就在阿里云!四种方式助您快速使用 DeepSeek-R1 满血版!更有内部实战指导!
DeepSeek自发布以来,凭借卓越的技术性能和开源策略迅速吸引了全球关注。DeepSeek-R1作为系列中的佼佼者,在多个基准测试中超越现有顶尖模型,展现了强大的推理能力。然而,由于其爆火及受到黑客攻击,官网使用受限,影响用户体验。为解决这一问题,阿里云提供了多种解决方案。
23357 37
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
零门槛,轻松体验阿里云 DeepSeek-R1 满血版:快速部署,立享超强推理能力
DeepSeek-R1 是阿里云推出的先进推理模型,专为解决复杂任务设计,尤其在数学推理、代码生成与修复、自然语言处理等领域表现出色。通过阿里云的“零门槛”解决方案,用户无需编写代码即可快速部署 DeepSeek-R1,大幅简化了部署流程并提升了使用效率。该方案提供了详尽的文档和可视化界面,使开发者能轻松上手。DeepSeek-R1 支持多种模型尺寸,适用于不同场景,如智能客服、代码自动化生成、数学问题求解和跨领域知识推理。尽管存在对高自定义需求支持有限、云端依赖性等不足,但对于希望快速验证模型效果的用户而言,阿里云的这一解决方案仍然是高效且经济的选择。
1893 29
零门槛、百万token免费用,即刻拥有DeepSeek-R1满血版,还有实践落地调用场景等你来看
DeepSeek 是热门的推理模型,能在少量标注数据下显著提升推理能力,尤其擅长数学、代码和自然语言等复杂任务。本文涵盖四种部署方案,可以让你快速体验云上调用 DeepSeek-R1 满血版的 API 及部署各尺寸模型的方式,无需编码,最快 5 分钟、最低 0 元即可实现
本地部署DeepSeek模型
要在本地部署DeepSeek模型,需准备Linux(推荐Ubuntu 20.04+)或兼容的Windows/macOS环境,配备NVIDIA GPU(建议RTX 3060+)。安装Python 3.8+、PyTorch/TensorFlow等依赖,并通过官方渠道下载模型文件。配置模型后,编写推理脚本进行测试,可选使用FastAPI服务化部署或Docker容器化。注意资源监控和许可协议。
1652 10
DeepSeek-R1满血版上线阿里云,新用户专享100万token额度,5分钟快速部署!
DeepSeek是当前AI领域的热门话题,尤其其大模型备受关注。由于网页版访问时常超时,推荐使用阿里云百炼的API调用方式快速体验。此方法仅需五分钟,提供100万免费Token,有效期至2025年7月26日。用户可通过注册阿里云账户、开通服务、创建API-Key、安装并配置ChatBox客户端等步骤轻松上手。测试结果显示,DeepSeek-R1在回答问题、解释数学概念及编写代码等方面表现优异。部署成本低、操作简便,是体验DeepSeek的理想选择。
DeepSeek-R1满血版上线阿里云,新用户专享100万token额度,5分钟快速部署!
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
3577 117
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
如何在通义灵码里用上DeepSeek-V3 和 DeepSeek-R1 满血版671B模型?
除了 AI 程序员的重磅上线外,近期通义灵码能力再升级全新上线模型选择功能,目前已经支持 Qwen2.5、DeepSeek-V3 和 R1系列模型,用户可以在 VSCode 和 JetBrains 里搜索并下载最新通义灵码插件,在输入框里选择模型,即可轻松切换模型。
1162 14
满血 DeepSeek 免费用?附联网搜索&prompt编写教程!暨第三方 API 平台全面横评
满血 DeepSeek 免费用!支持联网搜索!创作声明:真人攥写-非AI生成,Written-By-Human-Not-By-AI
1236 8
满血 DeepSeek 免费用?附联网搜索&prompt编写教程!暨第三方 API 平台全面横评