AI PC元年会带火PC集群吗?云游戏迎来黄金时代。Stable Diffusion显存之选:12G及格,16G自由,24G上天

简介: 随着科技迅速发展,中国云游戏和PC集群在云计算和政策支持下蓬勃发展。PC集群作为经济高效的计算模型,在人工智能领域通过并行计算显著提升深度学习和神经网络训练速度,同时分布式计算模式为大数据处理提供有效手段,加速模型训练过程。

★Stable Diffusion;stable;diffusion;SD;stablediffussion;sadtalker;PC集群;PC Farm;PC农场;GPU集群;GAN;AI绘图;AI文生图;文生图;图生图;虚拟数字人;数字人;云游戏;AI PC;NVIDIA RTX GeForce 3070;NVIDIA RTX GeForce 3080;NVIDIA RTX GeForce 4070;NVIDIA RTX GeForce 4060

随着科技迅速发展,中国云游戏和PC集群在云计算和政策支持下蓬勃发展。PC集群作为经济高效的计算模型,在人工智能领域通过并行计算显著提升深度学习和神经网络训练速度,同时分布式计算模式为大数据处理提供有效手段,加速模型训练过程。


AI PC作为个人计算机集成AI算力,在嵌入式AI处理器、智能用户体验和创意领域展现强大潜力。嵌入式AI处理器提高个人计算机在处理人工智能应用时的性能,而智能化用户体验和在创意领域的应用为用户提供更智能、创意性的工具。


同时,Stable Diffusion (AI图像生成模型)为AI绘画领域注入新活力,提高计算过程中的稳定性和可靠性,为AI绘画算法的发展奠定基础。通过优化计算节点之间通信和数据传输,不仅提高绘画算法的精确度,还增强系统的容错性。


AI PC与PC集群的结合进一步拓展人工智能应用的可能性。通过构建强大的分布式人工智能计算平台,结合实时推理与反馈以及强化学习的特性,以更高效地处理大规模任务,适应不断变化的环境和需求。


新技术和游戏形式的涌现要求厂商不断创新,由此带来的游戏开发成本也促使游戏厂商寻找更有效的商业模式。蓝海大脑PC集群解决方案提供高密度部署的服务器和PC节点,采用机架式设计,融合PC高主频和高性价比以及服务器稳定性的设计,实现远程集中化部署和便捷运维管理。采用模块化可插拔设计,简化维护和升级的流程。有效降低网络延迟,提高游戏的流畅性。GPU图像渲染加速,减少画面卡顿和延迟。同时动态调度算法,实现负载均衡;大幅降低运营成本。高品质的游戏体验增加用户的粘度,大大提升游戏运营商收益。


该PC集群解决方案还集成Stable Diffusion AI模型,无需额外配置,即可轻松安装和使用。相较于传统的人工创作方式,Stable Diffusion AI模型能更快速生成高品质的创作内容,为创作者提供优化创作流程的机会。开箱即用,易于安装和使用,能够快速适应各种创作工作流程,为用户提供短时间内开始创作并获得更优秀体验的可能性。


文末附上AI绘画所需显卡指南,精彩不容错过!



中国云游戏发展现状


随着全球云游戏市场的不断扩大,玩家活跃度和接受度不断提高,中国仍然是最具活力和市场空间最大的地区之一。云游戏的分发取得高速发展,行业生态成熟度不断提升,将有更多优质的云原生游戏内容出现,这将进一步拉动内需,加速云游戏的普及。此外,客厅大屏、智能车载、XR 设备等新兴终端场景的娱乐化属性不断加强,为云游戏行业带来新的发展空间。跨领域的云端资源闲时复用和 ARM SOC 服务器的规模化应用也将发挥更广泛的带动效应。预计未来几年中,海外云游戏市场将向移动端转移,这给国内主流云游戏技术厂商带来了巨大的机遇。云游戏的发展将推动 5G/6G 低延时网络、硬件虚拟化、云计算等新一代信息技术的突破升级,与新兴产业深度融合,相互促进,共同发展。


一、中国大陆云游戏市场概况


2000年提出云游戏概念,由于基础设施和网络条件限制,产业发展处于萌芽状态,整体处于技术探索期。后来,索尼收购on live,开始提供云游戏服务,并与互联网科技巨头展开技术探索。随着全球互联网、云计算、大数据、人工智能等技术的飞速发展,云游戏技术方案逐渐成熟。到2020年,行业开始快速发展,众多厂商开始布局云游戏,进一步促进服务体系的完善与技术创新的加快。腾讯推出云原生引擎,米哈游《原神》也成功上云,标志着云游戏技术方案已经进入一个新阶段。



2023年中国游戏市场用户规模创历史新高,达到6.68亿,同比增长0.4%。为建设云游戏应用场景,中国政府发布数字化政策,推动产业生态良性发展。《“十四五”数字经济发展规划》提出新发展原则和发展目标,对云游戏产业发展具有重要推动作用。




云游戏市场持续扩大,渗透率上升,推动整体市场增长。云游戏存量空间大,移动游戏发展向重度化趋势,厂商积极云化产品。



二、中国大陆市场云游戏用户研究


1、中国大陆云游戏用户画像


年轻男性(35岁以下)是云游戏主要用户,尤其在二三线城市更热衷。其主要使用2000元左右的手机体验云游戏,消费能力在1000-2000元。男性占七成,四五线城市具有潜力。



其中RPG最受用户喜爱。用户选择云游戏主要是因为设备内存不足。目前云游戏主要来自本地游戏的云化,尤其是MMO和ARPG等热门产品。63.5%的用户选择云游戏的原因是硬件设备内存不够大,而高品质的头部产品需要更高的计算和存储能力。云游戏可以在云端进行渲染,与硬件设备的限制较少。



三、中国大陆市场云游戏代表厂商发展现状


1、腾讯通过双链路云平台进行布局


腾讯先锋专注于将腾讯游戏和手游上云,构建正向云游戏生态,并推出移动云游戏版本精品内容;而Start云游戏则聚焦TV端和高品质3A游戏的云化体验,以腾讯产品为基础,将多个海内外大型精品游戏引入云端。



2、网易利用内容优势增强市场竞争力,通过云游戏降低用户游戏门槛,加深云游戏布局


搭建云游戏平台提升网易游戏的分发能力。以网页端为载体,通过双重“免下载”降低用户接触游戏难度,并增强分发能力。部分网易游戏产品已云化,为联运渠道商提供技术支持。随着游戏逐渐云化,网易将更依赖云游戏推广功能。



3、中国移动利用5G技术,构建云游戏产品矩阵,全面覆盖用户游戏场景


咪咕快作为三端互通的云游戏平台,在中国移动5G网络环境下,优化网络宽带,实现超高清、无延时、即点即玩的体验。同时,拓展应用场景,利用云游戏技术打造国内5G VR云游戏平台,打破内容壁垒。



四、“云游戏+”推动数字经济高质量发展


云游戏作为游戏科技和新一代信息技术的融合,其科技价值得到产业界的高度认可。云游戏的创新发展推动各种基础技术的突破升级和规模化应用,同时也促进新兴产业底层技术的交叉赋能和深度融合。云游戏已经成为推动数字经济高质量发展的重要力量,为数字经济新型基础设施的建设注入新动力。


1、云游戏为元宇宙的推广和落地提供核心能力支撑


云游戏利用大规模数据中心和边缘计算高性能计算资源,为元宇宙提供强大的实时云渲染能力和算力支持,以满足用户对虚拟数据、场景和模型的交互和操作需求。云游戏作为在线视频流的方式,经历技术可行——技术成熟——商业可行的阶段,为元宇宙的快速发展提供海量算力和实时云渲染基础。


百度云游戏解决方案提供一站式云渲染解决方案,为元宇宙及数字人场景开发者提供云渲染平台的接入API、应用接入SDK和业务支撑平台,以支持快速拓客和转化。同时,百度云渲染平台已为多家企业的元宇宙场景提供算力支持并取得良好的用户反馈。云原生开发部署工具的推广降低元宇宙应用开发成本和复杂度,提高开发效率和质量。云原生应用能够充分发挥云计算优势,利用弹性、可扩展性和自动化特性构建和部署应用,提供更高效、可靠和安全的服务。


云游戏与元宇宙相结合,进一步拓宽内容生产者的创作边界,为用户带来更加沉浸、自由度更高、社交性更强的虚拟世界体验。云端多GPU渲染、存储分离、RTC等技术突破本地硬件环境限制,同时虚拟引肇、光追渲染与AIGC等技术拓宽内容生产者创作边界,使游戏场景表达具备更广泛的可能性。未来元宇宙时代将以云原生内容的写实性支撑虚拟世界场景体验的真实感,实现更大规模、更高质量、更多样化的虚拟世界,让用户在不同的场景中自由切换和探索,并结合交互技术,提升用户的沉浸感和真实感。


2、云游戏技术为文旅元宇宙的开发和运营提供全新的发展路径


通过高性能云渲染算力和海量存储能力,助力文旅元宇宙实现真实场景建模和高精度画面展示。文旅元宇宙是整合多种新技术的虚实相融的新型文旅形态,满足消费者对高质量文旅产品和沉浸式体验的需求。可快速重建真实场景,构建高品质虚拟空间,解决用户设备性能不足问题,提供沉浸感和丰富交互形式。其可实现高精度画面渲染和360度旋转体验,并赋予虚拟展厅社交属性。此外,云游戏还赋能文旅元宇宙创新业务模式,如数字藏品的跨链分享。元境推出的“元境博域”联合多个博物馆,为用户提供沉浸式、强互动、故事化的数字文旅新体验。


3、云游戏为数字人的制作和应用提供创新的架构设计


为数字人的制作和应用提供创新架构设计,提高建模精度、渲染视效和动作表情精度。通过云原生技术,实现快速部署、弹性扩展和实时更新等功能。在实时性要求高的场景中,利用云端计算处理能力实现动作和表情的实时捕捉和渲染,提高数字人的真实感和互动性。云游戏基础设施提供低延迟、高带宽网络和抗导保证,实现数字人的实时交互和流畅展示。


五、关键技术的加速创新:数字技术不断演进


随着云游戏市场的发展,竞争焦点已转向底层技术的深耕和优化,注重技术升级。2022年,行业在实时渲染服务器、资源复用等方面取得显著降本增效成果。同时,终端适配、边缘节点部署和弱网环境解决方案的改进提升用户体验,拓宽应用场景。技术推动下,云游戏行业有望在更多领域迎来新机遇。


1、容器管理技术成为提升云游戏服务效率和质量的重要保障


云游戏业务特点给容器管理技术带来新挑战。为满足用户低时延游戏体验,容器需要在多个城市部署,数量规模和分布模式前所未有。由于容器使用时间较短且使用时长不等,导致容器调度频繁,对调度器性能和一致性带来一定挑战。同时,为降低成本,容器的算力需要根据用户需求实时划分。


2、云游戏实时渲染专用服务器满足各类场景差异化需求


随着云游戏的快速发展,品类不断丰富,单一的服务器架构已无法满足不同云游戏的需求。为支持多样化的云游戏规模化运行,需要提供有针对性的服务器架构。ARM SoC 阵列服务器是一种创新型异构服务器,由多个基于ARM架构SOC芯片的计算节点组成,每个计算节点完全独立,拥有独占的内存和存储资源。在服务器中,专用BMC管理节点和高速网络总线提供对所有计算节点的管理和网络支撑。ARM SOC 阵列服务器能够更好地满足云游戏、元宇宙、数字人、虚拟展示等新兴应用场景移动端的实时云渲染算力需求,并且在成本和功耗上具有很大优势。


X86图形计算服务器基于CISC(复杂指令集)体系结构,代表目前CPU领域最强的计算能力,使用NVIDIA、AMD等厂商的图形渲染GPU,具备更高的图形计算能力,能够满足更高品质的主机游戏及PC游戏的云流化服务。X86图形计算服务器硬件编码能力强,可以直接利用硬件编码能力输出各类编码流,无缝衔接云游戏基础框架能力,进一步优化云游戏时延指标,提高云游戏的体验。同时通过虚拟化技术、沙盒、多开等技术的应用,衍生出各类云游戏架构,可以在一台x86图形计算服务器上同时运行多路甚至几十路PC游戏,进一步降低服务器的本。


3、资源复用成为行业提质降本增效的关键要素


中国云游戏市场在资源占用方面表现出明显的波峰波谷,不同时间段之间资源利用率差异显著。2020年至2022年期间,各大厂商主要致力于业务上线所需的基础技术储备,关键技术均已部署应用。计算和存储能力可以弹性共享,提升资源效能。分布式存储作为主流模式,长期应用于政府、企业、云公司。在底层架构互通的情况下,云游戏平台闲置的计算资源可以转换为云存储的前端计算,从而实现计算和存储资源的共享互补。


大多数公司重视提升资源利用率以改善用户体验。云游戏平台运营商需要在高峰时用户排队量与低谷时资源的闲置量间寻求最为合理的平衡,提升云游戏平台的用户体验。目前市场上多数公司均在资源复用领域投入更多精力来解决相应的适配和开发问题。


移动云-云游戏服务平台具备对异构资源和网络的实时感知能力。平台实现全网 GPU 算力的统一纳管、调度、算力复用,可满足用户对实时云渲染、边缘 XR 应用、云网吧、游戏型云电脑的超高清视频、超低网络延迟的需求。平台对用户位置迁移的趋势进行分析判断各个区域所需要的算力资源,根据分析结果,弹性调度各个区域的算力资源;将各资源池网络接入 5G 双域专网及城域网,对云游戏所需要的网络进行保障,如 5G 游戏专属切片服务、QoS 网络保障平台最高支持 2K 分辨率、144Hz 的电竟级游戏体验,网络延迟低至2ms。目前已成功支撑张家界元宇宙景区、当红齐天云 XR 等项目落地。


4、终端适配技术升级加速扩大云游戏场景入口


云游戏因其技术特性,在适配各种终端设备方面具有天然优势。云游戏的应用场景已经扩展到车载终端、智能音箱等设备,进而扩大云游戏的用户和消费者群体。


在车载终端的应用,云游戏通过提升驾乘体验和娱乐体验,将车辆转变为具备联网能力的智能座舱。利用移动互联网技术,车载终端可以实时与云端服务器交互,获取更多优质的游戏资源。串流技术在显示终端层面表现出良好的兼容性,推动多屏跨端的趋势。用户可以在不同场景下使用不同的显示终端来访问云游戏平台。同时,新兴娱乐场景也将为云游戏市场带来新的增长点。


5、弱网解决方案不断优化助力用户体验再次升级


弱网环境下,云游戏平台常出现卡顿、画面模糊等问题,影响用户体验。2022年,通过智能网络优化算法、网络加速器、流量管理等技术手段,取得弱网解决方案的技术性突破,减少游戏卡顿和画面模糊现象,提升用户体验。机房运维和管理策略也更加精细化,配合完备的监控体系,提高用户对云游戏的满意度。


六、中国大陆市场云游戏趋势展望


云游戏尚未建立可持续的商业模式,主要依赖订阅制和包月服务进行收费,对游戏收入和体验的增加有限。2020年和2021年单笔最大融资金额均超过15亿元,但2022年中国云游戏行业的投融资表现相对黯淡。云游戏的收费模式仍在探索阶段,国内主流云游戏平台大多采用订阅制和时长制进行收费,而常态化的云游戏场景相对单一,对游戏收入和体验的增量有限。



产业链上下游积极挖掘云游戏应用场景,游戏厂商通过云端技术实现多端互通、实时交互,拓展用户圈层。云游技术厂商创新技术,降低成本。电信运营商发展高速宽带和5G技术,为数字场景打下基础。



产品上云技术难度低,内容成为用户选择的关键。2023年,中国大陆云游戏市场覆盖多类型赛道,新老游戏上云提供低门槛体验环境,创造实时登录场景,吸引更多用户。随着云游戏引擎和内容的发展,产品上云技术门槛降低。目前,云游戏在中国尚未建立可持续的商业模式,内容依托原生IP进行云化,用户主要选择传统游戏内容,内容将是用户选择和保留游戏服务的关键因素。



云游戏行业基础完善,技术标准创新中,商业模式待探索,内容是核心竞争力。中国云游戏政策环境良好,技术与标准推动生态发展,家庭网络是关键。



AI PC的新定义:个人智能助手


PC一直以来都是人们重要的生产力和内容消费工具。现在,AI PC不仅继承原有职能,而且在硬件上集成AI算力单元,可以运行“个人大模型”,创建个性化本地知识库,实现自然语言交互,从而深刻地改变PC的定义。AI PC成为每个人的个性化AI助理,提高生产效率,简化工作流程,更好地理解用户的喜好,并保护个人隐私数据的安全。


一、AI PC 的用户价值


AI PC 能够为用户提供通用场景下的个性化服务,提供即时、可靠的服务响应,更低的大模型使用成本以及可信、安全的个人数据和隐私保障。



1、提供通用场景下的个性化服务


AI PC根据用户的工作、学习和生活需求,提供个性化创作、私人秘书服务和设备管家服务等多种功能。通过终端厂商的定制设计和场景化的功能预设,以及不断探索用户需求,AI PC具备的个性创作、秘书服务和设备管家等功能可以在不同场景中展现出独特的价值。



2、工作:打造智能工作新常态


AI PC的个性化创作服务能够极大地提高工作效率,帮助用户快速生成专业文档,如会议通知、材料准备、记录和纪要、邮件起草等更准确地理解用户的创作意图,掌握用户的创作习惯和个人风格,并调用多种模型和应用、互联网资源来完成任务。通过调用个人和企业私域信息,AI PC可以智能生成个人日程表,推荐会议时间,生成会议邀请并预定会议室。在会议中可以进行实时同声传译,会议结束后,也能根据讨论总结主题、未解决事项,并生成会议纪要。


设备管家服务能够主动为工作提供保障,根据不同的工作场景智能调配性能和算力,为用户带来最佳的设备使用体验。同时,AI PC也能主动给出建议,推荐用户下载更适合的软件来完成任务。


3、学习:带来智能学习新体验


AI PC的个性化创作服务能够为学习提供智能体验,根据课堂内容生成笔记和提炼课程要点,优化笔记质量和呈现方式,满足学生个人专属需求和习惯。在练习中,提供跨学科的知识讲解、对话练习和内容拓展,帮助学生有针对性地练习疑难点和易错点。


4、生活:提升生活娱乐全体验


AI PC个性化创作服务可以提升娱乐体验,成为玩家的专属“电竞教练”,提供游戏攻略、比赛分析和对局复盘等专业指导。同时,根据用户喜好,制定个性化的出行计划。


5、提供即时、可靠的服务响应


生成式AI带来巨大的效率提升潜力,但在实践中,云端公共大模型的缓慢响应和反馈时间影响了用户体验。在2023年AIGC平台使用体验调研中,“响应慢”和“反馈时间长”是主要的负面反馈。AI PC以本地推理为主,利用边缘和云端推理为辅,智能、合理地调配混合算力和模型,从而有效减少响应时间。


由于具备本地化的大模型能力,AI PC在离线状态下也能进行创造性工作,不受网络条件限制,随时随地为用户提供服务。此外,本地大模型能更便捷地集成和利用本地知识和数据,有效避免“幻觉”,精准生成符合用户需求的作品。


6、更低的大模型使用成本


随着生成式 AI 频繁使用,完全依赖云端将导致成本线性上升。而AI PC以本地推理为主,云端公共推理为辅,使用户在一次性购买后可享受全生命周期的免费本地推理服务,再加上有限云端订阅,显著降低个人用户使用AI大模型的费用。AI PC终端厂商通过紧密的生态合作,一站式满足用户需求,提供有竞争力的综合服务价格,并节省额外的带宽成本。


不仅用户受益,应用厂商也得以减轻云基础设施的压力并降低运营开支。独立应用开发商和应用开发者将依托AI PC的优势更经济、高效地探索和开发应用。


7、可信、安全的个人数据和隐私保障


AI PC的个性化本地知识库作为安全的基础保障,为个人用户和企业用户提供安全隔离的存储空间,确保隐私和涉密信息仅在受信任的环境下被调用。同时,通过本地推理机制,有效避免敏感信息在远程服务器上的处理。


设备管家服务提供额外的安全保障,实时监控设备情况和学习用户行为,能够提前识别风险行为并进行主动干预与防护。通过与第三方应用的合作,AI PC不断强化对风险行为的识别与风险内容的拦截,为用户带来极致的安全体验。


二、AI PC 的核心特征


为实现上述用户价值,AI PC不仅是硬件设备,而是由AI模型、应用和硬件设备组成的混合体。产品拥有本地部署的大模型与个性化本地知识库组合的个人大模型,以个人智能体作为第一交互入口,实现自然语言交互。通过内嵌AI计算单元,提供混合AI算力,并依靠开放生态满足不同场景的需求。同时,通过本地数据存储和隐私及数据保护协议来保护个人隐私和数据安全,实现生产力提升。


AI PC 核心特征


1、第一交互入口:自然语言交互的个人智能体


1)多模态自然语言交互 UI 提升交互体验


传统终端的交互模式存在较大限制。早期设备依赖硬件外设传递人机信息。图形化 OS 提升交互效率,但可视化程序交互涉及复杂菜单和功能操作,学习成本较高。AI PC 实现自然语言交互,使用户能够以口头或文字形式与 PC 进行沟通,并通过自然语言给予反馈,这种交互方式更自然、直观,贴近人类沟通本能,替代复杂的指令语言。


2)个人智能体提升终端易用性


自然语言交互 UI 的能力依赖于常驻其中的个人智能体,承担着理解用户意图与分发任务的重要作用。个人智能体基于内嵌于终端的本地大模型打造,精准理解用户意图后,将意图转换为相应的任务组合,并分解任务、识别任务完成的路径,进而查询本地知识库、调用设备 API、调用合适的模型或应用执行相应任务。任务完成后,设备、模型或应用将结果返回给智能体,智能体整合后反馈给用户。


未来,个人智能体将通过智能感知和主动服务提升 AI PC 的自主性与易用性。随着知识库中信息的丰富,根据用户习惯,结合时间和位置等信息,感知用户潜在需求,并在特定场景下主动提出服务请求。


个人智能体提升 AI PC 的自主性与易用性


2、终端内嵌个人大模型


1)本地为主、边缘与云为辅的大模型方案


随着用户对AI能力和大模型调用变得频繁,仅依赖云端提供相应的能力变得昂贵、复杂且不够安全。因此,以模型的本地化推理为主、以边缘和云端推理为辅的混合大模型架构成为AI PC解决这一问题的关键。


用户大部分任务将能够依托AI PC本地模型完成。如在离线情况下依靠本地大模型完成通过文字描述生成文档和PPT的任务。同时,本地模型还将承担意图理解和任务分配的功能。


当用户的任务请求不私密且极其复杂时,AI PC将在用户同意的情况下,调用云端公共大模型的能力,从而极大地扩展本地模型的能力范畴。在很多情况下,边缘设备的出现进一步分担本地模型推理的负载,并帮助AI PC完成个人大模型的微调,为本地模型的个性化提供一种可行的解决方案。


混合大模型的优势在于能够根据终端设备的性能、资源限制以及用户的网络状况和任务复杂度,动态地调整端侧和云端的计算负载,实现最优的性能和效率。满足用户的使用需求、适应不同的应用场景,同时兼顾快速响应、即时反馈和数据隐私安全。从而带来成本、能耗、性能、隐私、安全和个性化等方面综合优势。


2)个性化本地知识库


除混合大模型之外,还拥有本地向量知识库以及相应的管理工具,能够储存从用户的行为与本地数据中获取的信息。知识库能够将特定的文件进行分块与向量化,并进行向量数据的存储。在执行任务时,知识库能够通过对向量数据的检索来匹配并强化用户提供的提示词从而帮助模型更准确地了解用户的意图并提供更个性化、高准确度的反馈。通过这一方式本地知识库能够使得AI PC了解和熟悉用户个性化的语言习惯和操作模式。


在企业应用背景下本地知识库可以在较短的周期内强化企业内对特定任务的完成效率与精准度。例如生成与企业既往设计风格与调性一致的图片创作符合企业特定专业语言的文稿或生成符合企业内部汇报习惯与需求的PPT文档。


3、终端标配本地混合 AI 算力


算力是AI PC功能实现的前提,异构混合算力(CPU+NPU+GPU)是AI规模化落地的必然要求。这种计算方式结合不同类型计算单元的优势,提高终端侧AI算力,实现更快速、高效的AI模型推理。随着端侧算力的提升,AI PC可以在离线状态下处理更复杂的任务,并且在功耗控制、影像呈现、复杂运算、游戏体验等方面得到AI优化。AI PC包括多种产品形态,如AI笔记本电脑、AI平板电脑、AI台式机等,未来还将涌现更多创新形态。


AI PC 产品型态


这些产品形态可以灵活组合,满足不同用户的需求。在家庭场景中,用户可能选择AI笔记本电脑和平板电脑进行日常生活和娱乐;而在企业场景中,AI台式机具备更高性能,与AI笔记本电脑和工作站集群配合,适用于专业的生产力创新任务。


4、连接开放的 AI 应用生态


为完成复杂的任务,AI PC 需要调动不同模型和应用作为补充和延伸。为此,AI PC 的功能发挥需要一个开放的行业生态作为支撑。开放的应用生态应包括AI原生应用、AI赋能应用和公共大模型。AI原生应用是以AI能力为核心、直接依托算法构建的应用,AI赋能应用则是传统应用增强插件化后被大模型调用或调起的功能。


5、设备级个人数据和隐私安全保护


用户请求公共大模型执行任务时,担忧个人数据、隐私和企业商业机密泄露。确保设备级个人数据和隐私的安全性是技术发展和用户权益的迫切需求。个性化本地知识库提供本地化的个人数据安全域,支持读取云端私域数据,保障AI PC的数据安全。本地推理机制避免敏感信息在远程服务器上处理,只有非敏感任务才会调用公共大模型处理。AI PC配置硬件级的安全芯片,加密和保护个人隐私数据的读取和使用,防止未经授权的第三方窃取。


AI PC产业生态

以人为本、终端引领、AI驱动


PC集成AI算力单元,可以运行“个人大模型”,创建个性化本地知识库,实现自然语言交互,从而深刻地改变PC的定义。AI PC成为每个人的个性化AI助理,更好地理解用户的喜好,并保护个人隐私数据的安全。


产业内供给关系变化


一、用户:生态话语权显著提升


1、用户成为行业生态创新的驱动者和创造者


在AI PC时代,用户的话语权提升,能动性地影响产品进化和产业生态的发展。主要体现在以下几个方面:


1)低成本自创应用流行,AI技术的发展降低开发门槛,用户可利用AI PC直接“开发”应用,也可以在AI大模型的帮助下自制应用和软件。

2)新型用户社区兴起,应用生态供需关系翻转。随着UGA的增加,形成全新形态和运作模式的社区,用户分享自己利用AI创作的APP供其他用户下载和使用,点评交流UGA,发布有偿需求等。

3)日常体验反馈驱动下的自动化服务迁移,智能体通过插件调用各类应用,用户评价和使用行为成为智能体应用分发的关键依据,用户对体验结果予以反馈即可影响应用的被调用优先级和触达用户的频次。个人智能体能够根据用户行为反馈随时选择和切换应用背后的服务供应商,形成用户驱动应用创新的形态。


2、用户与 AI PC 的关系将被重新定义为 “类伙伴”关系


AI PC将颠覆现有的人机交互模式与人机关系,形成用户、终端和智能体的复杂关系。用户与AI PC终端形成“类伙伴”关系,需要各方强力配合,提升用户话语权。用户对于终端产品的选择与评估方式也会随之出现变化,能否发挥出个人智能体最佳的性能和提供最佳交互体验等都将成为重要评估维度。


3、数据主权和隐私保护意识大为提高


随着用户话语权提升,用户数据主权成为不容忽视的议题。AI PC交互方式导致用户任务指令、请求与反馈集中,信息和数据呈现集中化趋势。为提供专属智能化服务,AI PC需要访问用户私密知识库数据和分散存储的本地及云端应用私人数据。在新的生态环境下,对用户数据安全的重视程度需进一步提升。用户数据主权将不仅停留在概念层面,而将形成一套规范的政策、机制和管理体系,用户将更主动地决定自己数据的处置权。


二、终端厂商:进阶为生态组织者


终端厂商在AI PC时代将扮演多个关键角色:


1、作为AI PC技术整合创新交付者,终端厂商需要同步进行设备硬件和软件的迭代,并确保步调一致、目标统一,整体交付和迭代。以用户需求满足和体验提升为驱动力,对“设备+个人大模型+个人智能体”进行整合创新。


2、终端厂商将创造新一代个人智能体及AI入口,成为用户体验的维护者。个人智能体作为用户通向AI功能的集成化入口,独立于操作系统,由终端厂商设计并完成开发。终端厂商将直接对个人智能体的界面UI和交互逻辑进行设计,并能够根据用户的反馈以OTA的方式进行迭代。


3、终端厂商还将作为本地化个人数据及隐私安全守护者。作为存储用户隐私数据的重要载体,终端将成为用户数据保护和管理的第一阵地。终端厂商将在AI PC的生态中发挥信息处理与保护的核心作用。


4、终端厂商将在AI应用和模型生态建设中发挥关键作用,作为开放的AI应用生态标准制定者和推广者。在技术层面,需要定义标准化的接口和API,以便大模型与应用可以与终端设备进行互操作,并针对终端设备的性能和资源限制对需要接入的大模型进行性能优化。


三、AI 技术厂商:发展混合人工智能技术和服务


1、轻量化本地大模型与个性化微调服务


在AI模型爆发期过后,大模型赛道将整合,基础大模型数量减少。为提供真正可信、个性化的服务,模型的落地将走向“公共+个人”的混合AI架构。AI技术厂商通过模型的蒸馏、压缩等技术将大模型“瘦身”,形成轻量化的模型,以减少对计算资源的需求。同时,用户对模型的专属化需求提高,AI技术厂商将提供个性化微调服务。


2、解耦和适配AI PC个人智能体


无论是本地模型还是云端公共模型,模型技术厂商都需要在终端厂商定义的标准化接口和API下,与智能体做好对接和交互。模型与个人智能体之间、模型与模型之间解耦的设计,使得模型更加易于优化和调试。


3、大小模型技术和服务相互配合


大模型在推理和复杂任务处理方面有优势,而小模型在专门场景的推理任务中有优势。大小模型需要在混合架构之下进行合理的任务分配,实现多任务的协同处理和结果整合。大小模型的共同配合可以提高模型的适应性和稳定性。


4、AI PC本地混合AI算力价值


AI PC提供本地算力已经能支撑小模型高效地完成一些任务。大小模型在AI功能设计中需要充分考虑不同任务之间的关联性和差异性,以便进行合理的任务划分和集成。同时,需要充分考虑不同模型的优缺点和局限性,以便进行合理的模型选择和优化。


四、应用厂商:AI 应用生态崛起


AI PC 的升级将推动下一代 AI 应用生态的崛起。传统的应用生态是围绕着操作系统框架开发形成的,在 OS 之上提供专业的业务功能。在新的生态下,应用的开发,使用方式和评估机制都将发生颠覆性的改变。


1、大模型驱动的应用将快速发展


本地大模型的AI能力需要拓展,必须构建丰富的应用生态。大模型厂商采用“插件化”方式调用其他应用的模块化能力,实现“无所不能”。


1)AI 原生应用将快速增长


随着AI应用生态发展,围绕大模型AI原生应用占比将持续上升。AI原生应用在开发阶段即以大模型为核心,使用各种AI工具和框架实现AI的功能和特性。


2)传统应用将升级为大模型赋能应用


AI PC带来的全新交互方式对传统应用构成冲击,传统应用需要迭代并开放更多API,提升作为插件被调用时的表现与反馈效果。传统应用厂商需要与模型厂商合作优化反馈效果,长期则需要将自身重构为AI原生应用。


3)新型AI应用商店将形成


新的AI应用商店将提供AI原生应用和由AI赋能的应用,支持便捷的检索和下载。AI应用商店将通过独立审核机制把控隐私保护协议与安全性,提供众创应用的开放性与包容性。AI应用商店将与不同用户社区打通,为众创应用提供一个认证、交易、下载与评价的平台。


2、形成以意图服务反馈驱动的新型应用评价和迭代创新机制


1)意图任务以插件化模式调用


随着用户逐渐习惯通过个人智能体交互方式,应用被用户直接使用的场景会大大减少,大部分应用将通过个人智能体与意图理解平台被调用。应用厂商应与终端厂商紧密合作,制定并发布应用程序编程接口(API)标准,以确保个人智能体与应用能够顺利的协同完成用户的需求。


2)形成以用户意图反馈采纳次数为标准的应用评价机制


“插件化”调用方式基于对用户意图理解的调用和反馈机制的应用评价和迭代机制。将形成新的应用评估机制,评分指标以用户调用次数、用户重新生成次数、主动采纳次数等为主。


3、“众创应用 & 专业应用”共同发展的全新格局


用户产业生态话语权提升,应用进入自开发时代,非专业个人用户也可以参与应用开发。AI框架和工具具备强大功能和灵活性,用户可根据需求和数据进行简单适配和调整。用户使用自动化开发工具和平台,快速构建和部署AI原生应用,或通过与个人智能体对话进行应用或插件的开发。众创应用在应用市场上占据愈发重要地位,对传统应用厂商造成冲击。在专业复杂度低的场景下,众创应用将对传统应用厂商造成巨大冲击。专业应用仍留有一席之地,针对特定场景,仍有部分专业性极高的任务需要用特定的应用和软件来完成。出于效率和成本的考虑,个人智能体不会构建针对此类任务的理解和解决能力。因此,在此类应用的使用上,用户仍将使用传统的方式与应用发生交互。用户将绕过个人智能体直接使用应用,但是会在应用内置的专业AI助手帮助下完成相关的任务。因此,无论是应用的开发、分发、使用场景还是评估方式,行业都将迎来“众创应用”和“专业应用”并行发展、共同繁荣的全新格局。


五、算力厂商:普惠混合 AI 算力


算力是 AI 技术基础,是整个 AI PC 产业生态的血液。随着 AI 终端爆发式发展,算力供给成为制约 AI 快速普及的关键短板。为应对行业对算力爆发式增长需求,算力厂商将进行一系列彻底的转型,以提供普惠的混合 AI算力作为发力方向,推动 AI PC 的全面普及。


1、混合 AI 算力成主流创新方向、智算性价比将成核心评价指标


高昂的云端算力成本是AI技术普及的主要障碍。当前算力供给主要满足大模型厂商的训练需求,但随着AI PC的普及,大模型将成为每个人的助手,其用户规模将快速增长,推理算力需求将超过训练算力需求。因此,算力集中于云端的模式将不可持续,需要将算力向端侧和边侧下沉。构建足够的端侧与边侧AI算力,提升本地模型推理能力,形成端-边-云协同的混合算力是行业趋势。成熟的方案包括使用CPU+NPU+GPU异构式架构提供本地算力。CPU厂商将更普遍地集成NPU来提升AI运算和任务分配性能,优化不同计算单元的调用机制以降低功耗。GPU厂商将加强对智能计算的优化。AI芯片厂商的地位将进一步提升,为行业提供更多支持,特别是在可信计算和增强智能计算方面。


2、智算性价比将成为核心评价指标


在算力行业发展初期,单一的评估指标有助于市场建立统一基线,主要以云端算力供给为主,以TOPS等性能指标为评估标准。但在AI PC时代,端-边-云混合算力架构成为主流,终端设备上的算力产品表现成为新评估标准。智算性价比是重要考量,由性能、适配性、功耗和价格等因素综合决定。提升智算性价比需要优化混合算力性能、提高端侧表现、降低功耗和控制成本。智算性价比=性能×适配性/(功耗×价格)。


3、模型适配与 AI 开发框架的通用化趋势


算力厂商将建立通用、兼容的AI开发框架,降低大模型和应用开发适配门槛。对于AI PC产品,模型适配性非常重要,算力产品需要与各类大小模型及其调用的应用进行综合适配,实现AI PC的功能。通用化AI开发框架可以显著提高AI系统的效率与可扩展性,同时降低开发与维护成本。


4、普惠与快速普及是算力发展的优先方向


算力产品的效能对AI PC的购买和使用成本具有决定性作用。高算力成本将阻碍AI技术的普及,而低功耗和长续航能力则对体验和场景扩展至关重要。因此,提供高效能的普惠性智能算力将是算力厂商的发展重点,推动AI PC的快速普及。低功耗和长续航能力对用户体验和场景扩展至关重要。高功耗会导致厚重的机身、高昂的成本、续航不足和潜在的发热卡顿问题。普惠性算力是算力发展的必然选择,行业内对算力的巨大需求将推动算力厂商提供更充足的普惠性算力。AI PC将把“算力消费”概念带入消费市场,昂贵的算力将成为历史。


2024成为AI PC元年

加速PC升级


AI PC的发展是一个动态的过程,其价值和核心特征相互支持、相互促进,推动着整个产业走向成熟。这个过程可以分为两个阶段:AI Ready阶段和AI On阶段。


在AI Ready阶段,主要是通过升级芯片计算架构,将NPU计算单元集成到CPU中,以提高能效比和计算速度,同时具备更高的稳定性和可靠性。这种升级使得终端设备具备混合AI算力,能够更快地处理数据和任务,尤其对于需要实时响应的AI应用如语音识别、图像处理等尤为重要。


进入AI On阶段后,软件和硬件两方面的积累将带来产业的跃变。这个阶段具有完整的AI PC核心特征,并为广大用户提供划时代的AI创新体验,成为每一个人的个人AI助理。随着核心技术创新、产品体验优化、AI应用生态繁荣,AI PC能够服务于更加广泛的通用场景,并且能够实现端边协同计算、跨设备互联接力,甚至能够基于个人数据和使用历史,在边缘私域环境下实现个人大模型的微调训练。预计从2024年开始,符合AI On阶段标准、具备完备AI PC核心特征的AI PC将陆续进入市场,这将进一步拉动市场的快速增长,为整个产业发展注入新的活力。因此,2024年被视为AI PC元年。


随着AI PC在2024年的快速进入市场和应用场景的不断拓宽,PC市场将进入新一轮增长。AI PC在中国PC市场中新机的装配比例将在未来几年中快速攀升,到2027年将达到85%,成为PC市场主流。个人消费市场、中小企业和大型企业都将受益于AI PC带来的变革,加速智能化转型、优化客户体验、提升运营效率。同时,AI PC将与大型企业智能化转型相结合,长期释放企业内部活力。


AI PC 市场规模及占比预测


AI PC与个人效率提升息息相关,并将在消费市场上快速反映为对需求的拉动。自媒体的发展为个体用户提供更为丰富多样的表达形式和渠道,导致消费者对创作图片和视频的需求急剧增长,因此需要功能强大的AI PC来提高创作效率。


AI PC的独特价值预计将大大缩短现有PC用户的换机周期,从而加速换机潮的到来。当前PC消费市场的主流换机周期为3-5年,但2022年仅有10%左右的用户计划在2年内更换PC。随着AI PC的普及,预计2年内计划更换PC的用户比例将翻番,达到20%或更高。


目前PC消费市场的人群结构相对保守,注重实用功能和价格敏感的节俭从众型用户和精明自主型用户合计占比接近60%。随着AI PC的推出,IDC预测PC消费市场的人群结构将发生变化。首批尝试AI PC的是对新技术敏感且追求生活品质和工作效率的品味达人。随后,越来越多的稳重体面型用户将在品味达人型的影响下置换旧机,成为AI PC的主流用户,推动PC消费市场人群结构的高端化。到2025年以后,随着AI PC的普及,越来越多对技术参数和价格变化敏感、注重性能和功能的精明自主型用户将成为AI PC的主要消费群体。


中国 PC 消费市场用户细分人群占比


一、中小企业:借助 AI PC 加速智能化转型,优化客户体验,提升效率


研究报告显示26%的中小企业PC用户已在使用大模型和生成式AI技术,主要应用场景为协同办公和市场推广。媒体、医疗卫生、互联网行业对增加AI投资意愿较高,“专业服务”领域的企业已达到较高水平。中小企业体量较小,组织结构简单,以低成本运营为主,在法务、财务、品宣、IT等领域通常不设完整职能部门。AI PC可弥补这一短板,整合资源,最大程度提升独立性。


AI PC可赋能远程平台,强化沟通,助力异地团队成员协作、共享资源、提升效率,减少差旅成本和办公室空间成本。在此过程中,员工可节省差旅、通勤时间成本,间接提升企业运营效率。AI PC支持市场推广与客服人员,增加单位时间内应对客户与业务量,提升效率。同时,AI PC可助中小企业实现流程管理自动化,放大灵活性优势,为业务增加推进因素。


AI PC在中国中小企业PC市场中装配比例提升速度将高于消费市场,2027年达88%。2024年后53%的企业IT投资额年增长率将超5%。


二、大型企业:领先企业率先导入 AI PC,长期与智能化转型相结合


由于数据安全要求高且体量大,AI PC给大型企业带来的变化将在更长时间内体现。AI PC在中国大型企业PC市场中的新机装配比例将于2027年达到74%,其中科技领先行业的IT、互联网、金融和专业服务等大型企业将率先导入AI PC。


三、AI PC 拉动 PC 市场稳定增长


AI PC的推动将拓展PC应用场景,推动市场规模增长。中国PC市场将在AI PC带动下结束负增长,未来5年保持稳定增长态势。台式机和笔记本电脑总规模将增长近28%,从2023年的3900万台增至2027年的5000万台以上。


 中国个人电脑市场规模预测


据预测,2024年中国终端设备市场中,超过半数的设备将具备针对AI计算任务的硬件基础,到2027年,这一比例将攀升至接近80%的水平,并进入平稳提升阶段。


中国 AI 终端占比预测


在AI PC时代,PC不再仅仅是硬件设备,而是具有可持续运营价值。用户的购买决策将涉及更多与AI PC生态相关的应用、模型及收费标准。由于个人智能体在全场景下发挥着重要作用,AI PC的使用时间将超过传统PC,应用市场将承载新增的使用时间。插件化的AI原生和AI赋能应用将提升AI PC的智能化表现,应用将成为主要附加品。因此,用户需要为硬件和包括公共大模型在内的附加服务付费,以提升AI PC的实用价值。


中国AI PC生态发展将得益于ARM和x86架构产品的计算芯片厂商的参与。主流厂商正在优化CPU+NPU+GPU架构,以提升混合普惠算力为发展方向,推动AI PC的大规模普及。通用性AI开发框架和终端适配性将是厂商关注的重点。


混合大模型的流行将推动公共大模型服务的发展。大小模型都将在AI PC时代进入快速发展阶段。传统应用厂商面临转型压力,需要大规模应用AI模型进行赋能,并对应用进行插件化适配。同时,在创作类任务需求的工作、学习和生活场景下,提供满足这些需求的应用供应商的地位将进一步升级。


AI PC应用还将形成规模庞大的周边市场,围绕AI原生应用开发的培训、用户社区维护与运营、AI应用分发机制等提供全方位支持,为市场带来新的机会点。


AI绘画所需显卡指南


在不断发展的 AI 绘图环境中,游戏开发者经常会遇到由于显卡功能不足而导致渲染缓慢的挑战。然而,大量可用的型号和品牌,加上有关特定卡片是否适合 AI 绘画等问题,使决策过程复杂化。


在选择 AI 绘图的显卡时,除价格之外,还需要考虑其他哪些因素呢?虽然有些人认为购买最贵的显卡是最好的选择,但显卡市场并不严格遵守“一分钱一分货”的原则。例如,3090 和 3080 之间的价格差异可能很大,但它们的性能差距不到 20%。


显卡通常具有相当大的溢价,并且价格和性能之间的关系并不总是线性的。因此,根据特定需求仔细选择显卡至关重要。另一个重要因素是拉丝速度,这是许多买家关心的问题。虽然众所周知,更强大的显卡会导致更快的渲染速度,但购买显卡的人可能不清楚实际速度。


一、在选择显卡设备时需要的原则


  • 尽量选择显存为12GB以上、NVIDIA显卡20系及以上的设备。如果对显卡不了解,建议直接购买整机。
  • 推荐使用台式机,若非要选择笔记本电脑,尽量选择显存为6GB以上的设备。
  • 尽量避免使用苹果设备。

如运行Stable Diffusion,4G能跑,8G入门,12G及格,16G自由,24G上天。


大模型直接生成图片GPU性能比较


二、部分显卡的渲染效率对比


1050Ti=512*768分辨率,720 秒一张图像

2080 = 512*512 分辨率, 20 秒一张图像

3060 = 512*512 分辨率,  3 秒一张图像

3080=2560*1440分辨率,60 秒一张图像

4090 = 1536*768 分辨率, 5 秒一张图像


三、以下是专为 AI 绘图设计的显卡的一些建议。可以根据实际需求和预算进行选择:


A卡和N卡(AMD和NVIDIA)之间的选择,一般建议选择NVIDIA卡,避免由于兼容性问题影响体验。


在两个价格相似的NVIDIA(N)显卡之间进行选择时,重要的是要考虑VRAM(视频随机存取存储器)或显存的大小。VRAM在显卡模型中由“G”值表示,决定AI绘图的分辨率限制以及显卡能否有效训练模型。 虽然显卡的核心性能主要影响渲染图像的速度,性能越强,渲染速度越快,但对于 AI 绘图来说,理论上的优先级在于拥有更大的 VRAM。如3060ti配备8GB的VRAM,而3060有一个版本配备12GB。尽管 3060ti 更贵且性能更强,但如果用于 AI 绘图,选择3060 12GB 更合适。所以,在比较两款价格相近的NVIDIA显卡时,更大的 VRAM 对于在 AI 生成的图像中实现更高分辨率和有效的模型训练至关重要。


  • 4060ti 16GB


4060ti 16GB 是该型号的不寻常规格。尽管没有任何性能增强,但更大的VRAM表明官方制造商了解用户的需求。拥有 16GB 显存,是、仅次于 4090 的 24GB 的第二大显存。


  • 3060 12GB- 3060 和 3060ti


两者皆受欢迎,不仅用于 AI 绘图,还用于游戏。考虑到VRAM的重要性,建议选择3060 12GB版本而不是3060ti。千万不要选择8GB 版本的 3060。


  • 4090 24GB


4090 是目前最强大的显卡,随着 40 系列的优化,超越 30 系列。非常适合 AI 绘图,如果预算允许,必定是首选。


  • 4070 12GB


新发布的 4070 比 4070ti 提供更好的价值,虽然两者具有相同的 VRAM 尺寸,但 4070 的价格要低两到三千。4070现在一般低于5K就能入手了,在游戏中也表现良好。


大模型训练各显卡性能比较

相关文章
|
2月前
|
存储 人工智能 物联网
【体验有奖】用 AI 画春天,函数计算搭建 Stable Diffusion WebUI
【体验有奖】用 AI 画春天,函数计算搭建 Stable Diffusion WebUI
|
2月前
|
人工智能 Windows Python
Windows下体验Stable Diffusion 近距离感受AI魔法绘画
Windows下体验Stable Diffusion 近距离感受AI魔法绘画
71 2
|
2月前
|
人工智能 编解码 物联网
Stability AI推出新的AI图像生成模型Stable Cascade,对比 SD2.1 的算力成本降低了10倍左右!
Stability AI推出新的AI图像生成模型Stable Cascade,对比 SD2.1 的算力成本降低了10倍左右!
|
3月前
|
存储 物联网 Serverless
玩转 AI 绘图,基于函数计算部署 Stable Diffusion可自定义模型
本文主要将带大家通过使用阿里云产品函数计算 FC 和文件存储 NAS ,快速使用 Stable Diffusion 实现更高质量的图像生成,本方案内置模型库+常用插件+ControlNet ,用户可根据自己的需要更换需要的模型、Lora、增加插件。
48917 27
玩转 AI 绘图,基于函数计算部署 Stable Diffusion可自定义模型
|
16天前
|
机器学习/深度学习 人工智能 自然语言处理
AI百模大战:引领行业变革与开启人才黄金时代
AI百模大战:引领行业变革与开启人才黄金时代
|
1月前
|
机器学习/深度学习 人工智能 API
薅羊毛!阿里云免费GPU云主机畅玩AI绘画,免费领取阿里云v100显卡搭建AI绘画利器Stable Diffusion
薅羊毛!阿里云免费GPU云主机畅玩AI绘画,免费领取阿里云v100显卡搭建AI绘画利器Stable Diffusion
106 4
薅羊毛!阿里云免费GPU云主机畅玩AI绘画,免费领取阿里云v100显卡搭建AI绘画利器Stable Diffusion
|
2月前
|
存储 人工智能 NoSQL
AI艺术新境界:用Stable Diffusion插件重塑图像创造与管理
在人工智能艺术的领域,创新的火花从未停止闪耀。Stable Diffusion作为当前最为前沿的文本到图像技术之一,已经打开了艺术创作的新门户。但是,随着生成的图像数量日益增长,如何有效地管理和再创作这些作品成为了新的挑战。今天,我要为大家介绍一个我们开发的 Stable Diffusion 插件:aliyun-tablestore-tool-sd-manager-extension,它不仅提高了图像创作的效率,更带来了全新的图像管理体验。
1295 3
|
3月前
|
人工智能 自然语言处理 程序员
优刻得为智谱AI构建超千卡推理集群,让全球用户畅享大模型智能生活
在「智谱清言」的助力下,妈妈的小说创作焕发新生,她只需将自己的创意和构思输入给大模型,就可以生成自然生动的故事情节和对话;爸爸用大模型进行代码编程和调试,通过分析代码逻辑,大大减少了开发的繁琐流程,减轻了一大半的⼯作量;大模型也成为了小朋友学习上的得力助手,不仅能进行作业智能批改,还可以提供详实的解题思路,大幅提升了学习效率。
|
3月前
|
人工智能 Serverless API
AI 绘画平台难开发,难变现?试试 Stable Diffusion API Serverless 版解决方案
AI 绘画平台难开发,难变现?试试 Stable Diffusion API Serverless 版解决方案
|
机器学习/深度学习 人工智能 算法
阿里公开自研AI集群细节:64个GPU,百万分类训练速度提升4倍
从节点架构到网络架构,再到通信算法,阿里巴巴把自研的高性能AI集群技术细节写成了论文,并对外公布。
阿里公开自研AI集群细节:64个GPU,百万分类训练速度提升4倍