2022云栖内容精选—AI助力新型电力系统建设

简介: 本篇内容主要分为三个部分: 1. “双碳”目标下的新型电力系统与挑战 2. 在电力预测、调度决策、虚拟电厂决策方向的创新与积累 3. 关于未来的产品展望

一、“双碳”目标下的新型电力系统与挑战


如上图所示,根据清华大学气候变化与可持续发展研究院的研究报告显示,预计2025年中国发电量构成,将以新能源为主导。


为了解决负荷与新能源功率预测技术难点,阿里云主要采取了三种有效措施。第一,引进先进新颖的大规模深度学习技术;第二,针对高温/寒潮/覆冰等极端天气的负荷预测与功率预测算法;第三,模型自学习自更新技术;第四,预测可信可解释性技术。


由于电网的预测结果会应用在很多下游任务,所以结果的准确性、可理解性、可信任度非常重要。

 

预测可解释性分析和复盘功能,能够帮助业务人员预测上报和复盘分析。精准的预测结果,可以提升预测人员自身的业务水平。目前,AI预测场景主要依赖可解释性技术,主要对未来预测和复盘归因进行解释。

 

在未来预测方面,通过解释历史,参照日负荷功率、功率与未来负荷、以及功率之间的差异,为工作人员提供可靠的预测。

 

在复盘归因方面,AI系统主要通过解释过去预测负荷、功率值与过去实际负荷、以及功率值之间的差异,为工作人员提供可靠的归因解释。

 

以山东省电网公司负荷预测项目为例,分布式光伏装机量大且增长快,分布式光伏直接并网,给母线负荷预测工作带来巨大挑战,日常人工预测效率低,给电网安全带来挑战。

通过AI预测技术,该市母线预测平均准确率达到98%。在高温负荷期间,准确率达到97.7%。预测结果的可解释性分析,通过联同Al预测,减少了预测人员上报工作耗时,从1个多小时缩减到几分钟。

除此之外,系统可以每日根据最新数据能够自动建模学习分析并部署,始终保持较高准确率。

 

另外,某新能源发电企业面临集中式光伏场站预测准确率低,场站被电网考核成本居高不下的问题,间接影响电力调度和电网安全。

集中式光伏功率预测准确率平均提升2.7%,考核电量降低53%,可有效提升场站经济效益;

每日根据最新数据自动建模学习分析并部署,始终保持较高准确率;


二、电力优化与强化学习决策平台MindGrid概览


接下来,介绍一下电力优化与强化学习决策平台MindGridMindGrid基于阿里云弹性伸缩、分布式计算以及分布式训练能力,能够支撑每日五省电网近4000+节点、1000+机组的千万次训练,突破训练时间瓶颈。在框架方面,MindGrid提供强化学习与数学规划结合框架,具备秒级安全调度决策能力。在模拟仿真环境方面,MindGrid兼容各类潮流计算BPADSP,能够精准推演实际电网运行。在底层优化能力方面,阿里云为电力定制的线性规划以及混合整数规划技术,在世界领先。

 

在业务能力验证上,云上Al实时调度智能体将强化学习与数学规划技术融合具备秒级决策能力;在平台能力验证上,MindGrid支撑第四届Al调度大赛,支撑 22 支队伍共计 110 人在 2 周内完成智能体的开发、训练、在线部属,降低了强化学习在电力调度应用门槛。


上图展示了云上实时电力调度智能体,在电网规模达到4000+拓扑节点、1000+机组能够单次强化在线推理平均小于等于0.015、训练2-3个小时收敛。阿里云通过强化+优化结合的方案,调度能力平均小于等于0.1s,完全具备秒级调度决策能力。


2022的第四届电力调度AI应用大赛中,MindGrid以平台能力支撑22支队伍共计110人在2周内完成智能体的开发、训练、在线部属。通过强化学习与数学规划结合,解决了新型电力系统调度难题。


以上是MindGrid4大特点,分别是高性能分布式计算、优化与强化结合框架、高精度模拟仿真环境、在线与离线开发环境、平台部署与训练能力。


用基于数学能力的决策智能,让虚拟电厂不仅成为试点,而是形成可复制的商业模式,为新型电力系统贡献实际价值。

 

达摩院虚拟电厂智慧运营解决方案,基于MindOpt优化求解器和建模平台,集合运筹优化与强化学习能力,利用先进算法搭建应对虚拟电厂运营核心问题的决策模型,为虚拟电厂提供集运营智能决策模型的设计、构建、运行、实验、求解于一体的智能决策中枢、作为整个虚拟电厂智慧运营的决策模型工厂,标准化模型生产底座、输入输出数据接口、定制化场景仿真模型、统一化模型运行指标、最优化模型求解能力。在云平台强化数据沉淀的基础之上,再赋予方案模型沉淀的能力,更大程度上提升方案的可复制性,可解释性。使得虚拟电厂可以获得更加长足的发展、产生更加深远的意义。

 

阿里达摩院以“云端数学”能力为邀,以期赋能具备“边端物理”建模,以及“前端应用”能力的伙伴共建虚拟电厂运营平台!


达摩院的竞标决策技术和经济调度技术能够有效解决虚拟电厂的典型问题。在竞标决策技术方面,系统能够通过“时序+XAI”,形成可解释、自学习的不同周期负荷和功率预测能力;通过“仿真+AI”,能够实现考虑机理博弈与AI的分时价格,现货价格预测;通过优化强化结合方案,能够充分考虑市场的不确定性、考虑多种交易品种、多报价出清方式,实现虚拟电厂主体参与市场的竞价决策,以及考虑机会成本以及资源利益诉求的优化调度和内部协同决策。


在虚拟电厂调度国际竞赛中,达摩院凭借自研求解器MindOpt优化能力,成功破解虚拟电厂调度难题,将能源运营成本降低29%,风险降低39%,最终获得GECCO2022国际竞赛第一名。

 

达摩院虚拟电厂运营技术,促进了新能源电力交易。它不但能够低成本构建即刻执行的交易辅助决策应用。通过效果归因评测,相同预估特征数据对比基准方案,辅助决策模型稳定提升21%,辅助决策度电收入可达最优策略度电收入87%


达摩院希望开放的能力包括可解释AI、时序预测能力、数学规划求解能力、强化学习能力、以及电网仿真推演能力。

 

在此之上,达摩院希望和合作伙伴一起构建,预测调度和交易能力,让每一度电更绿色。


上图展示了电力调度智能决策平台的基础架构,“新型调度Al认知服务平台”和“新型调度强化优化决策平台”,构成了电力调度智能决策平台,二者协同支撑电力调度生产数字化、智能化升级,实现电网稳定、绿色、高效的智慧化运行。

 

让每一度电更绿色是决策智能实验室的使命,围绕新型电力系统建设,决策智能在调度决策、新能源预测、电力交易等领域均取得了一定技术突破,并通过一些落地案例验证了业务价值。达摩院将整合以上三方面的能力,打造面向新型电力系统的优化决策平台,并开放给行业伙伴,期待携手各方共同在发、输、配、用各个环节发挥人工智能的作用,促进新能源消纳,降低社会用电成本。印卧涛号召行业+数学+机器学习+云计算各个领域的同仁携起手来,共赴新型电力系统技术挑战的星辰大海。


文章作者:印卧涛(博士)达摩院决策智能实验室主任


目录
相关文章
|
9天前
|
机器学习/深度学习 存储 人工智能
【AI系统】昇思MindSpore并行
本文介绍昇思MindSpore的并行训练技术,包括张量重排布、自动微分等,旨在简化并行策略搜索,提高大规模模型训练效率。文章探讨了大模型带来的挑战及现有框架的局限性,详细说明了MindSpore如何通过技术创新解决这些问题,实现高效的大模型训练。
58 20
【AI系统】昇思MindSpore并行
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
9天前
|
机器学习/深度学习 人工智能 分布式计算
【AI系统】混合并行
混合并行融合了数据并行、模型并行和流水线并行,旨在高效利用计算资源,尤其适合大规模深度学习模型训练。通过将模型和数据合理分配至多个设备,混合并行不仅提升了计算效率,还优化了内存使用,使得在有限的硬件条件下也能处理超大型模型。3D混合并行(DP+PP+TP)是最先进的形式,需至少8个GPU实现。此策略通过拓扑感知3D映射最大化计算效率,减少通信开销,是当前深度学习训练框架如Deepspeed和Colossal AI的核心技术之一。
55 15
【AI系统】混合并行
|
6天前
|
存储 人工智能 vr&ar
转载:【AI系统】CPU 基础
CPU,即中央处理器,是计算机的核心部件,负责执行指令和控制所有组件。本文从CPU的发展史入手,介绍了从ENIAC到现代CPU的演变,重点讲述了冯·诺依曼架构的形成及其对CPU设计的影响。文章还详细解析了CPU的基本构成,包括算术逻辑单元(ALU)、存储单元(MU)和控制单元(CU),以及它们如何协同工作完成指令的取指、解码、执行和写回过程。此外,文章探讨了CPU的局限性及并行处理架构的引入。
转载:【AI系统】CPU 基础
|
6天前
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质
|
9天前
|
存储 人工智能 PyTorch
【AI系统】张量并行
在大模型训练中,单个设备难以满足需求,模型并行技术应运而生。其中,张量并行(Tensor Parallelism, TP)将模型内部的参数和计算任务拆分到不同设备上,特别适用于大规模模型。本文介绍了张量并行的基本概念、实现方法及其在矩阵乘法、Transformer、Embedding和Cross Entropy Loss等场景中的应用,以及通过PyTorch DeviceMesh实现TP的具体步骤。
41 11
【AI系统】张量并行
|
6天前
|
机器学习/深度学习 存储 人工智能
转载:【AI系统】计算之比特位宽
本文详细介绍了深度学习中模型量化操作及其重要性,重点探讨了比特位宽的概念,包括整数和浮点数的表示方法。文章还分析了不同数据类型(如FP32、FP16、BF16、FP8等)在AI模型中的应用,特别是FP8数据类型在提升计算性能和降低内存占用方面的优势。最后,文章讨论了降低比特位宽对AI芯片性能的影响,强调了在不同应用场景中选择合适数据类型的重要性。
转载:【AI系统】计算之比特位宽
|
6天前
|
机器学习/深度学习 人工智能 算法
转载:【AI系统】关键设计指标
本文介绍了AI芯片的关键设计指标及其与AI计算模式的关系,涵盖计算单位(如OPS、MACs、FLOPs)、关键性能指标(精度、吞吐量、时延、能耗、成本、易用性)及优化策略,通过算术强度和Roofline模型评估AI模型在芯片上的执行性能,旨在帮助理解AI芯片设计的核心考量与性能优化方法。
转载:【AI系统】关键设计指标
|
6天前
|
机器学习/深度学习 人工智能 并行计算
转载:【AI系统】AI轻量化与并行策略
本文探讨了AI计算模式对AI芯片设计的重要性,重点分析了轻量化网络模型和大模型分布式并行两大主题。轻量化网络模型通过减少模型参数量和计算量,实现在资源受限设备上的高效部署;大模型分布式并行则通过数据并行和模型并行技术,解决大模型训练中的算力和内存瓶颈,推动AI技术的进一步发展。
转载:【AI系统】AI轻量化与并行策略
|
9天前
|
存储 机器学习/深度学习 人工智能
【AI系统】完全分片数据并行 FSDP
本文深入探讨了AI框架中针对权重数据、优化器数据和梯度数据的分布式并行实现,特别是在PyTorch框架下的具体方案。文章首先回顾了通用数据并行和分布式数据并行的概念,重点讨论了同步与异步数据并行的差异。接着,文章详细介绍了如何在PyTorch中实现弹性数据并行,特别是完全分片数据并行(FSDP)的机制,包括其如何通过分片模型状态和剩余状态来减少内存消耗,提高训练效率。此外,文章还探讨了混合精度训练、损失缩放和内存消耗估算等关键技术,为理解和实施高效的分布式训练提供了全面的指导。
31 9
【AI系统】完全分片数据并行 FSDP