迁移学习「求解」偏微分方程,条件偏移下PDE的深度迁移算子学习(2)

简介: 迁移学习「求解」偏微分方程,条件偏移下PDE的深度迁移算子学习

场景一——达西流:达西定律描述了流体在给定渗透率下流过多孔介质的压力,可以用以下方程组进行数学表示:∇⋅(K(x)∇h(x))=g(x),x=(x,y)                                                                     (1)受以下边界条件约束:h(x)=0,∀x∈∂Ω,其中 K(x) 是异质多孔介质随空间变化的导水率,h(x) 是相应的水头。本研究的目标是学习等式(1)中系统的算子,它将输入随机电导率场映射到输出水头(hydraulic head);即 为了生成多个电导率场来训练 DeepONet,将 K(x) 描述为一个随机过程,其实现是通过截断的 Karhunen–Loéve 展开生成的。源模拟框是一个方形域 Ω = [0,1] ×[0,1],离散化 d = 1541 个网格点。考虑以下四种迁移学习场景:TL1:将学习从正方形域迁移到等边三角形。TL2:将学习从正方形域转移到直角三角形。TL3:将学习从正方形域迁移到具有垂直缺口的等边三角形。TL4:将学习从具有一个垂直缺口的方形域迁移到具有两个水平缺口的方形域。研究发现,任务 TL1 和 TL2 展示了该方法能够以高精度将知识从方形域转移到三角形域,即使在使用小型数据集进行训练时也是如此(见表 1)。为了测试该方法在具有挑战性的情况下的性能,考虑具有不连续性和缺口的域(任务 TL3 和 TL4)。观察到 TL-DeepONet 精度损失小于 5%,这表明即使考虑了非常不同的外部边界域,也可以用很少的标记数据预测液压头。

表 1:所有达西流问题的相对 L2 误差 (TL1–TL4)。(来源:论文)


场景二——弹性模型:考虑承受平面内载荷作用的薄矩形板,将其建模为平面应力弹性的二维问题。相关方程如下:∇⋅σ+f(x)=0,x=(x,y)                                                                                  (2)(u,v)=0,∀x=0,其中 σ 为柯西应力张量;f 是力;u(x) 和 v(x) 分别表示 x 和 y 位移;E 和 ν 分别代表材料的杨氏模量和泊松比。在平面应力条件下,应力与位移的关系定义为:将施加到板右边缘的加载条件 f(x) 建模为高斯随机场。这里的目标是学习从随机边界载荷到位移场的映射(u:x-位移和 v:y-位移),使得因此,研究人员训练 DeepONet 代理来预测两个不同的模型输出。在这个例子中,考虑以下两个 TL 场景:TL5:将学习从具有中心圆形内部边界和材料特性(ES = 300 × 10^5, νS = 0.3)的域转移到右上角和左下角具有两个较小圆形内部边界和不同材料特性(ET = 410 × 10^3, νT = 0.35)。TL6:将学习从具有中心圆形内部边界和材料特性的域 (ES = 300 × 10^5, νS = 0.3) 迁移到具有方形内部边界和不同材料特性的域(ET = 410 × 10^3, νT = 0.45) 。研究发现,所提出的 TL 框架允许多任务学习,即使源域和目标域存在不止一个方面的差异。在弹性模型中,这两个域具有不同的内部边界和不同的材料特性。对目标数据集大小的研究表明,大约 200 个样本足以模拟 TL5 中从源域到目标域的条件转移。

表 2:弹性迁移学习问题 (TL5) 的相对 L2 误差和训练成本。(来源:论文)

然而,在 TL6 中,内部边界和模型参数发生了很大程度的变化(从平滑边界到非平滑边界),TL-DeepONet 由于源模型无法捕获较低层次网络中的目标特征,导致了相对较高的误差。

表 3:弹性迁移学习问题 (TL6) 的相对 L2 误差和训练成本。(来源:论文)

场景三——Brusselator 扩散反应系统:最后,以 Brusselator 扩散反应系统为例,它描述了一种自催化化学反应,在该反应中,反应物质与另一种物质相互作用以提高其生产率。Brusselator 体系的特点是:其中ki, (i =1,2,3,4) 是代表反应速率常数的正参数。在等式 (4) 中,反应物 A 在四种额外的物质 X、B、Y 和 D 的帮助下分四步转化为最终产物 E。物质 A 和 B 大量过量,因此可以在恒定浓度下建模。二维速率方程如下:受限于以下初始条件:其中 x =(x, y) 是空间坐标;D0,D1 表示扩散系数;a={A},b = B 为常数浓度;和 u = {X}, v ={Y} 表示反应物种类 X, Y 的浓度。在过程系统工程中——目标是设计、控制和优化动力系统描述的化学物理和生物过程——迁移学习可以为学习不同场景下的系统动力学(例如,不同数量的物种、热力学性质等)提供有用的手段。在这个问题中,研究人员训练 DeepONet 来学习初始场和物种 v 的进化浓度之间的映射,即 初始场 h2(x, y) 被建模为高斯随机场。考虑以下两个迁移学习问题:TL7:将学习从阻尼振荡转移到过阻尼振荡(快速接近稳态响应)。TL8:将学习从阻尼振荡转移到周期性振荡(相空间中的极限循环)。在 TL7 中,部署了在平滑动力学上训练的源模型,用于近似高度非平滑动力学。结果表明,即使对于这种具有挑战性的动态,该框架也表现良好。对于TL7,使用自适应权重对目标域进行微调,并用于目标域的回归损失。

表 4:Brusselator 迁移学习问题(TL7 和 TL8)的相对 L2 误差和训练成本。(来源:论文)

总的来说,研究发现在解决条件分布不匹配的 PDE 问题时,转移先前获得的知识(即从模型的较低级别学习的域不变特征)和对网络的较高级别层进行优化,可以实现高效的多任务算子学习。

相关文章
|
6月前
|
机器学习/深度学习 数据采集 监控
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
机器学习-特征选择:如何使用递归特征消除算法自动筛选出最优特征?
921 0
|
6月前
【视频】什么是非线性模型与R语言多项式回归、局部平滑样条、 广义相加GAM分析工资数据|数据分享(上)
【视频】什么是非线性模型与R语言多项式回归、局部平滑样条、 广义相加GAM分析工资数据|数据分享
|
1月前
|
数据采集 机器学习/深度学习 数据可视化
过采样与欠采样技术原理图解:基于二维数据的常见方法效果对比
本文介绍了处理不平衡数据集的过采样和欠采样技术,包括随机过采样、SMOTE、ADASYN、随机欠采样、Tomek Links、Near Miss 和 ENN 等方法。通过二维数据集的可视化示例,直观展示了各种方法的原理和效果差异。文章还讨论了混合采样方法(如SMOTETomek和SMOTEENN)以及应用这些方法的潜在风险,强调了在实际应用中审慎选择的重要性。
43 3
|
6月前
【视频】什么是非线性模型与R语言多项式回归、局部平滑样条、 广义相加GAM分析工资数据|数据分享(下)
【视频】什么是非线性模型与R语言多项式回归、局部平滑样条、 广义相加GAM分析工资数据|数据分享
|
6月前
|
数据可视化
R语言非参数模型厘定保险费率:局部回归、广义相加模型GAM、样条回归
R语言非参数模型厘定保险费率:局部回归、广义相加模型GAM、样条回归
|
6月前
|
算法 Windows
R语言广义二次跳跃、非线性跳跃扩散过程转移函数密度的估计及其应用
R语言广义二次跳跃、非线性跳跃扩散过程转移函数密度的估计及其应用
|
算法 调度 决策智能
【两阶段鲁棒优化】利用列-约束生成方法求解两阶段鲁棒优化问题(Python代码实现)
【两阶段鲁棒优化】利用列-约束生成方法求解两阶段鲁棒优化问题(Python代码实现)
328 0
【两阶段鲁棒优化】利用列-约束生成方法求解两阶段鲁棒优化问题(Python代码实现)
|
6月前
|
算法 定位技术
插值、平稳假设、本征假设、变异函数、基台、块金、克里格、线性无偏最优…地学计算概念及公式推导
插值、平稳假设、本征假设、变异函数、基台、块金、克里格、线性无偏最优…地学计算概念及公式推导
161 2
|
存储 算法
PDE优化|逆问题中偏微分方程约束优化的惩罚方法(Matlab代码实现)
PDE优化|逆问题中偏微分方程约束优化的惩罚方法(Matlab代码实现)
213 0
|
存储 人工智能 算法
鲁棒优化入门(4)-两阶段鲁棒优化及行列生成算法(C&CG)超详细讲解
        鲁棒优化是应对数据不确定性的一种优化方法,但单阶段鲁棒优化过于保守。为了解决这一问题,引入了两阶段鲁棒优化(Two-stage Robust Optimization)以及更一般的多阶段鲁棒优化,其核心思想是将决策问题分为两个阶段。第一阶段是进行初步决策,第二阶段是根据第一阶段的决策结果制定更好的决策策略,应对数据不确定性的影响。这种方法可以降低保守性,提高鲁棒性。