目前的好消息是我们有了一种 DL 方法,可以通过最小化残差,以软约束的形式包含物理定律。不过,正如前面那个非常简单的例子所示,这只是一个概念上的起点。

积极的一面是,我们可以利用反向传播的 DL 框架来计算模型的导数。与此同时,这也使我们在这些导数的可靠性方面受到所学表示法的支配。而且,每个导数都需要通过整个网络进行反向传播。这可能会非常昂贵,尤其是对于高阶导数。

虽然设置相对简单,但通常很难控制。NN 可以灵活地自行完善求解,但同时,当它不能专注于求解的正确区域时,就需要一些技巧。

6.1 这算是“机器学习”吗?

说到这里,大家可能还会想到一个问题:我们真的可以称它为机器学习吗?当然,这样的命名问题是肤浅的--如果一种算法是有用的,那么它叫什么名字并不重要。不过,在这里,这个问题有助于强调机器学习或优化等领域的算法通常具有的一些重要特性。

不把上一个笔记本的优化称为机器学习(ML)的一个主要原因是,我们测试和限制解的位置就是我们感兴趣的最终位置。因此,训练集、验证集和测试集之间没有真正的区别。为已知和给定的样本集计算解更类似于经典优化,而之前的Burgers例子等逆问题就源于经典优化。

对于机器学习而言,我们通常会假设模型的最终性能将在不同的、可能未知的输入集上进行评估。测试数据通常应能捕捉到这种超出分布范围(OOD)的行为,这样我们就能对模型在 "真实世界 "中的泛化程度做出估计,而这些 "真实世界 "是我们在应用中部署模型时会遇到的。

与此相反,在本文所述的 PINN 训练中,我们在已知和给定的时空区域内重建一个单一的解。因此,来自该区域的任何样本都遵循相同的分布,因此并不能真正代表测试或 OOD 样本。由于 NN 直接对解法进行编码,因此它几乎不可能产生不同的解法,也不可能在训练范围之外表现出色。如果我们对不同的解感兴趣,就必须从头开始训练 NN。

6.2 总结

因此,通过物理软约束,我们可以利用 NN 工具对 PDE 的解进行编码。这种变式 2 的一个固有缺点是只能得到单一的解,而且不能很好地与传统的数值技术相结合。例如,学习到的表征不适合用共轭梯度法等经典迭代求解器来完善。

这意味着过去几十年中开发的许多强大技术无法在此背景下使用。让这些数值方法重新发挥作用,将是接下来几节的核心目标之一。

✅ 优点:

  • 使用物理模型。
  • 可以通过反向传播方便地计算导数。

❌ 缺点:

  • 相当缓慢......
  • 物理约束仅作为软约束施加。
  • 在很大程度上与经典数值方法不兼容。
  • 导数的准确性依赖于学习到的表示。

为了解决这些问题,我们接下来将研究如何利用现有的数值方法,通过使用可微分求解器来改进 DL 流程。