吾生有涯 学海无涯
析模有界 知识无界

机器学习与CFD的结合(01)

机器学习为计算流体动力学的发展提供了诸多机遇,并迅速成为科学计算的基础工具。本文聚焦于该领域中几个最具潜力的几个方面,包括提升湍流闭合理论、加速直接数值模拟,以及构建更为优化的低阶模型。此外,本文还探讨了计算流体动力学中机器学习的若干新方向,并指出了应关注的潜在不足之处。

1 计算流体动力学的关键问题

计算流体动力学(CFD)专注于流体流动的数值模拟,在科学研究及各类工业应用中扮演着关键角色。流体流动的基本控制方程为纳维-斯托克斯方程,这些偏微分方程(PDEs)阐述了牛顿流体中质量与动量守恒定律。

纳维-斯托克斯方程因其对流加速度而呈现非线性特征,这种非线性在特定条件下将会引发被称为湍流的混沌现象。湍流以速度与压力的不规则、看似随机的波动为特征。

解析纳维-斯托克斯方程特别是涉及湍流的部分充满挑战。湍流涉及非常宽广的空间和时间尺度,需要采用复杂的数值方法。模拟湍流过程极为耗费计算资源,某些高雷诺数情形下甚至难以实现。高雷诺数意味流体中有高度湍流且流动复杂。

目前为求解纳维-斯托克斯方程使用了多种数值方法,这些方法各具优缺点,常见的有有限差分法、有限体积法、有限元法、以及谱方法等。选择何种方法,取决于具体问题的特征。

湍流的模拟可依据保真度与计算成本的不同需求进行多样化的实现。当前,已有多种湍流模型供选用,这些模型从简至繁各异。以1-方程及2-方程模型为例,它们涵盖了湍流速度尺度(或相关的湍流动能)的微分输运方程,而在特定领域还包括长度尺度的输运方程。这些模型在实施时引入了Boussinesq假设,它将湍流粘度与基于气体动力学理论的对应量(虽依赖于流场,但并非流动属性)相联系,并通过平均应变与雷诺应力相关联。简言之,几乎所有湍流现象皆基于模型,此举并不失合理性。此外,尽管在模型适用范围之外,如升力或特定载荷的估算等关键方面有时也能达到可接受精度,但也需明白在RANS模拟中无法真正捕捉高分辨率的湍流细节。

RANS在模拟强不稳定和非稳流时性能较差,研究者们转向大涡模拟(LES)。大涡模拟(LES)求解大能量尺度,并使用亚格子尺度(SGS)模型来模拟未解析的微小尺度的影响,该模型因其普遍性而被定制。在近壁面区域,LES存在严重局限性,因为可靠地模拟边界层最内部分所需的计算量(可能占网格的90%以上)超过了行业的资源能力。估计显示,对于高雷诺数飞行器的全面LES仿真可能在2050年之前都无法实现。然而,在非常不稳定、以涡流为主导的流动中,物理现象主要由大规模涡旋产生的情况下,LES可能是经济且有效的。

对流动现象的全面描述蕴含在一个简单的方程组中,即Navier-Stokes方程(纳维-斯托克斯方程),其性质使得即使是简单的湍流流动也难以获得解析解,目前似乎只能依赖数值求解。

然而,直接数值描述方程的灵活性是一把双刃剑,因为这种描述的可用性与一个无量纲数直接相关,该数反映了动量相对于流动速度(在横流方向)和相对于物体的边界层厚度的扩散程度——即Reynolds Number(雷诺数)。研究发现,在Direct Numerical Simulation (DNS)(直接数值模拟)中,计算纳维-斯托克斯方程所需的计算量随雷诺数的9/4次方增加,这使得大多数实际工程应用中的此类计算变得不切实际,至少在可预见的未来是这样。直接数值模拟的使用范围因此局限于较简单的几何结构和有限的雷诺数范围,目的是提供实验室中无法获得的湍流物理学重要见解。

2 计算流体力学与机器学习

将复杂流体流动模拟中的困难的一个潜在解决方案是将计算流体力学(CFD)与机器学习(ML)结合。CFD只是众多科学和技术领域之一,这些领域因当前的机器学习革命,尤其是深度学习的兴起而获得了新的机遇。以下是一些关于在流体动力学中整合机器学习的重要思想。

机器学习是人工智能(AI)的一个分支,其目标是创建能够识别数据中的模式并预测结果而无需依赖显式数学模型的算法。

深度学习是一种机器学习的子类型,通常使用具有多个隐藏层的神经网络(NNs)。由于其结构设计,深度神经网络能够构建数据的分层表示,捕捉具体和抽象的关系。

深度神经网络的分层学习能力与许多物理问题的分层结构一致,例如流体动力学问题。由于在CFD中,湍流和复杂相互作用发生在多个尺度上,深度学习捕捉分层特征的能力可能非常有用。

机器学习,尤其是深度学习,在数据量丰富的情况下表现出色。在CFD的背景下,可以通过模拟或实验观察生成大量数据集,机器学习模型可以学习流体流动中固有的复杂模式和关系。

计算流体动力学(CFD)中机器学习(ML)技术的应用:

机器学习技术可以用于加速仿真、增强湍流建模以及提高降阶模型的精度。例如,神经网络可以用来预测湍流粘度、自适应网格分辨率或实时优化控制策略。

机器学习提供了一种数据驱动的方法,使模型能够根据输入数据中观察到的模式进行适应和泛化。这在基础物理复杂且难以用传统模型捕捉的情况下尤其有价值。

然而,尽管机器学习带来了令人兴奋的可能性,但诸如可解释性、数据质量和计算资源等挑战仍需解决。理解机器学习预测背后的物理意义并确保训练模型的可靠性是必须考虑的问题。

3 展望:机器学习在CFD中的协同整合

1、加速直接数值模拟

一种方法是使用深度学习来估计低分辨率网格中的空间导数。该技术已被证明优于标准的有限差分方法。深度学习捕捉数据中复杂关系的能力使得空间导数的估计更加准确,这对于数值仿真至关重要。

另一项研究集中在增强五阶有限差分格式的结果,特别是在激波捕捉仿真中。这展示了机器学习在优化现有数值方法以应对特定挑战(如准确捕捉激波)方面的灵活性。

2、使用深度学习求解压力泊松方程来加速CFD

多个研究小组探索了使用深度学习通过求解泊松方程来加速计算流体力学(CFD)。泊松方程常用于离散化Navier–Stokes方程的算子分裂方法中。在不可压缩流的背景下,由对流步骤得到的速度场可能不满足无散度条件。上述方法可以视为一种简单的算子分裂方法,其中分别考虑了粘性力(在前半步)和压力力(在后半步)。第一个方程求解得到一个不是无散度的中间速度场(从计算的角度来看,不应期望从一开始就得到一个无散度场)。

第二个方程将被转换为压力-泊松方程 (PPE),其解可以允许通过本质上是Leray projector的方法提取出无散度的速度场。机器学习可以用于这项任务,因为这项技术可以利用以往示例的数据,找到未经修正的速度散度与其导致的压力场之间的映射关系。例如,有研究者提出采用卷积神经网络(CNN)在不可压缩模拟中求解PPE,并在羽流结构中进行了测试。其结果显示,在许多配置下,使用此方法有可能以良好的准确性超越传统的Jacobi求解器。

3、减小计算域尺寸作为加速数值模拟的有效策略

减少计算域尺寸是加速数值模拟的有效策略之一,机器学习(ML)在开发高效的入口条件和远场条件方面可以发挥关键作用:

  1. 用ML处理入口条件
    • 为了减小计算域大小,Fukami等开发了一种用于壁面湍流模拟的面向时间的入口生成器,其采用了一个卷积自编码器与多层感知机相结合的模型。卷积自编码器是一种神经网络架构,专门设计用于对数据中的空间模式进行编码和解码。
    • 机器学习模型经过训练,能够生成逼真的入口条件,适用于壁面湍流模拟。通过使用自编码器,模型从训练数据中学习了入口条件的关键特征,使其能够在模拟过程中生成时间依赖的入口条件。
    • 这种方法特别有前景,因为其克服了传统入口生成方法中的局限性,提供了在各种流体几何和雷诺数条件下的更大通用性。
  2. 远场条件与边界条件
    • 除了入口条件外,ML还可以用于开发远场条件。通过用ML确定或增强的合适边界条件替代部分远场区域,进一步减少了计算需求。
    • ML模型可以学习近场和远场区域之间的关系,使不计算区域的条件能够准确预测。这通过避免不必要的区域模拟,从而实现了显著的计算节省。

使用ML处理入口和远场条件的研究方向被视为很有潜力。Fukami等人开发的方法在湍流通道流动中进行了测试,结果显示能够维持足够长的湍流间隔以获取收敛的湍流统计量。克服入口条件的通用性限制是一项重要的进展,这使得由ML驱动的入口和远场条件成为了在多样化流动几何和雷诺数条件下模拟的宝贵工具。

4、改进湍流模型

由于计算所有尺度的高雷诺数流动所带来的计算负担以及复杂几何形状带来的挑战,DNS对于许多实际应用来说并不实际。工业计算流体动力学通常使用粗分辨率的大涡模拟(LES),该方法仅表示较小的湍流尺度并解析较大的湍流尺度,或使用雷诺平均纳维-斯托克斯(RANS)模型,该模型完全不模拟任何湍流尺度。在此背景下,“model”一词指的是对特定湍流尺度范围内的物理现象的先验假设。

以下主要讨论机器学习对RANS建模的影响:

  1. 用于提高各向异性预测的新型架构

    • Ling等人提出了一种具有不变张量基和乘法层的独特的机器学习架构。与基于线性和非线性涡粘度模型的传统RANS模型相比,此设计通过在预期的各向异性张量中嵌入伽利略不变性来提高性能。
    • 该新方法在波状壁面流动和湍流管道流动中进行了评估,这些流动因为二次流的存在,采用RANS模型存在挑战。
  2. 用于RANS模型的物理信息随机森林

    • 一些机器学习技术利用具有物理知识的随机森林来增强RANS模型,尤其是求解分离和二次流时。为了提高ML模型的预测能力,必须将基于物理的约束条件纳入模型中。
  3. PiResNet:用于可解释的RANS建模的物理信息的残差网络

    • Jiang等人开发了一种名为PiResNet的可解释框架用于RANS建模。该方法包括两个模块,以推断湍流物理的结构和参数表示,包括非唯一映射、可实现性限制器和抗噪声性约束。
    • 可解释的RANS模型在工程和物理学中至关重要,PiResNet旨在提供对模型预测的透明理解。
  4. 用于可解释RANS模型的基因表达编程(GEP)

    • 建议使用基因表达编程(GEP),这是进化计算的一个子领域,构建可解释的RANS模型。GEP通过不断改进候选解的群体来生成闭合形式模型。
  5. 用于RANS封闭模型的非线性动力学稀疏辨识(SINDy)

    • 在RANS闭合模型中,已使用了非线性动力学稀疏辨识(SINDy)。SINDy是一种方法,通过在数据中找到非线性动力学的稀疏表示来帮助创建有效的闭合模型。
  6. 使用ML加速RANS模拟:

    • 卷积神经网络(CNN)模型与CFD求解器迭代相结合,提供了一种加速RANS模拟收敛的方法。结果表明能够显著加快收敛时间。

原文地址:https://cfdisraelblog.com/2024/01/19/the-integration-of-machine-learning-ml-into-cfd-part-i/


(完)

本篇文章来源于微信公众号: CFD之道

赞(0) 打赏
版权声明:未经允许,请勿随意用于商业用途。
文章名称:《机器学习与CFD的结合(01)》
文章链接:https://www.topcfd.cn/40239/
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。
分享到

说两句 抢沙发

评论前必须登录!

 

觉得文章有用就打赏一下文章作者吧

非常感谢你的打赏,我们将继续给力更多优质内容,让我们一起创建更加美好的网络世界!

支付宝扫一扫

微信扫一扫

登录

找回密码

注册