一种翼伞流固耦合并行计算方法技术

技术编号:32776057 阅读:18 留言:0更新日期:2022-03-23 19:32
本发明专利技术公开了一种翼伞流固耦合并行计算方法,包括:流场计算节点按照空间背景网格的网格点原始顺序读取各自的初始局部网格信息,采用ParMETIS进行流场网格并行分区,采用MPI进行数据传递使各计算节点得到实际的网格分区信息,各计算节点内部使用METIS进行节点内的网格分区,采用OpenMP并行建立流场模拟所需的几何信息;固体前处理采用类似的处理方式;流场计算采用浸入边界法求解可压缩Navier

【技术实现步骤摘要】
一种翼伞流固耦合并行计算方法


[0001]本专利技术涉及流固耦合数值模拟技术,尤其是一种翼伞流固耦合并行计算方法。

技术介绍

[0002]当前,翼伞作为先进降落伞的一种形式,具有高升阻比和良好的操纵特性,成为航空航天领域一项重要的气动减速装置,在精确空降空投等方面发挥着不可或缺的作用。随着航空航天技术要求的不断提高,对于翼伞的性能也提出了更高的要求,因此需要进一步发展翼伞的先进设计、分析和计算方法。
[0003]与传统的降落伞类似,翼伞由柔性织物材料组成,初期以折叠状态被投放,然后在空中进行充气展开,发生非定常大变形,并且其气动特性也经历了大幅变化。充气完成以后,其姿态和速度将逐渐达到平衡状态,进入稳定滑翔状态,最后通过减速雀降实现精确、安全着陆。
[0004]在翼伞的工作过程中,翼伞发生了巨大的结构变形,不但影响着周围流场同时也受到流场的作用,即存在着非常复杂的流固耦合现象。对于这类问题,空投试验能够精确地提供翼伞的真实性能,但其价格高昂也费时费力。因此,以计算流体力学和结构动力学为基础的数值模拟方法作为翼伞的研究手段得到越来越多的应用,发挥着越来越重要的作用。
[0005]虽然计算机技术的飞速发展为翼伞流固耦合数值模拟提供了硬件基础,但进行流固耦合模拟的计算量仍然是一项巨大的挑战。因此需要结合翼伞“零厚度”、大变形的特性,深入研究合适的流固耦合并行方法,实现高效准确的翼伞流固耦合计算分析。

技术实现思路

[0006]为了高效数值模拟翼伞的大变形非定常流固耦合过程,本专利技术提供了一种翼伞流固耦合并行计算方法,以MPI+OpenMP混合分布式并行方式充分利用当前多核CPU集群的硬件环境,为高效准确地求解翼伞流固耦合问题提供有效的方法。
[0007]为了实现上述目的,本专利技术提供的技术方案是:一种翼伞流固耦合并行计算方法,包括如下步骤:
[0008]步骤一,根据需求确定流场计算节点数、流场计算节点内部的线程数、固体计算节点数和固体计算节点内部的线程数;
[0009]步骤二,所有流场计算节点以及固体计算节点分别同时读取流场空间背景网格文件,每个流场计算节点以及固体计算节点的一个进程按照网格点顺序读取各自节点的初始网格信息;
[0010]步骤三,每个流场计算节点以及固体计算节点分别根据初始局部网格点读取相关的空间背景网格单元信息,生成所需的拓扑信息,调用ParMETIS进行分布式并行网格分区;
[0011]步骤四,根据网格分区结果,各流场计算节点以及固体计算节点分别采用MPI传输网格信息,建立相应的几何和拓扑关系;
[0012]步骤五,每个流场计算节点以及固体计算节点分别调用METIS进行节点内的串行
网格分区;
[0013]步骤六,流场计算节点以及固体计算节点内的每个线程采用OpenMP并行建立每个分区的几何关系,包括计算dualmesh的体积、法向矢量几何信息,进行网格重排序,并进行几何验证;
[0014]步骤七,分别建立流场计算节点之间以及固体计算节点之间的数据传输关系,所述数据传输关系用于流场计算时的MPI通讯;
[0015]步骤八,建立流固耦合所需的数据传输关系;
[0016]步骤九,进行流固耦合计算;其中,在流固耦合计算过程中采用浸入边界法求解可压缩Navier

Stokes方程,翼伞壁面采用局部一维半Riemann问题计算壁面通量,流场计算节之间以及固体计算节点之间采用MPI进行数据传输,流场计算节以及固体计算节点内部采用OpenMP进行粗粒度并行。
[0017]作为优选的一种技术方案,所述步骤一中的流场计算节点数、固体计算节点数、流场计算节点以及固体计算节点内部的线程数为大于等于1的正整数。
[0018]作为优选的一种技术方案,所述步骤二中各流场计算节点以及固体计算节点只读取自身的初始网格信息,无需主节点处理全局网格信息。
[0019]作为优选的一种技术方案,所述步骤三中的并行网格分区,采用ParMETIS的图分区方式进行分布式并行网格分区,并保证每个分区内部连续。
[0020]作为优选的一种技术方案,所述步骤五中的每个流场计算节点以及固体计算节点内的网格分区,每个流场计算节点以及固体计算节点根据节点内部的线程数采用METIS的图分区进行串行网格分区,并保证每个分区内部连续。
[0021]作为优选的一种技术方案,所述步骤八的固体计算采用不同于的流场计算节点的独立计算节点,翼伞采用有限元表面网格离散,计算节点之间采用ParMETIS进行分布式并行分区,固体计算节点内部采用METIS进行串行分区,所有线程计算局部几何信息。
[0022]作为优选的一种技术方案,所述步骤九的MPI数据传输采用非阻塞式通讯,用于通讯和计算重叠。
[0023]作为优选的一种技术方案,所述流场计算节点和固体计算节点之间采用MPI进行数据传输。
[0024]作为优选的一种技术方案,所述流场和固体计算节点分别采用单独的程序,通过MPI在不同程序之间进行数据传递实现耦合。
[0025]本专利技术相对于现有技术的有益效果是:
[0026](1)本专利技术以MPI+OpenMP混合并行方式充分利用多核CPU集群的硬件环境,可高效求解翼伞大变形非定常流固耦合问题;
[0027](2)本专利技术对于节点数目和节点内的线程数没有直接限制,仅受计算硬件环境和操作系统的限制;
[0028](3)本专利技术对于翼伞结构和空间流场没有限制,具有广泛的适用性;
[0029](4)本专利技术中流场计算和固体计算分别采用单独的程序,而通过MPI进行数据耦合交换,效率高于文件读写方式的数据交换。
附图说明
[0030]图1是本专利技术提供的一种翼伞流固耦合并行计算方法的流程图。
具体实施方式
[0031]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本专利技术的一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0032]参照图1,本实施例提供一种翼伞流固耦合并行计算方法,具体包括以下步骤:
[0033]步骤一,指定流场计算节点数、流场计算节点内部的线程数、固体计算节点数和固体计算节点内部的线程数,计算节点数和计算节点内部的线程数没有直接限制,一般流场计算节点数多于固体计算节点数,节点内部线程数设置为节点内的物理CPU核心数;
[0034]步骤二,在前处理阶段,所有流场计算节点同时读取流场空间背景网格文件,每个计算节点的一个进程按照空间背景网格的原始顺序读取各自节点的初始网格信息,即按照网格点的原始顺序将空间背景网格平均分配给所有流场计算节点,空间背景网格采用非结构四面体;
[0035]步骤三,每个计算节点根据读取的网格点数据读取所需的空间背景网格单元信息,生成所需的拓本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种翼伞流固耦合并行计算方法,其特征在于,包括如下步骤:步骤一,根据需求确定流场计算节点数、流场计算节点内部的线程数、固体计算节点数和固体计算节点内部的线程数;步骤二,所有流场计算节点以及固体计算节点分别同时读取流场空间背景网格文件,每个流场计算节点以及固体计算节点的一个进程按照网格点顺序读取各自节点的初始网格信息;步骤三,每个流场计算节点以及固体计算节点分别根据初始局部网格点读取相关的空间背景网格单元信息,生成所需的拓扑信息,调用ParMETIS进行分布式并行网格分区;步骤四,根据网格分区结果,各流场计算节点以及固体计算节点分别采用MPI传输网格信息,建立相应的几何和拓扑关系;步骤五,每个流场计算节点以及固体计算节点分别调用METIS进行节点内的串行网格分区;步骤六,流场计算节点以及固体计算节点内的每个线程采用OpenMP并行建立每个分区的几何关系,包括计算dualmesh的体积、法向矢量几何信息,进行网格重排序,并进行几何验证;步骤七,分别建立流场计算节点之间以及固体计算节点之间的数据传输关系,所述数据传输关系用于流场计算时的MPI通讯;步骤八,建立流固耦合所需的数据传输关系;步骤九,进行流固耦合计算;其中,在流固耦合计算过程中采用浸入边界法求解可压缩Navier

Stokes方程,翼伞壁面采用局部一维半Riemann问题计算壁面通量,流场计算节之间以及固体计算节点之间采用MPI进行数据传输,流场计算节以及固体计算节点内部采用OpenMP进行粗粒度并行。2.根据权利要求1所述的翼伞流固耦合并行计算方法,其特征在于:所述步骤一中的流场计算节点数、固体计算节点数、流场计算节点以及固体计算节点内部的线程数为大于等于1的正整数。3.根据权...

【专利技术属性】
技术研发人员:ꢀ七四专利代理机构
申请(专利权)人:航宇救生装备有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1