FLUENT并行计算过程计算节点上的数据汇总时,MPI交换数据的大小有限制么?

浏览:2000

1.我的目的是,尝试将fluent并行计算过程中的3个计算节点的某些数据汇总到计算节点0,MPI用的是默认的PCMPI(platform mpi)

2.我照着官方UDF上的案例进行修改,目前发现不能声明新的数组,是利用calloc()动态分布的,一声明就出错。MPI的提示错误信息为:

D:\Program Files\ANSYS Inc\v160\fluent\fluent16.0.0\win64\3ddp_node\fl_mpi1600.exe: Rank 0:1: MPI_Send: Invalid buffer pointer

D:\Program Files\ANSYS Inc\v160\fluent\fluent16.0.0\win64\3ddp_node\fl_mpi1600.exe: Rank 0:2: MPI_Send: Invalid buffer pointer

MPI Application rank 0 exited before MPI_Finalize() with status 2

3、我现在很困惑,这到底是哪方面的错误,如果有了解的大佬接触过这方面的内容,望给些指点,因为个人没学过这个编程和MPI方面的东西,所以说的可能有限乱,请见谅。


邀请回答 我来回答

当前暂无回答

回答可获赠 200金币

没解决?试试专家一对一服务

换一批