FLUENT并行计算过程计算节点上的数据汇总时,MPI交换数据的大小有限制么?
浏览:2000
1.我的目的是,尝试将fluent并行计算过程中的3个计算节点的某些数据汇总到计算节点0,MPI用的是默认的PCMPI(platform mpi)
2.我照着官方UDF上的案例进行修改,目前发现不能声明新的数组,是利用calloc()动态分布的,一声明就出错。MPI的提示错误信息为:
D:\Program Files\ANSYS Inc\v160\fluent\fluent16.0.0\win64\3ddp_node\fl_mpi1600.exe: Rank 0:1: MPI_Send: Invalid buffer pointer
D:\Program Files\ANSYS Inc\v160\fluent\fluent16.0.0\win64\3ddp_node\fl_mpi1600.exe: Rank 0:2: MPI_Send: Invalid buffer pointer
MPI Application rank 0 exited before MPI_Finalize() with status 2
3、我现在很困惑,这到底是哪方面的错误,如果有了解的大佬接触过这方面的内容,望给些指点,因为个人没学过这个编程和MPI方面的东西,所以说的可能有限乱,请见谅。