使用 MPI_Send 和 MPI_Recv 实现 MPI_Scatter 的问题

Posted

技术标签:

【中文标题】使用 MPI_Send 和 MPI_Recv 实现 MPI_Scatter 的问题【英文标题】:Problems implementing MPI_Scatter with MPI_Send and MPI_Recv 【发布时间】:2019-03-18 17:31:36 【问题描述】:

我正在尝试使用 MPI_Send 和 MPI_Recv 实现 MPI 函数 MPI_Scatter。

我想使用函数的官方声明,它使用向量/数组的指针。

MPI_Scatter(
    void* send_data,
    int send_count,
    MPI_Datatype send_datatype,
    void* recv_data,
    int recv_count,
    MPI_Datatype recv_datatype,
    int root,
    MPI_Comm communicator)

我创建了一个与 MPI MPI_Scatter 配合使用的示例。它显示了正确的结果。

我必须发挥作用来实现这些东西,一个带有指针,一个带有整数的静态数组。第二个工作正常,但第一个只显示创建的数组的前三个元素。我认为这是与矩阵的分配内存有关的问题,但我看不到修复它的方法。

这里是代码(MMPI_Scatter 让我知道错误):

#include <stdio.h>
#include <mpi.h>
#include <stdlib.h>
#include <math.h>
#include <unistd.h>


#define ROOT 0
#define N 3

int main(int argc, char **argv) 

    // for storing this process' rank, and the number of processes
    int rank, np;  
    int *matrix;

    //MPI_Scatter
    int send_count, recv_count;
    int *recv_data;

    MPI_Status status, info;

    MPI_Init(&argc, &argv);
    MPI_Comm_size(MPI_COMM_WORLD,&np);
    MPI_Comm_rank(MPI_COMM_WORLD,&rank);


    if (rank == ROOT) 
        matrix = createMatrix(np, np);
        printArray(matrix, np * np);

    

    send_count = np;
    recv_count = np;
    recv_data = malloc(recv_count * sizeof(int));


    //The original function provided by MPI works great!!
    MPI_Scatter(matrix, send_count, MPI_INT, recv_data, recv_count, MPI_INT, ROOT, MPI_COMM_WORLD);

    //This function just show the first three elements of the matrix
    //MMPI_Scatter(matrix, send_count, MPI_INT, recv_data, recv_count, MPI_INT, ROOT, MPI_COMM_WORLD);

    //This function works great, but it not use the official declaration of the MPI_Scatter
    //MMPI_Scatter2(matrix, send_count, MPI_INT, recv_data, recv_count, MPI_INT, ROOT, MPI_COMM_WORLD);
    printArray(recv_data , recv_count);


    MPI_Finalize();
    return 0;



//http://mpitutorial.com/tutorials/mpi-scatter-gather-and-allgather/
void MMPI_Scatter(void* send_data, int send_count, MPI_Datatype send_datatype, 
                  void* recv_data, int recv_count, MPI_Datatype recv_datatype, 
                  int root, MPI_Comm communicator) 

    int np, rank;
    int i;
    MPI_Status status;
    MPI_Comm_size(communicator, &np);
    MPI_Comm_rank(communicator, &rank);

    printArray(send_data, np * np);

    if (rank == ROOT) 
        for (i = 0; i < np; i++) 
            MPI_Send(send_data + (i * send_count), send_count, send_datatype, i, 0, communicator);
        
    
    MPI_Recv(recv_data, recv_count, recv_datatype, root, 0, communicator, &status);
    printArray(send_data, np * np);



//Works great, but without pointer
void MMPI_Scatter2(int send_data[], int send_count, MPI_Datatype send_datatype, 
                   int recv_data[], int recv_count, MPI_Datatype recv_datatype, 
                   int root, MPI_Comm communicator) 

    int np, rank;
    int i;
    MPI_Status status;
    MPI_Comm_size(communicator, &np);
    MPI_Comm_rank(communicator, &rank);



    if (rank == ROOT) 
        for (i = 0; i < np; i++) 
            MPI_Send(send_data + (i * send_count), send_count, send_datatype, i, 0, communicator);
        
    
    MPI_Recv(recv_data, recv_count, recv_datatype, root, 0, communicator, &status); 
    printArray(recv_data, np);



int *createMatrix(int nRows, int nCols) 

  int *matrix;

  int h, i, j;

  if ((matrix = malloc(nRows * nCols * sizeof(int))) == NULL) 
    printf("Malloc error:");
    exit(1);
  

  //Test values 
  for (h = 0; h < nRows * nCols; h++) 
    matrix[h] = h + 1;
  

  return matrix;

更新 1:

我认为它与此链接中的信息有关: https://www.mpi-forum.org/docs/mpi-1.1/mpi-11-html/node71.html#Node71

有一行:

MPI_Send(sendbuf + i*sendcount*extent(sendtype), sendcount, sendtype, i.....)

但我不知道如何处理extend(sendtype)

更新 2:

现在可以了,但目前因为我自己知道数据类型

void MMPI_Scatter(void* send_data, int send_count, MPI_Datatype send_datatype, 
                  void* recv_data, int recv_count, MPI_Datatype recv_datatype, 
                  int root, MPI_Comm communicator) 

    int np, rank;
    int i;
    int size;

    MPI_Datatype type;
    type = MPI_INT;
    MPI_Type_size(type, &size);

    MPI_Status status;
    MPI_Comm_size(communicator, &np);
    MPI_Comm_rank(communicator, &rank);



    if (rank == ROOT) 
        for (i = 0; i < np; i++) 
            MPI_Send(send_data + ((i * send_count) * size), send_count, send_datatype, i, 0, communicator);
        
    

    MPI_Recv(recv_data, recv_count, recv_datatype, root, 0, communicator, &status);


更新 3(已解决):

void MMPI_Scatter(void* send_data, int send_count, MPI_Datatype send_datatype, 
                  void* recv_data, int recv_count, MPI_Datatype recv_datatype, 
                  int root, MPI_Comm communicator) 

    int np, rank;
    int i;
    int size;

    MPI_Datatype type;
    type = send_datatype;
    MPI_Type_size(type, &size);

    MPI_Status status;
    MPI_Comm_size(communicator, &np);
    MPI_Comm_rank(communicator, &rank);



    if (rank == ROOT) 
        for (i = 0; i < np; i++) 
            MPI_Send(send_data + ((i * send_count) * size), send_count, send_datatype, i, 0, communicator);

        
    
    MPI_Recv(recv_data, recv_count, recv_datatype, root, 0, communicator, &status);


更新 4

这个函数没问题,因为使用了ROOT,但是一旦被集体调用,ROOT必须被root替换成这样:

if (rank == root) 

【问题讨论】:

是的。两天没发现问题。 差异可能与 void* verses int* 有关。为什么是空指针?您必须指定元素的大小及其数量。 我认为尺寸是用 send_count 和 recv_count 指定的,而 void* 我认为这是有道理的,因为如果我想传递一个双精度矩阵,我的 MMPI_Scatter2 将无法工作!!! send_datatype 告诉您缓冲区的大小是什么?您正在通过 for 循环对每次迭代的指针类型进行数学运算,void*int* 的结果将有所不同。 MPI_Datatype 是否包含大小字段? 【参考方案1】:

send_data + (i * send_count) 更改为:

send_data + (i * send_count + MPI_Type_size(send_datatype)

【讨论】:

您应该接受答案,这样其他人就不会想在这里解决您的问题。 怎么样??我点击了加 1 @davisoski,点击上下箭头之间的“V”。 完成! (箭头下方)

以上是关于使用 MPI_Send 和 MPI_Recv 实现 MPI_Scatter 的问题的主要内容,如果未能解决你的问题,请参考以下文章

MPI_Recv() 冻结程序,未从 C 中的 MPI_Send() 接收值

关于MPI_Send与MPI_Recv语义

是否需要在对应的 MPI_Recv 之前调用 MPI_Send

mpi_recv 只接收 mpi_send 发送的一半数据?完全糊涂

MPI_Comm_split 与 MPI_Send / MPI_Recv 的关系

C++ 中的 MPI_Send MPI_Recv 段错误