MPI_Type_create_subarray and MPI_Send

3

这是我在stackoverflow上的第一个问题。我有两个进程,一个根进程0和一个从属进程1。从属进程分配了一个2D数组(CHUNK_ROWS+2,CHUNK_COLUMNS+2),并想要发送一个[CHUNK_ROWS] [CHUNK_COLUMNS]子数组。根进程分配了一个2D数组(ROWS,COLUMNS),并接收想要存储从ddd [0] [0]开始的子数组,并将其打印出来。但是我得到的结果是错误的。为什么呢? 我知道这是无意义的代码,但它只是一个简单的程序,应该帮助我更复杂的项目。 以下是代码:

#include <mpi.h>
#include <iostream>
using namespace std;

#define ROWS 10
#define COLUMNS 10
#define CHUNK_ROWS 5
#define CHUNK_COLUMNS 5
#define TAG 0

int** alloca_matrice(int righe, int colonne)
{
int** matrice=NULL;
int i;

// per allocare la matrice devo fare in questo modo al fine di avere le righe contigue in memoria
// e poter così utilizzare il tipo 'colonna' che definisco con MPI_Type_Vector()
matrice = (int **)malloc(righe * sizeof(int*));

if(matrice != NULL){
    matrice[0] = (int *)malloc(righe*colonne*sizeof(int));
    if(matrice[0]!=NULL)
        for(i=1; i<righe; i++)
            matrice[i] = matrice[0]+i*colonne;
    else{
        free(matrice);
        matrice = NULL;
    }
}
else{
    matrice = NULL;
}
return matrice;
}


int main(int argc, char* argv[])
{

int my_id, numprocs,length,i,j;
int ndims, sizes[2],subsizes[2],starts[2];
int** DEBUG_CH;
int** ddd;
char name[BUFSIZ];
MPI_Datatype subarray;
MPI_Status status;
MPI_Init(&argc, &argv) ;                    // Chiamata obbligatoria di inizializzazione    
MPI_Comm_rank(MPI_COMM_WORLD, &my_id) ;     // Ottiene l'identificativo del processo
MPI_Comm_size(MPI_COMM_WORLD, &numprocs) ;  // Ottiene quanti processi sono attivi
MPI_Get_processor_name(name, &length);      // Il nome del nodo dove il processo ? in esecuzione



if(my_id==1){
    //creo una sottomatrice ripulita dalle ghost cells
    ndims=2;
    sizes[0] = CHUNK_ROWS+2;
    sizes[1] = CHUNK_COLUMNS+2;
    subsizes[0] = CHUNK_ROWS;
    subsizes[1] = CHUNK_COLUMNS;
    starts[0] = 1;
    starts[1] = 1;
    MPI_Type_create_subarray(ndims,sizes,subsizes,starts,MPI_ORDER_C,MPI_INT,&subarray);
    MPI_Type_commit(&subarray);

    DEBUG_CH = alloca_matrice(CHUNK_ROWS+2,CHUNK_COLUMNS+2);
    for(i=0; i<CHUNK_ROWS+2; i++){
        for(j=0; j<CHUNK_COLUMNS+2; j++){
            if(i==0 || i==CHUNK_ROWS+1 || j==0 || j==CHUNK_COLUMNS+1)
                DEBUG_CH[i][j] = 5;
            else
                DEBUG_CH[i][j] = 1;
        }
    }
    MPI_Send(DEBUG_CH,1,subarray,0,TAG,MPI_COMM_WORLD);
    MPI_Type_free(&subarray);
}
if(my_id==0){
    //creo una sottomatrice ripulita dalle ghost cells
    ndims=2;
    sizes[0] = ROWS;
    sizes[1] = COLUMNS;
    subsizes[0] = CHUNK_ROWS;
    subsizes[1] = CHUNK_COLUMNS;
    starts[0] = 0;
    starts[1] = 0;
    MPI_Type_create_subarray(ndims,sizes,subsizes,starts,MPI_ORDER_C,MPI_INT,&subarray);
    MPI_Type_commit(&subarray);

    ddd = alloca_matrice(ROWS,COLUMNS);
    MPI_Recv(ddd[0],1,subarray,1,TAG,MPI_COMM_WORLD,&status);
    MPI_Type_free(&subarray);
    for(i=0; i<CHUNK_ROWS; i++){
        for(j=0; j<CHUNK_COLUMNS; j++){
            printf("%d ",ddd[i][j]);
        }
        printf("\n");
    }
}
MPI_Finalize();                             // Chiusura di MPI.
return 0;
}

提前感谢您。

1个回答

2
恭喜你,你的代码几乎完美,MPI_Send中只有一个愚蠢的错误,而在MPI_Recv中你做对了。
对于发送操作,你写的是:
MPI_Send(DEBUG_CH,1,subarray,0,TAG,MPI_COMM_WORLD);

相比之下,对于Recv操作,您需要

MPI_Recv(ddd[0],1,subarray,1,TAG,MPI_COMM_WORLD,&status);

第二种方法是正确的。您需要发送指向数据开始位置的指针;这不是DEBUG_CH,它是一个指向int指针的指针,而是&(DEBUG_CH [0] [0]),或等效地,DEBUG_CH [0],就像您对ddd所做的那样。

谢谢Jonathan。它有效了!现在我已经编辑了我的问题,有一个类似的问题。也许这不是使用stackoverflow的正确方式。我正在努力学习。 - Riff
最好把它作为第二个帖子发布,因为现在它是一个明显不同的问题。 - Jonathan Dursi

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接