我认为,由于MPI_Request是不透明的(在几个版本中,我认为它只是一个int),你唯一的机会就是自己监控所创建的MPI_Request。
以下是一个建议(它是面向C++的,因为这是我喜欢的方式):
#include <mpi.h>
#include <iostream>
#include <map>
struct RequestConverter
{
char data[sizeof(MPI_Request)];
RequestConverter(MPI_Request * mpi_request)
{
memcpy(data, mpi_request, sizeof(MPI_Request));
}
RequestConverter()
{ }
RequestConverter(const RequestConverter & req)
{
memcpy(data, req.data, sizeof(MPI_Request));
}
RequestConverter & operator=(const RequestConverter & req)
{
memcpy(data, req.data, sizeof(MPI_Request));
return *this;
}
bool operator<(const RequestConverter & request) const
{
for(size_t i=0; i<sizeof(MPI_Request); i++)
{
if(data[i]!=request.data[i])
{
return data[i]<request.data[i];
}
}
return false;
}
};
std::map<RequestConverter, std::string> request_holder;
extern "C"
{
int MPI_Isend(
void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm, MPI_Request *request
)
{
int ier = PMPI_Isend(buf, count, datatype, dest, tag, comm, request);
request_holder[RequestConverter(request)]="sending";
return ier;
}
int MPI_Irecv(
void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm, MPI_Request *request
)
{
int ier = PMPI_Irecv(buf, count, datatype, dest, tag, comm, request);
request_holder[RequestConverter(request)]="receiving";
return ier;
}
int MPI_Wait(
MPI_Request *request,
MPI_Status * status
)
{
int myid;
MPI_Comm_rank(MPI_COMM_WORLD, &myid);
std::cout << "waiting("<<myid<<")-> "<<request_holder[RequestConverter(request)]<<std::endl;
request_holder.erase(RequestConverter(request));
return PMPI_Wait(request, status);
}
}
RequestConverter
是使用std::map
进行无意识排序的一种方法。
MPI_Isend
将请求存储在全局映射中,MPI_Irecv
也是如此,而MPI_Wait
查找请求并从std::map
中删除它。
简单测试结果为:
int main(int argv, char ** args)
{
int myid, numprocs;
MPI_Init(&argv, &args);
MPI_Comm_size(MPI_COMM_WORLD, &numprocs);
MPI_Comm_rank(MPI_COMM_WORLD, &myid);
int i=123456789;
MPI_Request request;
MPI_Status status;
if(myid==0)
{
MPI_Isend(&i, 1, MPI_INT, 1, 44444, MPI_COMM_WORLD, &request);
MPI_Wait(&request, &status);
std::cout << myid <<' '<<i << std::endl;
}
else if(myid==1)
{
MPI_Irecv(&i, 1, MPI_INT, 0, 44444, MPI_COMM_WORLD, &request);
MPI_Wait(&request, &status);
std::cout << myid <<' '<<i << std::endl;
}
int * sb = new int[numprocs];
for(size_t i=0; i<numprocs; i++){sb[i]=(myid+1)*(i+1);}
int * rb = new int[numprocs];
MPI_Alltoall(sb, 1, MPI_INT, rb, 1, MPI_INT, MPI_COMM_WORLD );
MPI_Finalize();
}
输出:
waiting(0)-> sending
0 123456789
waiting(1)-> receiving
1 123456789
然而,我刚刚添加了一个带有MPI_Alltoall的测试,以查看是否只调用了PMPI函数,事实证明确实如此。因此,没有什么奇迹。
MPI_Request
是一个不透明的句柄,因此您不能在这个级别上区分发送和接收(也不能区分集体通信等)。如果您针对特定版本的OpenMPI,则可以使用内部的ompi_request_t
类型。请注意,您的扩展应该与Open MPI一起编写和构建。 - Gilles GouaillardetMPI_REQUEST_PML
,那么将请求转换为mca_pml_base_request_t
,并检查req_type
。 - Gilles Gouaillardet