linux并行计算环境搭建与使用,Windows和Linux系统下并行计算环境MPI和OpenMP的搭建...

windows平台下在Visual Studio2019配置MPI环境

MPI下载安装

项目配置

右击项目->属性,进行配置:

右上角->配置管理器->活动解决方案平台,选择:x64;

VC++目录->包含目录,添加:“C:\Program Files (x86)\Microsoft SDKs\MPI\Include;”

VC++目录->库目录,添加:“C:\Program Files (x86)\Microsoft SDKs\MPI\Lib\x64;”

C/C++ -> 预处理器->预处理器定义,添加:“MPICH_SKIP_MPICXX;”

C/C++ -> 代码生成 -> 运行库,选择:多线程调试(/MTd);

链接器 -> 输入 -> 附加依赖项,添加:“msmpi.lib;”

至此,环境就配好了,接下来就可以开始编程了。

测试

项目源文件下,新建.cpp文件,写入以下代码:

#include

#include

int main(int argc, char* argv[]) {

int myid, numprocs;

MPI_Init(&argc, &argv);

MPI_Comm_rank(MPI_COMM_WORLD, &myid);

MPI_Comm_size(MPI_COMM_WORLD, &numprocs);

printf("%d Hello world from process %d \n", numprocs, myid);

MPI_Finalize();

return 0;

}

让我们来分析一下上面的代码:

对于SPMD编程,程序员必须知道(1)进程编号,(2)多少个进程,(3)进程通信

那么MPI久提供了下列函数来回答这些问题:

用MPI_Comm_size 获得进程个数p:

int MPI_Comm_size(MPI_Comm comm, int *size)

用MPI_Comm_rank 获得进程的一个叫rank的值,该rank值为0到p-1间的整数,相当于进程的ID

int MPI_Comm_rank(MPI_Comm comm, int *rank)

通信组/通信子: MPI_COMM_WORLD

一个通信组是一个进程组的集合。所有参与并行计算的进程可以组合为一个或多个通信组。

执行MPI_Init后,一个MPI程序的所有进程形成一个缺省的组,这个组被写作MPI_COMM_WORLD

该参数是MPI通信操作函数中必不可少的参数,用于限定参加通信的进程的范围

下面我们来运行一下,看看结果:

在控制台该项目(这里的项目名称mpi_test)下的x64/Debug文件目录下打开cmd命令行窗口(Shift+鼠标左键,选择'在此处打开Powershell窗口',输入start cmd),输入mpiexec -n 10 test.exe。

运行结果如下图:

Linux下配置MPI编程环境-Ubuntu 18.04

终端配置过程

在终端上先找到文件所在位置:sudo tar -zxvf mpich-3.3.2.tar.gz

解压完毕,使用ls命令查看便可发现多出了一个mpich-3.3.2目录, 然后进入该目录:cd mpich-3.3.2

使用ls查看,会发现其中有configure这个文件。

运行命令./configure -prefix=/usr/local/mpich进行软件配置与检查,这里我们只设置安装目录即可。注:prefix参数是表示安装路径。

可能会报错error: no acceptable C compiler found in $PATH

要先使用命令sudo apt-get install build-essential安装好需要的编译器

然后make && make install进行安装

然后配置环境变量

Windows系统下OpenMP配置

visual studio2019配置

项目属性 --> C/C++ --> 语言 --> OpenMP支持,下拉菜单选择“是(/openmp)”,同时要将符合模式设置成“否”,否则编译会报错,如下图所示:

测试

在使用具体实例测试之前,我们先来测试一下自己的计算机是几核的。

#include

#include

int main()

{

std::cout << "parallel begin:\n";

#pragma omp parallel

{

std::cout << omp_get_thread_num();

}

std::cout << "\n parallel end.\n";

std::cin.get();

return 0;

}

这是我的运行结果,所以说明处理器是8核的。

OpenMP中使用parallel指令标识代码中的并行段:

#pragma omp parallel

{

多核并行执行的代码;

}

当编译器发现#pragma omp parallel for后,自动将下面的for循环分成N份,(N为电脑CPU核数),然后把每份指派给一个核去执行,而且多个核之间为并行执行。

下面是一个小实例:

#include

int main()

{

#pragma omp parallel for

for (int i=0;i<10;i++)

std::cout<

return 0;

}

控制台输出:

运行结果:

你可能感兴趣的:(linux并行计算环境搭建与使用,Windows和Linux系统下并行计算环境MPI和OpenMP的搭建...)