OpenMP

OpenMp是由OpenMP Architecture Review Board牵头提出的,并已被广泛接受的,用于 共享内存并行系统的多线程 程序设计的一套指导性的编译处理方案(Compiler Directive)。OpenMP支持的 编程语言包括 C语言、 C++和 Fortran;而支持OpenMp的 编译器包括Sun Compiler,GNU Compiler和Intel Compiler等。OpenMp提供了对 并行算法的高层的抽象描述, 程序员通过在 源代码中加入专用的pragma来指明自己的意图,由此 编译器可以自动将程序进行并行化,并在必要之处加入同步互斥以及通信。当选择忽略这些pragma,或者 编译器不支持OpenMp时,程序又可退化为通常的程序(一般为 串行),代码仍然可以正常运作,只是不能利用多线程来加速程序执行。

1简介编辑

OpenMp提供的这种对于并行描述的高层抽象降低了并行 编程的难度和复杂度,这样 程序员可以把更多的精力投入到 并行算法本身,而非其具体实现细节。对基于数据分集的多线程 程序设计,OpenMP是一个很好的选择。同时,使用OpenMP也提供了更强的灵活性,可以较容易的适应不同的并行 系统配置。线程粒度和 负载平衡等是传统多线程 程序设计中的难题,但在OpenMp中,OpenMp库从 程序员手中接管了部分这两方面的工作。
但是,作为高层抽象,OpenMp并不适合需要复杂的线程间同步和互斥的场合。OpenMp的另一个缺点是不能在非 共享内存系统(如 计算机集群)上使用。在这样的系统上,MPI使用较多。

2基本使用编辑

要在 Visual C++2005 中使用OpenMP其实不难,只要将 Project 的Properties中C/C++里Language的OpenMP Support开启(参数为 /openmp),就可以让VC++2005 在编译时支持OpenMP 的语法了;而在编写使用OpenMP 的程序时,则需要先include OpenMP的头文件:omp.h。
而要将 for 循环并行化处理,该怎么做呢?非常简单,只要在前面加上一行
#pragma omp parallel for
就够了!
也可以实际用一段简单的程序,来弄清楚它的运作方式。
#include <STDIO.H>
#include <STDLIB.H>
void Test( int n) {
for( int i = 0; i < 10000; ++i)
{
//do nothing, just waste time
}
printf("%d, ", n);
}
int main( int argc, char* argv[])
{
for( int i = 0; i < 10; ++i)
Test(i);
system("pause");
}
上面的程序,在 main() 是一个很简单的回圈,跑十次,每次都会调用Test()这个函数,并把是回圈的执行次数(i)传进Test() 并打印出来。想当然,它的结果会是:
0, 1, 2, 3, 4, 5, 6, 7, 8, 9,
而如果想利用 OpenMP把 main() 里面的回圈平行化处理呢?只需要修改成下面的样子:
#include <omp.h>
#include <stdio.h>
#include <stdlib.h>
void Test ( int n) {
for( int i = 0; i < 10000; ++i) {
//do nothing, just waste time
}
printf("%d, ", n);
}
int main( int argc, char* argv[]) {
#pragma omp parallel for
for(int i = 0; i < 10; ++i)
Test( i );
system("pause");
}
够简单吧?重头到尾,只加了两行!而执行后,可以发现结果也变了!
0, 5, 1, 6, 2, 7, 3, 8, 4, 9,
可以从结果很明显的发现,他没有照着0到9的顺序跑了!而上面的顺序怎么来的?其实很简单,OpenMP只是把回圈 0 - 9 共十个步骤,拆成 0 - 4, 5 - 9 两部份,丢给不同的执行绪去跑,所以数字才会出现这样交错性的输出~
而要怎么确定真的有跑 多执行绪呢?如果本来有多 处理器、 多核心处理器或有 Hyper Thread 的话,一个单执行绪程序,最多只会把一颗核心的使用量吃完;像比如说在 Pentium 4 HT 上跑,单一执行绪的程序,在工作管理员中看到的 CPU 使用率最多就是 50%。而利用 OpenMP 把回圈进行平行化处理后,就可以在执行回圈时,把两颗核心的  CPU 都榨光了!也就是CPU 使用率是100%。

3相关信息编辑

多执行绪的概念
OpenMP是作为共享存储标准而问世的。它是为在 多处理机上编写并行程序而设计的一个应用编程接口。它包括一套编译指导语句和一个用来支持它的函数库。
当今双核、 四核的 CPU 当道,而 六核的CPU也已经面世多时,所以在 多处理机上编写、运行并行程序会变得相当普遍。
对于一般单一执行绪(single thread)的程式, 多核心的 处理器并没有办法提升它的处理效能;不过对於 多执行绪(multi thread)的程式,就可以透过不同的核心同时计算,来达到加速的目的了!简单的例子,以单执行绪的程式来说,一件事做一次要十秒的话,要做十次,都丢给同一颗核心做的话,自然就是 10 秒 * 10 次,也就是 100 秒了;但是以多执行绪的程式来说,它可以把这一件事,分给两颗核心各自做,每颗核心各做 5 次,所以所需要的时间就只需要 50 秒!
当然, 多执行绪的程式实际上没这么简单。在工作的切割、结合上,也是要多花时间的,所以在现实中,即使最佳状况,双核心的效能也不会是 1 + 1 = 2 这样的理想化。除此之外,也不是所有工作都是可以切割的!很多工作是有关联性的,这样如果直接切割给不同的处理核心各自去 平行运算,出来的结果是肯定有问题的。而且, 多执行绪的程式在编写、维护上,也都比单一执行绪的程式复杂上不少。
不过,如果电脑本身是多 处理器、 多核心处理器,或是处理器拥有像 Intel Hyper-ThreadingTechnology 这类的能在同一个时间处理多个执行绪的功能的话,那把各自独立的工作由单一执行绪改成 多执行绪,在执行的效率上,大多还是会有增进的!
多执行绪的程式
写程序的时候该怎么去写多线程的程序呢?一般的方法,就是真的利用线程的控制,去实际在程式中去产生其他的线程来处理。像 POSIX Threads 这套 library,就是用来产生、控制执行绪的函式库。而像 Microsoft VisualStudio 2005 中,也有提供控制线程的功能。这种方法,大多就是产生多个 thread,而再由主线程把工作拆开,分给子线程去运算,最后再由主线程回收结果、整合。
但是,实际上要去控制线程是蛮麻烦的,在程序的编写上,也会复杂不少;而如果我们只是想要把一些简单的循环并行化处理,用线程库来控制,实在有点杀鸡用牛刀的感觉。这时候,用Open MP就简单多了!OpenMP 是一种能透过高阶指令,很简单地将程式并行化、 多线程化的  API;在最简单的情形,甚至可以只加一行指令,就可以将循环内的程序并行化处理了!

你可能感兴趣的:(OpenMP)