openMp的几个经典求和案例

废话不多说,直接上干货

1.并行区域求和

//下面我们写一个并行区域求和
#include"stdafx.h"
#include"omp.h"
#define NUM_THREADS 2
int main(int argc,_TCHAR *argv[]){
omp_set_num_threads(2);
long long sum=0;
long long sumtmp[NUM_THREADS];
clock_t t1=clock();

#pragma omp parallel
{
long i;
long id=omp_get_thread_num();
long long temp=0;

for(i=id;i<100000000;i=i+NUM_THREADS)
{
temp+=i;
}
sumtmp[id]=temp;
}

for(int i=0;i {
sum+=sumtmp[i];
}

clock_t t2=clock();
printf("sum=%11d\n",sum);
printf("serial time=%d\n",t2-t1);

sum=0;
t1=clock();
for(long i=1;i<100000000;i++)
{
sum+=i;
}
t2=clock();
printf("sum=%11d\n",sum);
printf("serial time=%d\n",t2-t1);
system("pause");
return 0;
}

分析:首先我们看我们的for循环,我们的开始的位置,是我们每个线程的线程号,这样一来我们就相当于一个数列,比如

1.3.5.7.9......

2.4.6.8.10.......

........................

这样的话虽然说每个线程都把这个for循环执行了一遍,但是它们的执行次数并不是全部的次数,而是有着数列循序的执行,

所以最后求和的话还是总共的和。

2.for指令求和;

#include"stdafx.h"
#include"omp.h"
#define NUM_THREADS 2
int main(int argc,_TCHAR *argv[]){
omp_set_num_threads(2);
long long sum=0;
long long sumtmp[NUM_THREADS];
clock_t t1=clock();

#pragma omp parallel
{
long i;
long id=omp_get_thread_num();
long long temp=0;
#pragma omp for
for(i=1;i<100000000;i=i++)
{
temp+=i;
}
sumtmp[id]=temp;
}

for(int i=0;i {
sum+=sumtmp[i];
}

clock_t t2=clock();
printf("sum=%11d\n",sum);
printf("serial time=%d\n",t2-t1);

sum=0;
t1=clock();
for(long i=1;i<100000000;i++)
{
sum+=i;
}
t2=clock();
printf("sum=%11d\n",sum);
printf("serial time=%d\n",t2-t1);
system("pause");
return 0;
}
分析:这是一个parallel与for结合的求和方式,其原理如下图所示:openMp的几个经典求和案例_第1张图片

3.reduction字句

#include"stdafx.h"
#include"omp.h"
#define NUM_THREADS 2
int main(int argc,_TCHAR *argv[]){
omp_set_num_threads(2);
long long sum=0;
long long sumtmp[NUM_THREADS];
clock_t t1=clock();

#pragma omp parallel
{
long i;
long id=omp_get_thread_num();
long long temp=0;
#pragma omp for reduction(+:sum)
for(i=1;i<100000000;i=i++)
{
sum+=i;
}
}

clock_t t2=clock();
printf("sum=%11d\n",sum);
printf("serial time=%d\n",t2-t1);

sum=0;
t1=clock();
for(long i=1;i<100000000;i++)
{
sum+=i;
}
t2=clock();
printf("sum=%11d\n",sum);
printf("serial time=%d\n",t2-t1);
system("pause");
return 0;
}

下面我们对reduction进行解释:reduction字句为变量制定一个操作符,每个线程都会创建reduction变量的私有副本,在openmp结束的时候,将使用各个线程的私有副本通过指定的操作符进行迭代运算,并赋值给原来的变量 ,格式:reduction(operator:list);

4.临界区求和法:

#include"stdafx.h"
#include"omp.h"
#define NUM_THREADS 2
int main(int argc,_TCHAR *argv[]){
omp_set_num_threads(2);
long long sum=0;
long long sumtmp[NUM_THREADS];
clock_t t1=clock();

#pragma omp parallel
{
long i;
long id=omp_get_thread_num();
long long temp=0;
for(i=id;i<100000000;i+=omp_get_num_threads())
{
temp+=i;
}
//这样可以避免数据竞争
#pragma omp critical
sum+=temp;
}

clock_t t2=clock();
printf("sum=%11d\n",sum);
printf("serial time=%d\n",t2-t1);

sum=0;
t1=clock();
for(long i=1;i<100000000;i++)
{
sum+=i;
}
t2=clock();
printf("sum=%11d\n",sum);
printf("serial time=%d\n",t2-t1);
system("pause");
return 0;
}


最后谢谢大家的多多支持,希望我们在学习中提高自己

你可能感兴趣的:(多线程,并行计算,openmp,OpenMP)