当前位置:文档之家› OpenMP并行编程简易教程

OpenMP并行编程简易教程

OpenMP并行编程简易教程
OpenMP并行编程简易教程

OpenMP并行编程简易教程(一)

近来在学校做实习,需要使用OpenMP来优化一些SAT问题的算法,便接触到了OpenMP,它是基于多处理器的,分享同一内存的,并行的编程模式。对于多核的CPU计算机,仅需要通过增加简单的语句,便可以得到立竿见影的性能提升。

本文教程由自己的学习笔记而来,通过4个例子简单的阐述OpenMP的基本编程语句。

例子1 helloworld.c

01 #include

02 int main( argc, argv)

03 int argc;

04 char **argv;

05 {

06 #pragma omp parallel

07 printf( "Hello world!\n" );

08 return 0;

09 }

程序helloworld.c的本质就是在屏幕上打印字符串”Hello world!”。

”#pragma omp parallel”是一条OpenMP标准的语句,它的含义是让它后面的语句按照多线程来执行。需要注意的是每个线程都去做相同的事情。

[root@localhost zf]# gcc –fopenmp helloworld.c

[root@localhost zf]# ./a.out

Hello world!

编译,执行程序。屏幕上打印出了一遍”Hello world”。

-fopenmp 是gcc编译支持OpenMP程序的参数,gcc4.2以上的版本默认支持OpenMP。由于系统环境变量中的NUM_OMP_THREADS的值默认为1,所以程序在执行的时候只使用了一个线程来执行。

[root@localhost zf]# NUM_OMP_THREADS=5

[root@localhost zf]# export NUM_OMP_THREADS

[root@localhost zf]# ./a.out

Hello world!

Hello world!

Hello world!

Hello world!

Hello world!

给表示线程数量的环境变量NUM_OMP_THREADS赋值为5并导出,再执行程序,得到5遍的”Hello world!”,说明程序将打印语句用5个线程分别执行了一遍。

当然,我们不希望受到运行系统环境变量的限制,所以我们也可以通过替换06行代码为” #pragma omp parallel num_threads(10)”,编译之后再执行程序,我们得到10遍的”Hello world!”,这时无论环境变量NUM_OMP_THREADS的值为多少,我们依然只能得到10遍的”Hello world!”。

例子2 RankNum.c

01 #include

02 #include

03 int main( int argc, char **argv)

04 {

05 int rank, size;

06 #pragma omp parallel private(rank)

07 {

08 rank= omp_get_thread_num();

09 size= omp_get_num_threads();

10 printf( "Hello world! I'm %d of %d\n", rank, size );

11 }

12 return 0;

13 }

导入omp.h文件以支持OpenMP的函数。

函数omp_get_threads_num() 返回当前的线程标号。函数omp_get_num_threads() 返回当前的线程数量。(不再程序中定义线程数,使用环境变量中的数据,当前是10)

[root@localhost zf]# gcc –fopenmp RankNum.c

[root@localhost zf]# ./a.out

Hello world! I’m 8 of 10

Hello world! I’m 0 of 10

Hello world! I’m 4 of 10

Hello world! I’m 6 of 10

Hello world! I’m 3 of 10

Hello world! I’m 2 of 10

Hello world! I’m 7 of 10

Hello world! I’m 1 o f 10

Hello world! I’m 9 of 10

Hello world! I’m 5 of 10

编译,执行,得到10条输出,10个线程分别执行了打印语句。

线程执行的顺序随机,与编号无关。

未完待续……

OpenMP并行程序设计(一)

OpenMP是一个支持共享存储并行设计的库,特别适宜多核CPU上的并行程序设计。今天在双核CPU机器上试了一下OpenMP并行程序设计,发现效率方面超出想象,因此写出来分享给大家。

在VC8.0中项目的属性对话框中,左边框里的“配置属性”下的“C/C++”下的“语言”页

里,将OpenMP支持改为“是/(OpenMP)”就可以支持OpenMP了。

先看一个简单的使用了OpenMP程序

int main(int argc, char* argv[])

{

#pragma omp parallel for

for (int i = 0; i < 10; i++ )

{

printf("i = %d\n", i);

}

return 0;

}

这个程序执行后打印出以下结果:

i = 0

i = 5

i = 1

i = 6

i = 2

i = 7

i = 3

i = 8

i = 4

i = 9

可见for 循环语句中的内容被并行执行了。(每次运行的打印结果可能会有区别)

这里要说明一下,#pragma omp parallel for 这条语句是用来指定后面的for循环语句变成并行执行的,当然for循环里的内容必须满足可以并行执行,即每次循环互不相干,后一次循环不依赖于前面的循环。

有关#pragma omp parallel for 这条语句的具体含义及相关OpenMP指令和函数的介绍暂时先放一放,只要知道这条语句会将后面的for循环里的内容变成并行执行就行了。

将for循环里的语句变成并行执行后效率会不会提高呢,我想这是我们最关心的内容了。下面就写一个简单的测试程序来测试一下:

void test()

{

int a = 0;

clock_t t1 = clock();

for (int i = 0; i < 100000000; i++)

{

a = i+1;

}

clock_t t2 = clock();

printf("Time = %d\n", t2-t1);

}

int main(int argc, char* argv[])

{

clock_t t1 = clock();

#pragma omp parallel for

for ( int j = 0; j < 2; j++ ){

test();

}

clock_t t2 = clock();

printf("Total time = %d\n", t2-t1);

test();

return 0;

}

在test()函数中,执行了1亿次循环,主要是用来执行一个长时间的操作。

在main()函数里,先在一个循环里调用test()函数,只循环2次,我们还是看一下在双核CPU上的运行结果吧:

Time = 297

Time = 297

Total time = 297

Time = 297

可以看到在for循环里的两次test()函数调用都花费了297ms,但是打印出的总时间却只花费了297ms,后面那个单独执行的test()函数花费的时间也是297ms,可见使用并行计算后效率提高了整整一倍。

OpenMP并行程序设计(二)

1、fork/join并行执行模式的概念

OpenMP是一个编译器指令和库函数的集合,主要是为共享式存储计算机上的并行程序设计使用的。

前面一篇文章中已经试用了OpenMP的一个Parallel for指令。从上篇文章中我们也可以发现OpenMP并行执行的程序要全部结束后才能执行后面的非并行部分的代码。这就是标准的并行模式fork/join式并行模式,共享存储式并行程序就是使用fork/join式并行的。

标准并行模式执行代码的基本思想是,程序开始时只有一个主线程,程序中的串行部分都由主线程执行,并行的部分是通过派生其他线程来执行,但是如果并行部分没有结束时是不会执行串行部分的,如上一篇文章中的以下代码:

int main(int argc, char* argv[])

{

clock_t t1 = clock();

#pragma omp parallel for

for ( int j = 0; j < 2; j++ ){

test();

}

clock_t t2 = clock();

printf("Total time = %d\n", t2-t1);

test();

return 0;

}

在没有执行完for循环中的代码之前,后面的clock_t t2 = clock();这行代码是不会执行的,如果和调用线程创建函数相比,它相当于先创建线程,并等待线程执行完,所以这种并行模式中在主线程里创建的线程并没有和主线程并行运行。

2、OpenMP指令和库函数介绍

下面来介绍OpenMP的基本指令和常用指令的用法,

在C/C++中,OpenMP指令使用的格式为

#pragma omp 指令[子句[子句]…]

前面提到的parallel for就是一条指令,有些书中也将OpenMP的“指令”叫做“编译指导语句”,后面的子句是可选的。例如:

#pragma omp parallel private(i, j)

parallel 就是指令,private是子句

为叙述方便把包含#pragma和OpenMP指令的一行叫做语句,如上面那行叫parallel语句。

OpenMP的指令有以下一些:

parallel,用在一个代码段之前,表示这段代码将被多个线程并行执行

for,用于for循环之前,将循环分配到多个线程中并行执行,必须保证每次循环之间无相关性。

parallel for,parallel 和for语句的结合,也是用在一个for循环之前,表示for循环的代码将被多个线程并行执行。

sections,用在可能会被并行执行的代码段之前

parallel sections,parallel和sections两个语句的结合

critical,用在一段代码临界区之前

single,用在一段只被单个线程执行的代码段之前,表示后面的代码段将被单线程执行。

flush,

barrier,用于并行区内代码的线程同步,所有线程执行到barrier时要停止,直到所有线程都执行到barrier时才继续往下执行。

atomic,用于指定一块内存区域被制动更新

master,用于指定一段代码块由主线程执行

ordered,用于指定并行区域的循环按顺序执行

threadprivate, 用于指定一个变量是线程私有的。

OpenMP除上述指令外,还有一些库函数,下面列出几个常用的库函数:

omp_get_num_procs, 返回运行本线程的多处理机的处理器个数。

omp_get_num_threads, 返回当前并行区域中的活动线程个数。

omp_get_thread_num, 返回线程号

omp_set_num_threads, 设置并行执行代码时的线程个数

omp_init_lock, 初始化一个简单锁

omp_set_lock,上锁操作

omp_unset_lock,解锁操作,要和omp_set_lock函数配对使用。

omp_destroy_lock,omp_init_lock函数的配对操作函数,关闭一个锁

OpenMP的子句有以下一些

private, 指定每个线程都有它自己的变量私有副本。

firstprivate,指定每个线程都有它自己的变量私有副本,并且变量要被继承主线程中的初值。lastprivate,主要是用来指定将线程中的私有变量的值在并行处理结束后复制回主线程中的对应变量。

reduce,用来指定一个或多个变量是私有的,并且在并行处理结束后这些变量要执行指定的运算。

nowait,忽略指定中暗含的等待

num_threads,指定线程的个数

schedule,指定如何调度for循环迭代

shared,指定一个或多个变量为多个线程间的共享变量

ordered,用来指定for循环的执行要按顺序执行

copyprivate,用于single指令中的指定变量为多个线程的共享变量

copyin,用来指定一个threadprivate的变量的值要用主线程的值进行初始化。

default,用来指定并行处理区域内的变量的使用方式,缺省是shared

3、parallel 指令的用法

parallel 是用来构造一个并行块的,也可以使用其他指令如for、sections等和它配合使用。在C/C++中,parallel的使用方法如下:

#pragma omp parallel [for | sections] [子句[子句]…]

{

//代码

}

parallel语句后面要跟一个大括号对将要并行执行的代码括起来。

void main(int argc, char *argv[]) {

#pragma omp parallel

{

printf(“Hello, World!\n”);

}

}

执行以上代码将会打印出以下结果

Hello, World!

Hello, World!

Hello, World!

Hello, World!

可以看得出parallel语句中的代码被执行了四次,说明总共创建了4个线程去执行parallel 语句中的代码。

也可以指定使用多少个线程来执行,需要使用num_threads子句:

void main(int argc, char *argv[]) {

#pragma omp parallel num_threads(8)

{

printf(“Hello, World!, ThreadId=%d\n”, omp_get_thread_num() );

}

}

执行以上代码,将会打印出以下结果:

Hello, World!, ThreadId = 2

Hello, World!, ThreadId = 6

Hello, World!, ThreadId = 4

Hello, World!, ThreadId = 0

Hello, World!, ThreadId = 5

Hello, World!, ThreadId = 7

Hello, World!, ThreadId = 1

Hello, World!, ThreadId = 3

从ThreadId的不同可以看出创建了8个线程来执行以上代码。所以parallel指令是用来为一段代码创建多个线程来执行它的。parallel块中的每行代码都被多个线程重复执行。

和传统的创建线程函数比起来,相当于为一个线程入口函数重复调用创建线程函数来创建线程并等待线程执行完。

4、for指令的使用方法

for指令则是用来将一个for循环分配到多个线程中执行。for指令一般可以和parallel指令合起来形成parallel for指令使用,也可以单独用在parallel语句的并行块中。

#pragma omp [parallel] for [子句]

for循环语句

先看看单独使用for语句时是什么效果:

int j = 0;

#pragma omp for

for ( j = 0; j < 4; j++ ){

printf(“j = %d, ThreadId = %d\n”, j, omp_get_thread_num());

}

执行以上代码后打印出以下结果

j = 0, ThreadId = 0

j = 1, ThreadId = 0

j = 2, ThreadId = 0

j = 3, ThreadId = 0

从结果可以看出四次循环都在一个线程里执行,可见for指令要和parallel指令结合起来使用才有效果:

如以下代码就是parallel 和for一起结合成parallel for的形式使用的:

int j = 0;

#pragma omp parallel for

for ( j = 0; j < 4; j++ ){

printf(“j = %d, ThreadId = %d\n”, j, omp_get_thread_num());

}

执行后会打印出以下结果:

j = 0, ThreadId = 0

j = 2, ThreadId = 2

j = 1, ThreadId = 1

j = 3, ThreadId = 3

可见循环被分配到四个不同的线程中执行。

上面这段代码也可以改写成以下形式:

int j = 0;

#pragma omp parallel

{

#pragma omp for

for ( j = 0; j < 4; j++ ){

printf(“j = %d, ThreadId = %d\n”, j, omp_get_thread_num());

}

}

执行以上代码会打印出以下结果:

j = 1, ThreadId = 1

j = 3, ThreadId = 3

j = 2, ThreadId = 2

j = 0, ThreadId = 0

在一个parallel 块中也可以有多个for语句,如:

int j;

#pragma omp parallel

{

#pragma omp for

for ( j = 0; j < 100; j++ ){

}

#pragma omp for

for ( j = 0; j < 100; j++ ){

}

}

for 循环语句中,书写是需要按照一定规范来写才可以的,即for循环小括号内的语句要按照一定的规范进行书写,for语句小括号里共有三条语句

for( i=start; i < end; i++)

i=start; 是for循环里的第一条语句,必须写成“变量=初值”的方式。如i=0

i < end;是for循环里的第二条语句,这个语句里可以写成以下4种形式之一:

变量< 边界值

变量<= 边界值

变量> 边界值

变量>= 边界值

如i>10 i< 10 i>=10 i>10 等等

最后一条语句i++可以有以下9种写法之一

i++

++i

i--

--i

i += inc

i -= inc

i = i + inc

i = inc + i

i = i –inc

例如i += 2; i -= 2;i = i + 2;i = i - 2;都是符合规范的写法。

5 sections和section指令的用法

section语句是用在sections语句里用来将sections语句里的代码划分成几个不同的段,每段都并行执行。用法如下:

#pragma omp [parallel] sections [子句]

{

#pragma omp section

{

代码块

}

}

先看一下以下的例子代码:

void main(int argc, char *argv)

{

#pragma omp parallel sections {

#pragma omp section

printf(“section 1 ThreadId = %d\n”, omp_get_thread_num());

#pragma omp section

printf(“section 2 ThreadId = %d\n”, omp_get_thread_num());

#pragma omp section

printf(“section 3 Thr eadId = %d\n”, omp_get_thread_num());

#pragma omp section

printf(“section 4 ThreadId = %d\n”, omp_get_thread_num());

}

执行后将打印出以下结果:

section 1 ThreadId = 0

section 2 ThreadId = 2

section 4 ThreadId = 3

section 3 ThreadId = 1

从结果中可以发现第4段代码执行比第3段代码早,说明各个section里的代码都是并行执行的,并且各个section被分配到不同的线程执行。

使用section语句时,需要注意的是这种方式需要保证各个section里的代码执行时间相差不大,否则某个section执行时间比其他section过长就达不到并行执行的效果了。

上面的代码也可以改写成以下形式:

void main(int argc, char *argv)

{

#pragma omp parallel {

#pragma omp sections

{

#pragma omp section

printf(“section 1 ThreadId = %d\n”, omp_get_thread_num());

#pragma omp section

printf(“section 2 ThreadId = %d\n”, omp_get_thread_num());

}

#pragma omp sections

{

#pragma omp section

printf(“section 3 ThreadId = %d\n”, omp_get_threa d_num());

#pragma omp section

printf(“section 4 ThreadId = %d\n”, omp_get_thread_num());

}

}

执行后将打印出以下结果:

section 1 ThreadId = 0

section 2 ThreadId = 3

section 3 ThreadId = 3

section 4 ThreadId = 1

这种方式和前面那种方式的区别是,两个sections语句是串行执行的,即第二个sections语句里的代码要等第一个sections语句里的代码执行完后才能执行。

用for语句来分摊是由系统自动进行,只要每次循环间没有时间上的差距,那么分摊是很均匀的,使用section来划分线程是一种手工划分线程的方式,最终并行性的好坏得依赖于程序员。

本篇文章中讲的几个OpenMP指令parallel, for, sections, section实际上都是用来如何创建线程的,这种创建线程的方式比起传统调用创建线程函数创建线程要更方便,并且更高效。当然,创建线程后,线程里的变量是共享的还是其他方式,主线程中定义的变量到了并行块

内后还是和传统创建线程那种方式一样的吗?创建的线程是如何调度的?等等诸如此类的问题到下一篇文章中进行讲解。

OpenMP API 用户指南

OpenMP API 用户指南 Sun? Studio 11 Sun Microsystems, Inc. https://www.doczj.com/doc/c714733126.html, 文件号码 819-4818-10 2005 年 11 月,修订版 A 请将关于本文档的意见和建议提交至:https://www.doczj.com/doc/c714733126.html,/hwdocs/feedback

版权所有 ? 2005 Sun Microsystems, Inc., 4150 Network Circle, Santa Clara, California 95054, U.S.A. 保留所有权利。 美国政府权利-商业用途。政府用户应遵循 Sun Microsystems, Inc. 的标准许可协议,以及 FAR(Federal Acquisition Regulations,即“联邦政府采购法规”)的适用条款及其补充条款。必须依据许可证条款使用。 本发行版可能包含由第三方开发的内容。 本产品的某些部分可能是从 Berkeley BSD 系统衍生出来的,并获得了加利福尼亚大学的许可。UNIX 是 X/Open Company, Ltd. 在美国和其他国家/地区独家许可的注册商标。 Sun、Sun Microsystems、Sun 徽标、Java 和 JavaHelp 是 Sun Microsystems, Inc. 在美国和其他国家/地区的商标或注册商标。所有的 SPARC 商标的使用均已获得许可,它们是 SPARC International, Inc. 在美国和其他国家/地区的商标或注册商标。标有 SPARC 商标的产品均基于由 Sun Microsystems, Inc. 开发的体系结构。 本服务手册所介绍的产品以及所包含的信息受美国出口控制法制约,并应遵守其他国家/地区的进出口法律。严禁将本产品直接或间接地用于核设施、导弹、生化武器或海上核设施,也不能直接或间接地出口给核设施、导弹、生化武器或海上核设施的最终用户。严禁出口或转口到美国禁运的国家/地区以及美国禁止出口清单中所包含的实体,包括但不限于被禁止的个人以及特别指定的国家/地区的公民。 本文档按“原样”提供,对于所有明示或默示的条件、陈述和担保,包括对适销性、适用性或非侵权性的默示保证,均不承担任何责任,除非此免责声明的适用范围在法律上无效。

openmp并行程序设计

OpenMP并行程序设计(一) OpenMP是一个支持共享存储并行设计的库,特别适宜多核CPU上的并行程序设计。今天在双核CPU机器上试了一下OpenMP并行程序设计,发现效率方面超出想象,因此写出来分享给大家。 在VC8.0中项目的属性对话框中,左边框里的“配置属性”下的“C/C++”下的“语言”页里,将OpenMP支持改为“是/(OpenMP)”就可以支持OpenMP了。 先看一个简单的使用了OpenMP程序 int main(int argc, char* argv[]) { #pragma omp parallel for for (int i = 0; i < 10; i++ ) { printf("i = %d\n", i); } return 0; } 这个程序执行后打印出以下结果: i = 0 i = 5 i = 1 i = 6 i = 2 i = 7 i = 3 i = 8 i = 4 i = 9 可见for 循环语句中的内容被并行执行了。(每次运行的打印结果可能会有区别) 这里要说明一下,#pragma omp parallel for 这条语句是用来指定后面的for循环语句变成并行执行的,当然for循环里的内容必须满足可以并行执行,即每次循环互不相干,后一次循环不依赖于前面的循环。 有关#pragma omp parallel for 这条语句的具体含义及相关OpenMP指令和函数的介绍暂时先放一放,只要知道这条语句会将后面的for循环里的内容变成并行执行就行了。 将for循环里的语句变成并行执行后效率会不会提高呢,我想这是我们最关心的内容了。

openMP实验总结报告

openMP实验报告 目录 openMP实验报告.............................................. 错误!未定义书签。 OpenMP简介.............................................. 错误!未定义书签。 实验一................................................... 错误!未定义书签。 实验二................................................... 错误!未定义书签。 实验三................................................... 错误!未定义书签。 实验四................................................... 错误!未定义书签。 实验五................................................... 错误!未定义书签。 实验六................................................... 错误!未定义书签。 实验七................................................... 错误!未定义书签。 实验八................................................... 错误!未定义书签。 实验总结................................................. 错误!未定义书签。 在学习了MPI之后,我们又继续学习了有关openMP的并行运算,通过老师的细致讲解,我们对openMP有了一个初步的了解: OpenMP简介 OpenMP是一种用于共享内存并行系统的多线程程序设计的库(Compiler Directive),特别适合于多核CPU上的并行程序开发设计。它支持的语言包括:C 语言、C++、Fortran;不过,用以上这些语言进行程序开发时,并非需要特别关注的地方,因为现如今的大多数编译器已经支持了OpenMP,例如:Sun Compiler,GNU Compiler、Intel Compiler、Visual Studio等等。程序员在编程时,只需要在特定的源代码片段的前面加入OpenMP专用的#pargma omp预编译指令,就可以“通知”编译器将该段程序自动进行并行化处理,并且在必要的时候加入线程同步及通信机制。当编译器选择忽略#pargma omp预处理指令时,或者编译器不支持OpenMP时,程序又退化为一般的通用串行程序,此时,代码

openMP学习笔记分析

1、OpenMP指令和库函数介绍 下面来介绍OpenMP的基本指令和常用指令的用法, 在C/C++中,OpenMP指令使用的格式为 #pragma omp 指令 [子句[子句]…] 前面提到的parallel for就是一条指令,有些书中也将OpenMP的“指令”叫做“编译指导语句”,后面的子句是可选的。例如: #pragma omp parallel private(i, j) parallel 就是指令,private是子句 为叙述方便把包含#pragma和OpenMP指令的一行叫做语句,如上面那行叫parallel语句。 OpenMP的指令有以下一些: parallel,用在一个代码段之前,表示这段代码将被多个线程并行执行 for,用于for循环之前,将循环分配到多个线程中并行执行,必须保证每次循环之间无相关性。 parallel for,parallel 和for语句的结合,也是用在一个for循环之前,表示for循环的代码将被多个线程并行执行。 sections,用在可能会被并行执行的代码段之前 parallel sections,parallel和sections两个语句的结合 critical,用在一段代码临界区之前 single,用在一段只被单个线程执行的代码段之前,表示后面的代码段将被单线程执行。 flush, barrier,用于并行区内代码的线程同步,所有线程执行到barrier时要停止,直到所有线程都执行到barrier时才继续往下执行。 atomic,用于指定一块内存区域被制动更新 master,用于指定一段代码块由主线程执行 ordered,用于指定并行区域的循环按顺序执行 threadprivate, 用于指定一个变量是线程私有的。 OpenMP除上述指令外,还有一些库函数,下面列出几个常用的库函数:omp_get_num_procs, 返回运行本线程的多处理机的处理器个数。 omp_get_num_threads, 返回当前并行区域中的活动线程个数。 omp_get_thread_num, 返回线程号 omp_set_num_threads, 设置并行执行代码时的线程个数 omp_init_lock, 初始化一个简单锁 omp_set_lock,上锁操作 omp_unset_lock,解锁操作,要和omp_set_lock函数配对使用。 omp_destroy_lock,omp_init_lock函数的配对操作函数,关闭一个锁 OpenMP的子句有以下一些 private, 指定每个线程都有它自己的变量私有副本。 firstprivate,指定每个线程都有它自己的变量私有副本,并且变量要被继承主线程中的初值。lastprivate,主要是用来指定将线程中的私有变量的值在并行处理结束后复制回主线程中的对应变量。 reduce,用来指定一个或多个变量是私有的,并且在并行处理结束后这些变量要执行指定的运算。

OpenMP例程使用手册

OpenMP例程使用手册 目录 1 OpenMP简介 (2) 2 OpenMP例程编译 (2) 2.1安装gawk (2) 2.2编译例程 (2) 2.3拷贝例程到开发板 (3) 3例程测试 (5) 3.1 dspheap (5) 3.2 vecadd (6) 3.3 vecadd_complex (6) 3.4 其他例程测试说明 (7) 更多帮助.................................................................................................... 错误!未定义书签。 公司官网:https://www.doczj.com/doc/c714733126.html, 销售邮箱:sales@https://www.doczj.com/doc/c714733126.html, 公司总机:020-8998-6280 1/7技术论坛:https://www.doczj.com/doc/c714733126.html, 技术邮箱:support@https://www.doczj.com/doc/c714733126.html, 技术热线:020-3893-9734

1 OpenMP简介 OpenMP用于共享内存并行系统的多处理器程序设计的一套指导性的编译处理方案(Compiler Directive)。它是为在多处理机上编写并行程序而设计的一个应用编程接口。它包括一套编译指导语句和一个用来支持它的函数库。 OpenMP提供的这种对于并行描述的高层抽象降低了并行编程的难度和复杂度,这样程序员可以把更多的精力投入到并行算法本身,而非其具体实现细节。对基于数据分集的多线程程序设计,OpenMP是一个很好的选择。同时,使用OpenMP也提供了更强的灵活性,可以较容易的适应不同的并行系统配置。线程粒度和负载平衡等是传统多线程程序设计中的难题,但在OpenMP中,OpenMP库从程序员手中接管了部分这两方面的工作。 但是,作为高层抽象,OpenMP并不适合需要复杂的线程间同步和互斥的场合。OpenMP的另一个缺点是不能在非共享内存系统(如计算机集群)上使用。在这样的系统上,MPI使用较多。 2 OpenMP例程编译 2.1安装gawk 此工具为编译的必要工具,在Ubuntu下安装: Host#sudoapt-get install gawk 图1 2.2编译例程 请先安装ti-processor-sdk-linux-am57xx-evm-03.01.00.06,安装步骤请参照《相关软件

OpenMP的用法

在双重循环中怎样写OpenMP? 那要分析你的外循环跟内循环有没有彼此依赖的关系 unsigned int nCore = GetComputeCore(); unsigned int nStep = IMAGETILEYSIZE / nCore; #pragma omp parallel for private(Level0_x, Level0_y, ChangeLevel0_x, ChangeLevel0_y, InterX1, InterX2, InterY1, InterY2) for (int k = 0; k < nCore; k++) { int begin = k * nStep; int end = (k + 1) * nStep; for (int YOff = begin; YOff < end; YOff++) { for (int XOff = 0; XOff < IMAGETILEXSIZE; XOff++) { Level0_x = pPixelXBuf[YOff][XOff]; Level0_y = pPixelYBuf[YOff][XOff]; ChangeLevel0_x = Level0_x - XMin; ChangeLevel0_y = Level0_y - YMin; //寻找坐标在Level1Buf中对应的4个像素值 InterX1 = (int)(ChangeLevel0_x); InterX2 = (int)(ChangeLevel0_x + 1); InterY1 = (int)(ChangeLevel0_y); InterY2 = (int)(ChangeLevel0_y + 1); //双线性插值对Level0_Buf赋值 ZoomInterpolation(Level0Buf, Level1Buf, ChangeLevel0_x, ChangeLevel0_y, SamplesPerPixel, nXSize, nYSize, InterX1, InterX2, InterY1, InterY2, XOff, YOff); } } } 我也想应该这样,可是如果nCore=1的时候,外循环只循环一次,线程是怎么分配的呢。其实最外层的循环如果很多,就在外循环分配线程是不是就可以不考虑里面的循环了? nCore = 1,就是单核单cpu,多核循环就跟普通的循环没有差别, openmp默认有几个内核就开几个线程同时运行。所以单核openmp也没有什么意义,此时你也可以开两个线程“同时”运行,但在单核机器上,两个线程是不可能同时运行的 可以不考虑里面的循环。你只要保证外循环跟外循环之间,内寻环跟内循环之间没有数据依赖关系就行。 假设 for (int i = 0; i < 200000000; i++)

OpenMP API 用户指南

Sun Studio12Update 1:OpenMP API用户指南 Sun Microsystems,Inc. 4150Network Circle Santa Clara,CA95054 U.S.A. 文件号码821–0393 2009年9月

版权所有2009Sun Microsystems,Inc.4150Network Circle,Santa Clara,CA95054U.S.A.保留所有权利。 对于本文档中介绍的产品,Sun Microsystems,Inc.对其所涉及的技术拥有相关的知识产权。需特别指出的是(但不局限于此),这些知识产权可能包含一项或多项美国专利,以及在美国和其他国家/地区申请的待批专利。 美国政府权利-商业软件。政府用户应遵循Sun Microsystems,Inc.的标准许可协议,以及FAR(Federal Acquisition Regulations,即“联邦政府采购法规”)的适用条款及其补充条款。 本发行版可能包含由第三方开发的内容。 本产品的某些部分可能是从Berkeley BSD系统衍生出来的,并获得了加利福尼亚大学的许可。UNIX是X/Open Company,Ltd.在美国和其他国家/地区独家许可的注册商标。 Sun、Sun Microsystems、Sun徽标、Solaris徽标、Java咖啡杯徽标、https://www.doczj.com/doc/c714733126.html,、Java和Solaris是Sun Microsystems,Inc.在美国和其他国家/地区的商标或注册商标。所有SPARC商标的使用均已获得许可,它们是SPARC International,Inc.在美国和其他国家/地区的商标或注册商标。标有SPARC商标的产品均基于由Sun Microsystems,Inc.开发的体系结构。 OPEN LOOK和Sun TM图形用户界面是Sun Microsystems,Inc.为其用户和许可证持有者开发的。Sun感谢Xerox在研究和开发可视或图形用户界面的概念方面为计算机行业所做的开拓性贡献。Sun已从Xerox获得了对Xerox图形用户界面的非独占性许可证,该许可证还适用于实现OPEN LOOK GUI 和在其他方面遵守Sun书面许可协议的Sun许可证持有者。 本出版物所介绍的产品以及所包含的信息受美国出口控制法制约,并应遵守其他国家/地区的进出口法律。严禁将本产品直接或间接地用于核设 施、导弹、生化武器或海上核设施,也不能直接或间接地出口给核设施、导弹、生化武器或海上核设施的最终用户。严禁出口或转口到美国禁运的国家/地区以及美国禁止出口清单中所包含的实体,包括但不限于被禁止的个人以及特别指定的国家/地区的公民。 本文档按“原样”提供,对于所有明示或默示的条件、陈述和担保,包括对适销性、适用性或非侵权性的默示保证,均不承担任何责任,除非此免责声明的适用范围在法律上无效。 090904@22749

基于openMP的并行计算实验

基于o p e n M P的并行计 算实验 文档编制序号:[KKIDT-LLE0828-LLETD298-POI08]

并行计算实验报告 课程:并行计算 姓名:郑波 学号44 班级:计算机科学与技术13-2班 日期:2015年12月7日 实验一:OpenMP基本使用 一、实验目的 1、熟悉OpenMP编程。 2、比较串行算法与并行算法在执行时间上的差别; 3、考察线程数目使用不同对并行算法执行时间的影响; 4、考察运算规模N对串、并行算法执行时间上的影响。 二、实验内容 1、使用OpenMP进行两个矩阵A和B的加法,并分析串行、并行时间的差别以及问题规模对程序运行时间的影响 三、实验步骤 1、整个程序的设计流程 ①全局变量设置三个宏定义过的size×size的二维数组啊a,b,c。

②初始化a数组为全1,b数组为全2 ③通过omp_set_num_threads()库函数设置线程数 ④调用openMP库函数omp_get_wtime()获取当前时间start #pragma omp parallel for开始做并行区部分 … 结束后再次调用omp_get_wtime()获取时间end,end-start即为并行消耗时间 ⑤再次调用时间函数更新strat 串行做一边矩阵相加 更新end,end-start即为串行耗时 代码如下: #include #include<> #define size 10000 using namespace std; int a[size][size], b[size][size], c[size][size]; int main() { for(int i=0;i!=size;++i) //initial the matrix for(int j=0;j!=size;++j){ a[i][j]=1; b[i][j]=2; } double start=omp_get_wtime(); omp_set_num_threads(4); #pragma omp parallel for for(int i=0;i

openmp简介(DOC)

OpenMP编程基础 1、可以说OpenMP制导指令将C语言扩展为一个并行语言,但OpenMP本身不是一种独立的并行语 言,而是为多处理器上编写并行程序而设计的、指导共享内存、多线程并行的编译制导指令和应用程序编程接口(API),可在C/C++和Fortran(77、90和95)中应用,并在串行代码中以编译器可识别的注释形式出现。OpenMP标准是由一些具有国际影响力的软件和硬件厂商共同定义和提出,是一种在共享存储体系结构的可移植编程模型,广泛应用与Unix、Linux、Windows等多种平台上。 2.1 OpenMP基本概念 首先来了解OpenMP的执行模式和三大要素。 2.1.1 执行模式 OpenMP的执行模型采用fork-join的形式,其中fork创建新线程或者唤醒已有线程;join即多线程的会合。fork-join执行模型在刚开始执行的时候,只有一个称为“主线程”的运行线程存在。主线程在运行过程中,当遇到需要进行并行计算的时候,派生出线程来执行并行任务。在并行执行的时候,主线程和派生线程共同工作。在并行代码执行结束后,派生线程退出或者阻塞,不再工作,控制流程回到单独的主线程中。 OpenMP的编程者需要在可并行工作的代码部分用制导指令向编译器指出其并行属性,而且这些并行区域可以出现嵌套的情况,如图2.1所示。 对并行域(Paralle region)作如下定义:在成对的fork和join之间的区域,称为并行域,它既表示代码也表示执行时间区间。 对OpenMP线程作如下定义:在OpenMP程序中用于完成计算任务的一个执行流的执行实体,可

以是操作系统的线程也可以是操作系统上的进程。 2.1.2 OpenMP编程要素 OpenMP编程模型以线程为基础,通过编译制导指令来显式地指导并行化,OpenMP为编程人员提供了三种编程要素来实现对并行化的完善控制。它们是编译制导、API函数集和环境变量。 编译制导 在C/C++程序中,OpenMP的所有编译制导指令是以#pragma omp开始,后面跟具体的功能指令(或命令),其具有如下形式: #pragma omp 指令[子句[, 子句] …] 支持OpenMP的编译器能识别、处理这些制导指令并实现其功能。其中指令或命令是可以单独出现的,而子句则必须出现在制导指令之后。制导指令和子句按照功能可以大体上分成四类: 1)并行域控制类; 2)任务分担类; 3)同步控制类; 并行域控制类指令用于指示编译器产生多个线程以并发执行任务,任务分担类指令指示编译器如何给各个并发线程分发任务,同步控制类指令指示编译器协调并发线程之间的时间约束关系等。 1)OpenMP规范中的指令有以下这些: ? parallel:用在一个结构块之前,表示这段代码将被多个线程并行执行; ? for:用于for循环语句之前,表示将循环计算任务分配到多个线程中并行执行,以实现任务分担,必须由编程人员自己保证每次循环之间无数据相关性; ? parallel for:parallel 和for指令的结合,也是用在for循环语句之前,表示for循环体的代码将被多个线程并行执行,它同时具有并行域的产生和任务分担两个功能; ? sections:用在可被并行执行的代码段之前,用于实现多个结构块语句的任务分担,可并行执行的代码段各自用section指令标出(注意区分sections和section); ? parallel sections:parallel和sections两个语句的结合,类似于parallel for; ? single:用在并行域内,表示一段只被单个线程执行的代码; ? critical:用在一段代码临界区之前,保证每次只有一个OpenMP线程进入; ? flush:保证各个OpenMP线程的数据影像的一致性; ? barrier:用于并行域内代码的线程同步,线程执行到barrier时要停下等待,直到所有线程都执行到barrier时才继续往下执行;

OpenMP程序的编译和运行

SHANGHAI UNIVERSITY 学院计算机工程与科学学院实验OpenMP程序的编译和运行姓名陈帅 学号12122208 教师刘芳芳 时间2015.05.06 报告成绩

实验2-1. OpenMP程序的编译和运行 1.实验目的 1) 在Linux平台上编译和运行OpenMP程序; 2) 在Windows平台上编译和运行OpenMP程序。 3) 掌握OpenMP并行编程基础。 2.实验环境 1) 硬件环境:计算机一台; 2) 软件环境:Linux、Win2003、GCC、MPICH、VS2008或其他版本Visual Studio; 3.实验内容 1. Linux下OpenMP程序的编译和运行。OpenMP是一个共享存储并行系统上的应用编程接口,支持C/C++和FORTRAN等语言,编译和运行简单的"Hello World"程序。在Linux下编辑hellomp.c源程序,或在Windows下编辑并通过附件中的FTP工具(端口号:1021)上传,用"gcc -fopenmp -O2 -o hellomp.out hellomp.c"命令编译,用"./hellomp.out"命令运行程序。注:在虚拟机中当使用vi编辑文件时,不是以ESC键退出插入模式,可以使用“Ctrl+c”进入命令模式,然后输入wq进行存盘退出。 代码如下: #include #include int main() { int nthreads,tid; omp_set_num_threads(8); #pragma omp parallel private(nthreads,tid) { tid=omp_get_thread_num(); printf("Hello World from OMP thread %d\n",tid); if(tid==0) { nthreads=omp_get_num_threads(); printf("Number of threads is %d\n",nthreads); } } }

OpenMP发展与优势

OpenMP发展与优势 OpenMP的规范由SGI发起,它是一种面向共享内存以及分布式共享内存的多处理器多线程并行编程语言。OpenMP是一种共享内存并行的应用程序编程接口。所有的处理器都被连接到一个共享的内存单元上,处理器在访问内存的时候使用的是相同的内存编址空间。由于内存是共享的,因此,某一处理器写入内存的数据会立刻被其它处理器访问到。 OpenMP具有良好的可移植性,支持Fortran和C/C++编程语言,操作系统平台方面则支持UNIX系统以及Windows 系统。OpenMP的重要性在于,它能够为编写多线程程序提供一种简单的方法,而无需程序员进行复杂的线程创建、同步、负载平衡和销毁工作[1]。 2.2 OpenMP多线程编程基础 OpenMP的编程模型以线程为基础,通过编译指导语句来显式地指导并行化,为编程人员提供了对并行化的完整的控制。在并行执行的时候,主线程和派生线程共同工作。在并行代码结束执行后,派生线程退出或者挂起,不再工作,控制流回到单独的主线程中。OpenMP的功能由两种形式提供:编译指导语句和运行时库函数,下面分别介绍。 2.2.1编译指导语句 编译指导语句的含义是在编译器编译程序的时候,会识别特定的注释,而这些特定的注释就包含着OpenMP程序的一些语意。例如在C/C++程序中,用 #pragma opm parallel来标示一段并行程序块。在一个无法识别OpenMP语意的编译器中,会将这些特定的注释当作普通的程序注释而被忽略。因此,仅使用编译指导语句编写的OpenMP程序就能够同时被普通编译器和支持OpenMP的编译器处理。这种性质带来的好处就是用户可以用同一份代码来编写串行和并行程序,或者在把串行程序改编成并行程序的时候,保持串行源代码部分不变,从而极大地方便了程序编写人员。 编译指导语句的形式为: #pragam omp [clause[[,] clause]. . .] 其中directive部分就包含了具体的编译指导语句,包括parallel, for, parallel for, section, sections, single, master, critical, flush, ordered和atomic。这些编译指导语句或者用来分配任务,或者用来同步。后面可选的子句clause给出了相应的编译指导语句的参数,子句可以影响到编译指导语句的具体行为,每一个编译指导语句都有一系列适合它的子句。 2.2.2运行时库函数 另外一种提供OpenMP功能的形式就是OpenMP的运行时库函数,它用于设置和获取执行环境的相关信息,它们当中也包含一系列用以同步的API。要使

基于多核DSP的OpenMp研究与实现

Journal of Image and Signal Processing 图像与信号处理, 2016, 5(4), 147-154 Published Online October 2016 in Hans. https://www.doczj.com/doc/c714733126.html,/journal/jisp https://www.doczj.com/doc/c714733126.html,/10.12677/jisp.2016.54017 文章引用: 张琪, 王正勇, 余艳梅. 基于多核DSP 的OpenMp 研究与实现[J]. 图像与信号处理, 2016, 5(4): 147-154. Research and Realization of OpenMp Based on Muiticore DSP Qi Zhang, Zhengyong Wang, Yanmei Yu Image Information Institute, College of Electronics and Information Engineering, Sichuan University, Chengdu Sichuan Received: Sep. 18th , 2016; accepted: Oct. 4th , 2016; published: Oct. 7th , 2016 Copyright ? 2016 by authors and Hans Publishers Inc. This work is licensed under the Creative Commons Attribution International License (CC BY). https://www.doczj.com/doc/c714733126.html,/licenses/by/4.0/ Abstract Aiming at the complexity of multicore model in practical application, the three major models of data flow, master-slave and OpenMp are analyzed in this paper. Because the OpenMp model is easier to be implemented, it is taken as the major research object. Firstly, the implementation principle of OpenMp model is studied; the time consumed by the thread creation and task parti-tioning in the nested loop of the OpenMp model is analyzed in this paper. Then, the relationship between the core number and the number of threads in the OpenMp model is also studied. Finally, taking TMS320C6678 multi-core DSP of TI Company as the core processor, a simple image processing algorithm is used to verify the conclusions drawn from the above research. The results of test have proved OpenMp model when the number of threads is equal to the core number shortest execution time. Keywords TMS320C6678, OpenMp, Linear Assembly, Threads Scheduling 基于多核DSP 的OpenMp 研究与实现 张 琪,王正勇,余艳梅 四川大学电子信息学院图像信息研究所,四川 成都 收稿日期:2016年9月18日;录用日期:2016年10月4日;发布日期:2016年10月7日 Open Access

OpenMP开发环境配置

操作系统:RedHat Enterprise Linux 5.4 GCC:GCC4.4.3(gcc-4.4.3.tar.gz) JDK:JDK6.0(jdk-6u18-linux-i586.bin) Eclipse:Eclipse IDE for C/C++ Developers (eclipse-cpp-galileo-SR1-linux-gtk.tar.gz) 用GCC作为OpenMP的编译工具,Eclipse + CDT能够提供像Visual C++一样的编程环境,运行Eclipse需要有JDK的支持,Eclipse IDE for C/C++ Developers已经把Eclipse和CDT插件组合在一起。操作系统自带有GCC、JDK和Eclipse,这里都没有使用系统提供的版本 关于GCC 把GCC4.4.3安装到了/opt/gcc443目录下面,这时连同系统自带的GCC,系统里面就有了两个版本的GCC。为了使Eclipse优先搜索并使用GCC4.4.3,其中一种较简便的方法是为GCC4.4.3配置环境变量。 编辑/etc/profile文件,在文件末尾添加下面的语句 #set GCC4.4.3 environment export PA TH=/opt/gcc443/bin:$PA TH 关于JDK 把JDK6.0安装到了/opt/jdk1.6.0-18目录下,这时连同系统自带的OpenJDK以及系统自带GCC中的GCJ,系统里面就有了三个版本的JDK。为了使Eclipse优先搜索并使用jdk1.6.0-18,其中一种较简便的方法是为jdk1.6.0-18配置环境变量。 编辑/etc/profile文件,在文件末尾添加下面的语句 #set jdk1.6.0-18 environment JA V A_HOME=/opt/ jdk1.6.0-18 export JRE_HOME=/opt/ jdk1.6.0-18/jre export CLASSPATH=.:$JA V A_HOME/lib:$JRE_HOME/lib:$CLASSPA TH export PA TH=$JA V A_HOME/bin:$JRE_HOME/bin:$PA TH 关于Eclipse 把压缩包解压,直接启动。 新建一个“C Project”之后,展开工程里面的“include”结点,可以看到eclipse已经把GCC4.4.3的搜索路径添加到工程了,搜索路径包含以下几项: /opt/gcc443/include /opt/gcc443/lib/gcc/i686-pc-linux-gnu/4.4.3/include /opt/gcc443/lib/gcc/ i686-pc-linux-gnu/4.4.3/include-fixed /usr/include /usr/local/include 如果新建的是一个“C++ Project”,则搜索路径包含了上面五项,还多出以下三项: /opt/gcc443/include/c++/4.4.3 /opt/gcc443/include/c++/4.4.3/backward /opt/gcc443/include/c++/4.4.3/i686-pc-linux-gnu 如果要在一个C Project中编译OpenMP,做下面的操作 选中一个C Project——>右键,选择属性——>展开C/C++ Build——>选中Setting——>展开GCC C Complier——>选中Miscellaneous——>在Other flags框中输入选项-fopenmp——>展开GCC C Linker——>选中Miscellaneous——>在Linker flags框中输入选项-fopenmp 如果要在一个C++ Project中编译OpenMP,做下面的操作 选中一个C++ Project——>右键,选择属性——>展开C/C++ Build——>选中Setting——>展开GCC C++ Complier——>选中Miscellaneous——>在Other flags框中输入选项-fopenmp——>展开GCC C

OpenMP并行实验报告

并行实验报告 一、积分计算圆周率 1.1积分计算圆周率的向量优化 1.1.1串行版本的设计 任务:理解积分求圆周率的方法,将其用C代码实现。 、、亠 理论上,dx越小,求得的圆周率越准确;在计算机中由于表" 示的数据是有精度范围的,如果dx太小,积分次数过多,误差积累 导致结果不准确。 以下为串行代码: #in clude #in clude #defi ne N 10000000 double get_pi (int dt){ double pi=0.0; double delta =1.0/dt; int i; for(i=0; i

fini sh=clock(); prin tf("%.8lf\n",pai); prin tf("%.8lfS\n",(double)(fi ni sh-start)/CLOCKS_PER_SEC); retur n 0; } 第一次:time=0.02674000S 第二次:time=0.02446500S 第三次:time=0.02402800S 三次平均为:0.02508S 1.1.2 SSE向量优化版本设计 任务:此部分需要给出单精度和双精度两个优化版本 (1)测试均在划分度为10的7次方下完成。 以下是SSE双精度的代码: #i nclude #in clude #in clude #defi ne N 10000000 double get_pi (int dt){ double pi=0.0; double delta =1.0/dt; int i; for(i=0; i

OpenMP并行编程简易教程

OpenMP并行编程简易教程(一) 近来在学校做实习,需要使用OpenMP来优化一些SAT问题的算法,便接触到了OpenMP,它是基于多处理器的,分享同一内存的,并行的编程模式。对于多核的CPU计算机,仅需要通过增加简单的语句,便可以得到立竿见影的性能提升。 本文教程由自己的学习笔记而来,通过4个例子简单的阐述OpenMP的基本编程语句。 例子1 helloworld.c 01 #include 02 int main( argc, argv) 03 int argc; 04 char **argv; 05 { 06 #pragma omp parallel 07 printf( "Hello world!\n" ); 08 return 0; 09 } 程序helloworld.c的本质就是在屏幕上打印字符串”Hello world!”。 ”#pragma omp parallel”是一条OpenMP标准的语句,它的含义是让它后面的语句按照多线程来执行。需要注意的是每个线程都去做相同的事情。 [root@localhost zf]# gcc –fopenmp helloworld.c [root@localhost zf]# ./a.out Hello world! 编译,执行程序。屏幕上打印出了一遍”Hello world”。 -fopenmp 是gcc编译支持OpenMP程序的参数,gcc4.2以上的版本默认支持OpenMP。由于系统环境变量中的NUM_OMP_THREADS的值默认为1,所以程序在执行的时候只使用了一个线程来执行。 [root@localhost zf]# NUM_OMP_THREADS=5 [root@localhost zf]# export NUM_OMP_THREADS [root@localhost zf]# ./a.out Hello world! Hello world! Hello world! Hello world! Hello world! 给表示线程数量的环境变量NUM_OMP_THREADS赋值为5并导出,再执行程序,得到5遍的”Hello world!”,说明程序将打印语句用5个线程分别执行了一遍。 当然,我们不希望受到运行系统环境变量的限制,所以我们也可以通过替换06行代码为” #pragma omp parallel num_threads(10)”,编译之后再执行程序,我们得到10遍的”Hello world!”,这时无论环境变量NUM_OMP_THREADS的值为多少,我们依然只能得到10遍的”Hello world!”。

相关主题
相关文档 最新文档