`
king_c
  • 浏览: 225388 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

openMP

 
阅读更多

最近在看多核编程。简单来说,由于现在电脑CPU一般都有两个核,4核与8核的CPU也逐渐走入了寻常百姓家,传统的单线程编程方式难以发挥多核CPU的强大功能,于是多核编程应运而生。按照我的理解,多核编程可以认为是对多线程编程做了一定程度的抽象,提供一些简单的API,使得用户不必花费太多精力来了解多线程的底层知识,从而提高编程效率。这两天关注的多核编程的工具包括openMP和TBB。按照目前网上的讨论,TBB风头要盖过openMP,比如openCV过去是使用openMP的,但从2.3版本开始抛弃openMP,转向TBB。但我试下来,TBB还是比较复杂的,相比之下,openMP则非常容易上手。因为精力和时间有限,没办法花费太多时间去学习TBB,就在这里分享下这两天学到的openMP的一点知识,和大家共同讨论。

openMP支持的编程语言包括C语言、C++和Fortran,支持OpenMP的编译器包括Sun Studio,Intel Compiler,Microsoft Visual Studio,GCC。我使用的是Microsoft Visual Studio 2008,CPU为Intel i5 四核,首先讲一下在Microsoft Visual Studio 2008上openMP的配置。非常简单,总共分2步:

(1) 新建一个工程。这个不再多讲。

(2) 建立工程后,点击 菜单栏->Project->Properties,弹出菜单里,点击 Configuration Properties->C/C++->Language->OpenMP Support,在下拉菜单里选择Yes。

至此配置结束。下面我们通过一个小例子来说明openMP的易用性。这个例子是 有一个简单的test()函数,然后在main()里,用一个for循环把这个test()函数跑8遍。

复制代码
 1 #include <iostream>
 2 #include <time.h>
 3 void test()
 4 {
 5     int a = 0;
 6     for (int i=0;i<100000000;i++)
 7         a++;
 8 }
 9 int main()
10 {
11     clock_t t1 = clock();
12     for (int i=0;i<8;i++)
13         test();
14     clock_t t2 = clock();
15     std::cout<<"time: "<<t2-t1<<std::endl;
16 }
复制代码

编译运行后,打印出来的耗时为:1.971秒。下面我们用一句话把上面代码变成多核运行。

复制代码
 1 #include <iostream>
 2 #include <time.h>
 3 void test()
 4 {
 5     int a = 0;
 6     for (int i=0;i<100000000;i++)
 7         a++;
 8 }
 9 int main()
10 {
11     clock_t t1 = clock();
12     #pragma omp parallel for
13     for (int i=0;i<8;i++)
14         test();
15     clock_t t2 = clock();
16     std::cout<<"time: "<<t2-t1<<std::endl;
17 }
复制代码

编译运行后,打印出来的耗时为:0.546秒,几乎为上面时间的1/4。

由此我们可以看到openMP的简单易用。在上面的代码里,我们一没有额外include头文件,二没有额外link库文件,只是在for循环前加了一句#pragma omp parallel for。而且这段代码在单核机器上,或者编译器没有将openMP设为Yes的机器上编译也不会报错,将自动忽略#pragma这行代码,然后按照传统单核串行的方式编译运行!我们唯一要多做的一步,是从C:\Program Files\Microsoft Visual Studio 9.0\VC\redist\x86\Microsoft.VC90.OPENMP和C:\Program Files\Microsoft Visual Studio 9.0\VC\redist\Debug_NonRedist\x86\Microsoft.VC90.DebugOpenMP目录下分别拷贝vcomp90d.dll和vcomp90.dll文件到工程文件当前目录下。

对上面代码按照我的理解做个简单的剖析。

当编译器发现#pragma omp parallel for后,自动将下面的for循环分成N份,(N为电脑CPU核数),然后把每份指派给一个核去执行,而且多核之间为并行执行。下面的代码验证了这种分析。

复制代码
1 #include <iostream>
2 int main()
3 {
4 #pragma omp parallel for
5     for (int i=0;i<10;i++)
6         std::cout<<i<<std::endl;
7     return 0;
8 }
复制代码

会发现控制台打印出了0 3 4 5 8 9 6 7 1 2。注意:因为每个核之间是并行执行,所以每次执行时打印出的顺序可能都是不一样的。

下面我们来了谈谈竞态条件(race condition)的问题,这是所有多线程编程最棘手的问题。该问题可表述为,当多个线程并行执行时,有可能多个线程同时对某变量进行了读写操作,从而导致不可预知的结果。比如下面的例子,对于包含10个整型元素的数组a,我们用for循环求它各元素之和,并将结果保存在变量sum里。

复制代码
 1 #include <iostream>
 
2 int main()
 
3 {
 
4     int sum = 0;
 
5     int a[10] = {1,2,3,4,5,6,7,8,9,10};
 
6 #pragma omp parallel for
 
7     for (int i=0;i<10;i++)
 
8         sum = sum + a[i];
 
9     std::cout<<"sum: "<<sum<<std::endl;

10     return 0;

11 }
复制代码

如果我们注释掉#pragma omp parallel for,让程序先按照传统串行的方式执行,很明显,sum = 55。但按照并行方式执行后,sum则会变成其他值,比如在某次运行过程中,sum = 49。其原因是,当某线程A执行sum = sum + a[i]的同时,另一线程B正好在更新sum,而此时A还在用旧的sum做累加,于是出现了错误。

那么用openMP怎么实现并行数组求和呢?下面我们先给出一个基本的解决方案。该方案的思想是,首先生成一个数组sumArray,其长度为并行执行的线程的个数(默认情况下,该个数等于CPU的核数),在for循环里,让各个线程更新自己线程对应的sumArray里的元素,最后再将sumArray里的元素累加到sum里,代码如下

复制代码
 1 #include <iostream>
 2 #include <omp.h>
 3 int main(){
 4     int sum = 0;
 5     int a[10] = {1,2,3,4,5,6,7,8,9,10};
 6     int coreNum = omp_get_num_procs();//获得处理器个数
 7     int* sumArray = new int[coreNum];//对应处理器个数,先生成一个数组
 8     for (int i=0;i<coreNum;i++)//将数组各元素初始化为0
 9         sumArray[i] = 0;
10 #pragma omp parallel for
11     for (int i=0;i<10;i++)
12     {
13         int k = omp_get_thread_num();//获得每个线程的ID
14         sumArray[k] = sumArray[k]+a[i];
15     }
16     for (int i = 0;i<coreNum;i++)
17         sum = sum + sumArray[i];
18     std::cout<<"sum: "<<sum<<std::endl;
19     return 0;
20 }
复制代码

需要注意的是,在上面代码里,我们用omp_get_num_procs()函数来获取处理器个数,用omp_get_thread_num()函数来获得每个线程的ID,为了使用这两个函数,我们需要include <omp.h>。

上面的代码虽然达到了目的,但它产生了较多的额外操作,比如要先生成数组sumArray,最后还要用一个for循环将它的各元素累加起来,有没有更简便的方式呢?答案是有,openMP为我们提供了另一个工具,归约(reduction),见下面代码:

复制代码
 1 #include <iostream>
 2 int main(){
 3     int sum = 0;
 4     int a[10] = {1,2,3,4,5,6,7,8,9,10};
 5 #pragma omp parallel for reduction(+:sum)
 6     for (int i=0;i<10;i++)
 7         sum = sum + a[i];
 8     std::cout<<"sum: "<<sum<<std::endl;
 9     return 0;
10 }
复制代码

上面代码里,我们在#pragma omp parallel for 后面加上了 reduction(+:sum),它的意思是告诉编译器:下面的for循环你要分成多个线程跑,但每个线程都要保存变量sum的拷贝,循环结束后,所有线程把自己的sum累加起来作为最后的输出。

reduction虽然很方便,但它只支持一些基本操作,比如+,-,*,&,|,&&,||等。有些情况下,我们既要避免race condition,但涉及到的操作又超出了reduction的能力范围,应该怎么办呢?这就要用到openMP的另一个工具,critical。来看下面的例子,该例中我们求数组a的最大值,将结果保存在max里。

复制代码
 1 #include <iostream>
 2 int main(){
 3     int max = 0;
 4     int a[10] = {11,2,33,49,113,20,321,250,689,16};
 5 #pragma omp parallel for
 6     for (int i=0;i<10;i++)
 7     {
 8         int temp = a[i];
 9 #pragma omp critical
10         {
11             if (temp > max)
12                 max = temp;
13         }
14     }
15     std::cout<<"max: "<<max<<std::endl;
16     return 0;
17 }
复制代码

上例中,for循环还是被自动分成N份来并行执行,但我们用#pragma omp critical将 if (temp > max) max = temp 括了起来,它的意思是:各个线程还是并行执行for里面的语句,但当你们执行到critical里面时,要注意有没有其他线程正在里面执行,如果有的话,要等其他线程执行完再进去执行。这样就避免了race condition问题,但显而易见,它的执行速度会变低,因为可能存在线程等待的情况。
有了以上基本知识,对我来说做很多事情都足够了。下面我们来看一个具体的应用例,从硬盘读入两幅图像,对这两幅图像分别提取特征点,特征点匹配,最后将图像与匹配特征点画出来。理解该例子需要一些图像处理的基本知识,我不在此详细介绍。另外,编译该例需要opencv,我用的版本是2.3.1,关于opencv的安装与配置也不在此介绍。我们首先来看传统串行编程的方式。

复制代码
 1 #include "opencv2/highgui/highgui.hpp"
 2 #include "opencv2/features2d/features2d.hpp"
 3 #include <iostream>
 4 #include <omp.h>
 5 int main( ){
 6     cv::SurfFeatureDetector detector( 400 );    
 7     cv::SurfDescriptorExtractor extractor;
 8     cv::BruteForceMatcher<cv::L2<float> > matcher;
 9     std::vector< cv::DMatch > matches;
10     cv::Mat im0,im1;
11     std::vector<cv::KeyPoint> keypoints0,keypoints1;
12     cv::Mat descriptors0, descriptors1;
13     double t1 = omp_get_wtime( );
14     //先处理第一幅图像
15     im0 = cv::imread("rgb0.jpg", CV_LOAD_IMAGE_GRAYSCALE );
16     detector.detect( im0, keypoints0);
17     extractor.compute( im0,keypoints0,descriptors0);
18     std::cout<<"find "<<keypoints0.size()<<"keypoints in im0"<<std::endl;
19     //再处理第二幅图像
20     im1 = cv::imread("rgb1.jpg", CV_LOAD_IMAGE_GRAYSCALE );
21     detector.detect( im1, keypoints1);
22     extractor.compute( im1,keypoints1,descriptors1);
23     std::cout<<"find "<<keypoints1.size()<<"keypoints in im1"<<std::endl;
24     double t2 = omp_get_wtime( );
25     std::cout<<"time: "<<t2-t1<<std::endl;
26     matcher.match( descriptors0, descriptors1, matches );
27     cv::Mat img_matches;
28     cv::drawMatches( im0, keypoints0, im1, keypoints1, matches, img_matches ); 
29     cv::namedWindow("Matches",CV_WINDOW_AUTOSIZE);
30     cv::imshow( "Matches", img_matches );
31     cv::waitKey(0);
32     return 1;
33 }
复制代码

很明显,读入图像,提取特征点与特征描述子这部分可以改为并行执行,修改如下:

复制代码
 1 #include "opencv2/highgui/highgui.hpp"
 2 #include "opencv2/features2d/features2d.hpp"
 3 #include <iostream>
 4 #include <vector>
 5 #include <omp.h>
 6 int main( ){
 7     int imNum = 2;
 8     std::vector<cv::Mat> imVec(imNum);
 9     std::vector<std::vector<cv::KeyPoint>>keypointVec(imNum);
10     std::vector<cv::Mat> descriptorsVec(imNum);
11     cv::SurfFeatureDetector detector( 400 );    cv::SurfDescriptorExtractor extractor;
12     cv::BruteForceMatcher<cv::L2<float> > matcher;
13     std::vector< cv::DMatch > matches;
14     char filename[100];
15     double t1 = omp_get_wtime( );
16 #pragma omp parallel for
17     for (int i=0;i<imNum;i++){
18         sprintf(filename,"rgb%d.jpg",i);
19         imVec[i] = cv::imread( filename, CV_LOAD_IMAGE_GRAYSCALE );
20         detector.detect( imVec[i], keypointVec[i] );
21         extractor.compute( imVec[i],keypointVec[i],descriptorsVec[i]);
22         std::cout<<"find "<<keypointVec[i].size()<<"keypoints in im"<<i<<std::endl;
23     }
24     double t2 = omp_get_wtime( );
25     std::cout<<"time: "<<t2-t1<<std::endl;
26     matcher.match( descriptorsVec[0], descriptorsVec[1], matches );
27     cv::Mat img_matches;
28     cv::drawMatches( imVec[0], keypointVec[0], imVec[1], keypointVec[1], matches, img_matches ); 
29     cv::namedWindow("Matches",CV_WINDOW_AUTOSIZE);
30     cv::imshow( "Matches", img_matches );
31     cv::waitKey(0);
32     return 1;
33 }
复制代码

两种执行方式做比较,时间为:2.343秒v.s. 1.2441秒

在上面代码中,为了改成适合#pragma omp parallel for执行的方式,我们用了STL的vector来分别存放两幅图像、特征点与特征描述子,但在某些情况下,变量可能不适合放在vector里,此时应该怎么办呢?这就要用到openMP的另一个工具,section,代码如下:

复制代码
 1 #include "opencv2/highgui/highgui.hpp"
 2 #include "opencv2/features2d/features2d.hpp"
 3 #include <iostream>
 4 #include <omp.h>
 5 int main( ){
 6     cv::SurfFeatureDetector detector( 400 );    cv::SurfDescriptorExtractor extractor;
 7     cv::BruteForceMatcher<cv::L2<float> > matcher;
 8     std::vector< cv::DMatch > matches;
 9     cv::Mat im0,im1;
10     std::vector<cv::KeyPoint> keypoints0,keypoints1;
11     cv::Mat descriptors0, descriptors1;
12     double t1 = omp_get_wtime( );
13 #pragma omp parallel sections
14     {
15 #pragma omp section
16         {
17             std::cout<<"processing im0"<<std::endl;
18             im0 = cv::imread("rgb0.jpg", CV_LOAD_IMAGE_GRAYSCALE );
19             detector.detect( im0, keypoints0);
20             extractor.compute( im0,keypoints0,descriptors0);
21             std::cout<<"find "<<keypoints0.size()<<"keypoints in im0"<<std::endl;
22         }
23 #pragma omp section
24         {
25             std::cout<<"processing im1"<<std::endl;
26             im1 = cv::imread("rgb1.jpg", CV_LOAD_IMAGE_GRAYSCALE );
27             detector.detect( im1, keypoints1);
28             extractor.compute( im1,keypoints1,descriptors1);
29             std::cout<<"find "<<keypoints1.size()<<"keypoints in im1"<<std::endl;
30         }
31     }
32     double t2 = omp_get_wtime( );
33     std::cout<<"time: "<<t2-t1<<std::endl;
34     matcher.match( descriptors0, descriptors1, matches );
35     cv::Mat img_matches;
36     cv::drawMatches( im0, keypoints0, im1, keypoints1, matches, img_matches ); 
37     cv::namedWindow("Matches",CV_WINDOW_AUTOSIZE);
38     cv::imshow( "Matches", img_matches );
39     cv::waitKey(0);
40     return 1;
41 }
复制代码

上面代码中,我们首先用#pragma omp parallel sections将要并行执行的内容括起来,在它里面,用了两个#pragma omp section,每个里面执行了图像读取、特征点与特征描述子提取。将其简化为伪代码形式即为:

复制代码
 1 #pragma omp parallel sections
 2 {
 3     #pragma omp section
 4     {
 5         function1();
 6     }
 7   #pragma omp section
 8     {
 9         function2();
10     }
11 }
复制代码

意思是:parallel sections里面的内容要并行执行,具体分工上,每个线程执行其中的一个section,如果section数大于线程数,那么就等某线程执行完它的section后,再继续执行剩下的section。在时间上,这种方式与人为用vector构造for循环的方式差不多,但无疑该种方式更方便,而且在单核机器上或没有开启openMP的编译器上,该种方式不需任何改动即可正确编译,并按照单核串行方式执行。

以上分享了这两天关于openMP的一点学习体会,其中难免有错误,欢迎指正。另外的一点疑问是,看到各种openMP教程里经常用到private,shared等来修饰变量,这些修饰符的意义和作用我大致明白,但在我上面所有例子中,不加这些修饰符似乎并不影响运行结果,不知道这里面有哪些讲究。

在写上文的过程中,参考了包括以下两个网址在内的多个地方的资源,不再一 一列出,在此一并表示感谢。

http://blog.csdn.net/drzhouweiming/article/details/4093624
http://software.intel.com/zh-cn/articles/more-work-sharing-with-openmp

 
 
 
分享到:
评论

相关推荐

    Fortran+ openmp实现实例

    OpenMP(Open Multi-Processing)是Fortran和C/C++等编程语言中广泛使用的并行编程接口,用于实现共享内存多处理器系统上的并行计算。本教程实例将深入探讨如何在Fortran程序中利用OpenMP进行并行化,以提高计算效率...

    OpenMP并行程序设计

    OpenMP(Open Multi-Processing)是一种用于编写多线程并行程序的API,主要应用于共享内存的多处理器系统。它的核心特点在于通过编译器指令、运行时库和环境变量来实现并行化,允许程序员在不牺牲可移植性的前提下,...

    openmp-4.5.rar

    《OpenMP 4.5版本官方手册》是并行计算领域的重要参考资料,它详细阐述了OpenMP Application Programming Interface (API)的4.5版本规范。OpenMP是一种在共享内存多处理器系统上进行并行编程的标准,它通过提供一组...

    openmp编程指南.pdf

    ### OpenMP编程指南知识点概述 #### 一、OpenMP简介及背景 - **多核时代的挑战**:随着处理器技术的发展,现代计算机系统普遍采用多核架构。为了充分利用这些硬件资源,开发人员需要采用多线程编程技术。在单核...

    eclipse 下配置OpenMP包

    在本篇文章中,我们将深入探讨如何在Eclipse开发环境中配置并使用OpenMP(Open Multi-Processor)技术。OpenMP是一种广泛使用的多线程编程模型,主要用于简化并行编程任务,提高程序运行效率。通过在Eclipse中配置...

    MPI与OpenMP并行程序设计:C语言版,mpi和openmp混合编程,C,C++

    MPI(Message Passing Interface)和OpenMP是两种常用的并行编程模型,它们分别针对不同的并行环境和任务需求。本篇文章将详细讲解基于C语言的MPI与OpenMP的并行程序设计,以及它们的混合编程。 首先,MPI是一种...

    openmp-examples-master_openmp_源码

    【标题】"openmp-examples-master_openmp_源码" 提供的是一个关于OpenMP的实践项目,旨在帮助用户深入理解和应用OpenMP并行编程模型。OpenMP(Open Multi-Processing)是一种广泛应用在C++、Fortran等编译语言中的...

    OpenMP用户手册(中文).docx

    OpenMP(Open Multi-Processing)是一种应用程序接口,用于在共享内存体系结构的并行编程中提供可移植性和可扩展性。这个API支持C/C++和Fortran编程语言,旨在简化多线程编程,使得开发者能够通过一系列的编译器指令...

    Qt creator下测试Openmp样例代码

    在本文中,我们将深入探讨如何在Qt Creator这个强大的C++集成开发环境中测试OpenMP样例代码。OpenMP(Open Multi-Processing)是一个用于共享内存并行计算的API标准,广泛应用于多核处理器环境,可以显著提升多线程...

    openmp-3.0.rar

    《OpenMP 3.0并行编程指南》 OpenMP(Open Multi-Processing)是一种用于共享内存多处理器系统上的并行编程模型,它为C、C++和Fortran等编程语言提供了一种标准的接口。OpenMP 3.0是这一系列规范的一个重要版本,...

    MPI与OpenMP并行程序设计

    《MPI与OpenMP并行程序设计》是一本深入探讨并行计算领域中两种主流技术——Message Passing Interface(MPI)和OpenMP的书籍。并行计算是解决大规模计算问题的关键技术,尤其是在高性能计算、数据分析和机器学习等...

    OpenMP用户指南.pdf

    OpenMP是一种编程接口,用于在共享内存系统上进行多线程并行程序设计。它支持C、C++和Fortran这三种广泛使用的编程语言。OpenMP提供了API(应用程序编程接口),允许程序员在不改变原有代码结构的情况下,加入多线程...

    实现(串行,openmp、mpi、openmp+mpi)快速排序算法,并作出时间对比图

    主要采用快速排序实现(串行,openmp、mpi、openmp+mpi)排序算法,所需环境为VS2019+openmp+mpi,cmd命令 (1)完成了CPU串行程序和三种并行程序在各种规模的运行,并作出时间对比图 (2)完成了串行,openmp使用...

    gcc-5.1.0-tdm64-1-openmp.zip

    标题中的"gcc-5.1.0-tdm64-1-openmp.zip"表明这是一个包含GCC(GNU Compiler Collection)的版本为5.1.0的64位TDM(Tiny Distro MinGW)构建,特别针对OpenMP并行编程进行了优化。OpenMP是一种在C、C++和Fortran中...

    OpenMP并行计算Fortran

    ### OpenMP并行计算Fortran知识点详解 #### 一、OpenMP Fortran 应用程序接口简介 在《Parallel Programming in Fortran 95 using OpenMP》这份文档中,作者Miguel Hermanns(来自西班牙马德里理工大学航空工程...

    mpi与openmp并行程序设计ppt

    MPI(Message Passing Interface)和OpenMP是两种常见的并行编程模型,它们各自有着独特的特性和应用场景。以下是对这两个主题的详细解释以及相关知识点。 MPI(Message Passing Interface)是一种标准化的接口,...

    第一个OpenMP程序

    **标题:“第一个OpenMP程序”** **描述:** OpenMP是一种并行编程模型,它为共享内存多处理器系统提供了一种简单、可移植的方式来编写多线程程序。这篇博客文章可能详细介绍了如何编写你的第一个OpenMP程序,通过...

    MPI+OpenMP.zip

    《MPI+OpenMP并行计算详解》 在现代高性能计算领域,为了充分利用多核处理器以及分布式计算资源,MPI(Message Passing Interface)和OpenMP已成为并行编程的两大主流技术。本资料“MPI+OpenMP.zip”包含了一个针对...

    OpenMPOpenMPOpenMP

    OpenMP(Open Multi-Processing)是一种并行编程模型,它为共享内存的多处理器系统提供了一种简单、可移植和高效的方式来进行并行计算。OpenMP标准由一系列的API(应用程序编程接口)组成,允许程序员在C、C++和...

Global site tag (gtag.js) - Google Analytics