ImageVerifierCode 换一换
格式:DOCX , 页数:15 ,大小:379.44KB ,
资源ID:10339003      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/10339003.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(MPI综合实验报告.docx)为本站会员(b****8)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

MPI综合实验报告.docx

1、MPI综合实验报告MPI综合实验报告目前三次MPI实验已经结束,结合之前所写的实验报告,对总体的实验容做一个总结。参考资料:MPI简介多线程是一种便捷的模型,其中每个线程都可以访问其它线程的存储空间。因此,这种模型只能在共享存储系统之间移植。一般来讲,并行机不一定在各处理器之间共享存储,当面向非共享存储系统开发并行程序时,程序的各部分之间通过来回传递消息的方式通信。要使得消息传递方式可移植,就需要采用标准的消息传递库。这就促成的消息传递接口(Message Passing Interface, MPI)的面世,MPI是一种被广泛采用的消息传递标准1。与OpenMP并行程序不同,MPI是一种基于

2、消息传递的并行编程技术。消息传递接口是一种编程接口标准,而不是一种具体的编程语言。简而言之,MPI标准定义了一组具有可移植性的编程接口。各个厂商或组织遵循这些标准实现自己的MPI软件包,典型的实现包括开放源代码的MPICH、LAM MPI以及不开放源代码的Intel MPI。由于MPI提供了统一的编程接口,程序员只需要设计好并行算法,使用相应的MPI库就可以实现基于消息传递的并行计算。MPI支持多种操作系统,包括大多数的类UNIX和Windows系统。三次实验总结第一次实验:实验要求:配置好MPI运行的基本环境,测试MPI的基本通信程序。程序:#include stdafx.h#include

3、 void main( void ) MPI_Status status; char string=xxxxx; int myid; MPI_Init(NULL,NULL); MPI_Comm_rank(MPI_COMM_WORLD,&myid); if(myid=2) MPI_Send(HELLO,5,MPI_CHAR,7,1234,MPI_COMM_WORLD); if(myid=7) MPI_Recv(string,5,MPI_CHAR,2,MPI_ANY_TAG,MPI_COMM_WORLD,&status); printf(Got %s from P%d,tag %dn,string

4、,status,status.MPI_SOURCE,status.MPI_TAG); MPI_Finalize();运行环境配置过程:(这个是在根据网上的环境配置教程做的)1、安装软件MPICH2,本次操作安装在C:Program FilesMPICH2文件夹中。2、打开安装好的MPICH2目录,打开bin文件夹中的wmpiregister.exe文件,进行注册。填入本机的用户名和密码。3、建立一个控制台应用程序空文档,MY MPI,输入程序4、添加库和包含文件打开Tool-Options对话框选择项目和解决方案下的VC+目录一栏,如下图所示:分别添加包含文件C:Program FilesMP

5、ICH2include和库文件C:Program FilesMPICH2lib5、取消预编译头打开Project-Property,设置框如下图所示展开C/C+项,选择与编译头,在创建/使用预编译头中选择:不使用预编译头6、打开Project-Property,设置框如下图所示将配置属性中的常规项中的字符集设置成未设置展开连接器中输入项,在附件依赖项中添加mpi.lib7、自定义多线程运行打开MPICH2安装目录显得mpiexec.exe装入运行产生的.exe文件并选择线程数,运行结果如下图所示第二次实验实验要求:MPI实验第二部分1. 了解计算粒度、问题规模(计算负载)、并行程度概念;2.

6、测试基于MPI的Pi并行计算程序;3. 完成实验报告(MPI程序代码、运行结果截屏、实验分析总结)在这次的实验过程中,我们的程序是通过数值方法计算的值来观察运行时间。程序:#includestdafx.h#include#includempi.hstaticlong num_steps = 100000;void main(int argc, char* argv)int i_start, i_end, i, myid, numprocs; double pi, mypi, x, step, sum = 0.0; double start, end; MPI_Init(&argc, &argv

7、); MPI_Comm_size(MPI_COMM_WORLD, &numprocs); MPI_Comm_rank(MPI_COMM_WORLD, &myid); if(myid = 0) start = MPI_Wtime(); MPI_Bcast(&num_steps, 1, MPI_INT, 0, MPI_COMM_WORLD); i_start = myid * (num_steps / numprocs); i_end = i_start + (num_steps / numprocs); step = 1.0 / (double) num_steps; for( i = i_st

8、art; i i_end; i+) x = (i + 0.5) * step; sum = sum + 4.0 / (1.0 + x * x); mypi = step * sum; MPI_Reduce(&mypi, &pi, 1, MPI_DOUBLE, MPI_SUM, 0, MPI_COMM_WORLD); if(myid = 0) printf(Pi = %fn, pi); end = MPI_Wtime(); printf(Run time is : %.10fn, end - start); fflush(stdout); MPI_Finalize();实验原理:利用公式PI的近

9、似值计算圆周率7,定积分的计算可以转化为求一个曲边梯形的面积问题。将积分区间等分成n个小的子区间,可将每个小的子区间上的曲边梯形近似地看成矩形,这些矩形面积的和就近似地等于原来曲边梯形的面积。这样最终将求圆周率的问题转化成了一个面积迭加的计算。当进程数为2时,运算时间很小,要比进程数为1时时间要短,说明该情况下,多进程的运行效率要比单进程高。然后,我使用了几台计算机在同一局域网之下构成了集群计算机系统,采用非共享存方式利用多进程完成任务。在两台机器构成的集群计算机系统之下,我分别测了多组进程之下并行计算的时间比较,运算结果如下所示:做表格比较之:进程数1481216运行时间0.00044419

10、050.00120518110.00111410810.00133368910.0012272509结果分析:因为计算规模较小,集群计算机系统并行多进程计算并不能很明显的表现出计算优势。反而,经过验证,在较大规模计算量之下,集群计算机系统的计算速度优越性得到明显展现。第三次实验实验要求:1. 理解同步(synchronous)计算和同步路障(barrier)2. 测试基于MPI_Barrier()的并行程序3. 完成实验报告(MPI程序代码、运行结果截屏、实验分析总结)程序:#includestdafx.h#include#includempi.hint main(int argc, char

11、* argv)int taskid, ntasks;int ierr; MPI_Init(&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD, &taskid); MPI_Comm_size(MPI_COMM_WORLD, &ntasks); if(taskid = 0) printf(nnnnnn); ierr = MPI_Barrier(MPI_COMM_WORLD); if(taskid = 0) printf(Hel); fflush(stdout); if(taskid = 1) printf(lo ); fflush(stdout); if(ta

12、skid = 2) printf(Wor); fflush(stdout); if(taskid = 3) printf(ld!); fflush(stdout); ierr = MPI_Barrier(MPI_COMM_WORLD); if(taskid = 0) printf( (Unordered)n); fflush(stdout); if(taskid = 0) printf(Hel); fflush(stdout); ierr = MPI_Barrier(MPI_COMM_WORLD); if(taskid = 1) printf(lo ); fflush(stdout); ier

13、r = MPI_Barrier(MPI_COMM_WORLD); if(taskid = 2) printf(Wor); fflush(stdout); ierr = MPI_Barrier(MPI_COMM_WORLD); if(taskid = 3) printf(ld!); fflush(stdout); ierr = MPI_Barrier(MPI_COMM_WORLD); if(taskid = 0) printf( (Ordered)nnnnn); MPI_Finalize(); return 0;实验原理:同步计算和同步路障Barriers:Blocks until all pr

14、ocesses in the communicator have reached this routine.A point at which all processes must wait until all other processes have reached that point.Synchronous & Barrier:In a fully synchronous application, all the processes synchronized at a regular points.实验结果截屏:结果分析:如果大于等于4个进程的话,输出的语句就是顺序的,正常的,但是如果进程

15、数目小于4,由于同步路障的存在,只有当所有进程到来之时才会被同步,这样由于进程数小于要求进程数,所以同步会出现问题,所以输出的语句会出现乱码。MPI实验总结通过这次实验,我们对MPI有了一个初步了解。MPI是一种基于消息传递的并行编程技术,而不是一种具体的编程语言。MPI程序与OpenMP程序的最大不同就是MPI程序不仅可以适用多线程的方式并行运算还可以让程序以多进程的方式执行,以这种方式执行的程序并不共享存,各个进程是通过消息传递来进行通信的。这样做的好处是完成某一计算任务的不同进程可以运行在不同处理器上(不只是处理器的不同核上),甚至是不同的结点计算机上,方便分布式计算系统的构建。在实验的过程中,请教了老师很多问题,不管多么简单抑或繁琐,老师都一一耐心加以解答,再次表示衷心感谢。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1