<div>Hi Torque-Users , i am have a following problem with my MPI-JOB</div><div><br></div><div>[root@master ~]# grep 35.master /var/spool/maui/log/maui.log</div><div>09/09 16:47:09 MPBSJobLoad(35,35.master,J,TaskList,0)</div>
<div>09/09 16:47:16 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:47:47 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:48:18 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:48:49 MPBSJobUpdate(35,35.master,TaskList,0)</div>
<div>09/09 16:49:20 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:49:51 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:50:22 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:50:53 MPBSJobUpdate(35,35.master,TaskList,0)</div>
<div>09/09 16:51:24 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:51:55 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:52:26 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:52:57 MPBSJobUpdate(35,35.master,TaskList,0)</div>
<div>09/09 16:53:28 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:53:59 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:54:30 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>09/09 16:55:01 MPBSJobUpdate(35,35.master,TaskList,0)</div>
<div>09/09 16:55:32 MPBSJobUpdate(35,35.master,TaskList,0)</div><div>.</div><div>.</div><div>.</div><div><br></div><div>I use : </div><div><ul><li>torque-2.4.5.tar.gz</li><li>mpich2-1.2.1p1.tar.gz</li><li>mpiexec-0.83.tgz</li>
<li>maui-3.3.tar.gz</li></ul></div><div>My job is a very simple sum (1 to 1000)  with mpi . </div><div><br></div><div>My source </div><div><br></div><div><br></div><div><div><i><b>#include&lt;stdio.h&gt;</b></i></div><div>
<i><b>#include&lt;mpi.h&gt;</b></i></div><div><i><b><br></b></i></div><div><i><b>int main(int argc, char ** argv){</b></i></div><div><i><b>int mynode, totalnodes;</b></i></div><div><i><b>int sum,startval,endval,accum;</b></i></div>
<div><i><b>int i,j;</b></i></div><div><i><b>MPI_Status status;</b></i></div><div><i><b><br></b></i></div><div><i><b>MPI_Init(&amp;argc,&amp;argv);</b></i></div><div><i><b>MPI_Comm_size(MPI_COMM_WORLD, &amp;totalnodes);</b></i></div>
<div><i><b>MPI_Comm_rank(MPI_COMM_WORLD, &amp;mynode);</b></i></div><div><i><b><br></b></i></div><div><i><b><br></b></i></div><div><i><b><br></b></i></div><div><i><b>sum = 0;</b></i></div><div><i><b><br></b></i></div><div>
<i><b>startval = 1000*mynode/totalnodes+1;</b></i></div><div><i><b>endval = 1000*(mynode+1)/totalnodes;</b></i></div><div><i><b><br></b></i></div><div><i><b><br></b></i></div><div><i><b>/********************************************/</b></i></div>
<div><i><b>printf(&quot;\n&quot;);</b></i></div><div><i><b>printf(&quot;StartVal =%d\n&quot;,startval);</b></i></div><div><i><b>printf(&quot;EndVal =%d\n&quot;,endval);</b></i></div><div><i><b>printf(&quot;\n&quot;);</b></i></div>
<div><i><b>/********************************************/</b></i></div><div><i><b><br></b></i></div><div><i><b>for(i=startval;i&lt;=endval;i=i+1)</b></i></div><div><i><b>sum = sum + i;</b></i></div><div><i><b><br></b></i></div>
<div><i><b>if(mynode!=0)</b></i></div><div><span class="Apple-tab-span" style="white-space:pre"><i><b>        </b></i></span><i><b>MPI_Send(&amp;sum,1,MPI_INT,0,1,MPI_COMM_WORLD);</b></i></div><div><i><b>else</b></i></div><div><i><b>for(j=1;j&lt;totalnodes;j=j+1)</b></i></div>
<div><span class="Apple-tab-span" style="white-space:pre"><i><b>        </b></i></span><i><b>{</b></i></div><div><span class="Apple-tab-span" style="white-space:pre"><i><b>        </b></i></span><i><b>MPI_Recv(&amp;accum,1,MPI_INT,j,1,MPI_COMM_WORLD, &amp;status);</b></i></div>
<div><span class="Apple-tab-span" style="white-space:pre"><i><b>        </b></i></span><i><b>/********************************************/</b></i></div><div><span class="Apple-tab-span" style="white-space:pre"><i><b>        </b></i></span><i><b>printf(&quot;Mi status es : %d \n &quot;, status.MPI_TAG);</b></i></div>
<div><span class="Apple-tab-span" style="white-space:pre"><i><b>        </b></i></span><i><b>/********************************************/</b></i></div><div><span class="Apple-tab-span" style="white-space:pre"><i><b>        </b></i></span><i><b>sum = sum + accum;</b></i></div>
<div><span class="Apple-tab-span" style="white-space:pre"><i><b>        </b></i></span><i><b>}</b></i></div><div><i><b><br></b></i></div><div><i><b>if(mynode == 0)</b></i></div><div><i><b>printf(&quot;La suma total es %d\n&quot;,sum);</b></i></div>
<div><i><b><br></b></i></div><div><i><b>MPI_Finalize();</b></i></div><div><i><b><br></b></i></div><div><i><b>}</b></i></div></div><div><br></div><div><br></div><div><br></div><div>My qsub file </div><div><br></div><div><div>
<i><b>#PBS -S /bin/bash</b></i></div><div><i><b>#PBS -N suma_paralela</b></i></div><div><i><b>#PBS -q batch</b></i></div><div><i><b>#PBS -l nodes=quad4:ppn=8+quad2:ppn=4+gauss:ppn=2</b></i></div><div><i><b>#PBS -j oe</b></i></div>
<div><i><b>#PBS -o $PBS_JOBID_3NODOS.output</b></i></div><div><i><b><br></b></i></div><div><i><b>echo &quot;Empieza a Correr el programa paralelo&quot;</b></i></div><div><i><b>/usr/local/mpiexec83/bin/mpiexec -np 14 /jro_cluster/mpiX/MPI/suma_paralela</b></i></div>
</div><div><br></div><div><br></div>-- <br>Abraham Zamudio Ch.<br><br>