<div dir="ltr"><br><br><div class="gmail_quote">On Thu, Sep 18, 2008 at 7:22 AM, Glen Beane <span dir="ltr">&lt;<a href="mailto:glen.beane@gmail.com">glen.beane@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div dir="ltr"><div><div></div><div class="Wj3C7c"><br><br><div class="gmail_quote">On Wed, Sep 17, 2008 at 10:06 PM, Zhiliang Hu <span dir="ltr">&lt;<a href="mailto:zhu@iastate.edu" target="_blank">zhu@iastate.edu</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Sorry for cross posting -- I didn&#39;t get the problem solved on other lists:<br>
<br>
We are running a Linux CentOS 8-node cluster. When &quot;qsub&quot; a mpiblast job, I came to this dilemma: what&#39;s the correct way to supply the nodes information: to &quot;qsub&quot; (-l nodes=6:ppn=2)? or to &quot;mpirun&quot; (-np 12 -machinefile /path/to/mpimachines)? &nbsp;Or both? --- they all failed in my trials (details below).<br>


<br>
Any advice it appreciated.</blockquote></div></div></div></div></blockquote></div><br><br>Hi,&nbsp; I actually just noticed the problem<br><br>(3) will work if you omit ómachinefile /path/to/machines/file<br><br>It appears you are using OpenMPI.&nbsp; When OpenMPI is compiled with native TORQUE support (use tm to launch remote processes) you must omit ómachinefile since TM knows about all the nodes assigned to the job by TORQUE.<br>
<br><br></div>