<div dir="ltr"><div class="gmail_default" style="font-family:courier new,monospace">Hi Brock,</div><div class="gmail_default" style="font-family:courier new,monospace"><br></div><div class="gmail_default" style="font-family:courier new,monospace">
Since your email I&#39;ve been testing this out with MVAPICH2 2.0a (I know, another group but: how stable is 2.0a?) and so far it works fine without setting any environment variables. mpiexec and mpirun are symbolic links to mpiexec.hydra. </div>
<div class="gmail_default" style="font-family:courier new,monospace"><br></div><div class="gmail_default" style="font-family:courier new,monospace">Thanks!</div><div class="gmail_default" style="font-family:courier new,monospace">
<br></div><div class="gmail_default" style="font-family:courier new,monospace">Steve</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Sep 24, 2013 at 2:36 PM, Brock Palen <span dir="ltr">&lt;<a href="mailto:brockp@umich.edu" target="_blank">brockp@umich.edu</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Don&#39;t have details in front of me, but we get around this by nolonger using OSC mpiexec, and manually build mpiexec.hydra (part of mpich)<br>

<br>
We then manually set:<br>
export HYDRA_LAUNCHER=pbs<br>
export HYDRA_RMK=pbs<br>
<br>
This works with mpich/mvapich/intel-mpi.<br>
<br>
Brock Palen<br>
<a href="http://www.umich.edu/~brockp" target="_blank">www.umich.edu/~brockp</a><br>
CAEN Advanced Computing<br>
XSEDE Campus Champion<br>
<a href="mailto:brockp@umich.edu">brockp@umich.edu</a><br>
<a href="tel:%28734%29936-1985" value="+17349361985">(734)936-1985</a><br>
<div><div class="h5"><br>
<br>
<br>
On Sep 24, 2013, at 1:48 PM, Stephen Cousins &lt;<a href="mailto:steve.cousins@maine.edu">steve.cousins@maine.edu</a>&gt; wrote:<br>
<br>
&gt; I found this message from March:<br>
&gt;<br>
&gt; <a href="http://www.supercluster.org/pipermail/torqueusers/2013-March/015807.html" target="_blank">http://www.supercluster.org/pipermail/torqueusers/2013-March/015807.html</a><br>
&gt;<br>
&gt; about problems with Torque 4 and OSC mpiexec. Also another one from 2012 indicating a Torque bug:<br>
&gt;<br>
&gt; <a href="http://www.supercluster.org/pipermail/torqueusers/2012-July/014884.html" target="_blank">http://www.supercluster.org/pipermail/torqueusers/2012-July/014884.html</a><br>
&gt;<br>
&gt; I am running Torque 4.2.4.1 after upgrading due to the recent Torque security problem. Now I see that our MVAPICH2 jobs that use the OSC mpiexec program don&#39;t always start well and they never stop correctly. The program stops but the job stays queued until qdel&#39;d or walltime runs out.<br>

&gt;<br>
&gt; I have started a case with Adaptive Computing but have yet to hear anything so I wondered if anyone on this list has insight and/or a fix for this.<br>
&gt;<br>
&gt; Thanks,<br>
&gt;<br>
&gt; Steve<br>
&gt;<br>
</div></div>&gt; _______________________________________________<br>
&gt; torqueusers mailing list<br>
&gt; <a href="mailto:torqueusers@supercluster.org">torqueusers@supercluster.org</a><br>
&gt; <a href="http://www.supercluster.org/mailman/listinfo/torqueusers" target="_blank">http://www.supercluster.org/mailman/listinfo/torqueusers</a><br>
<br>
_______________________________________________<br>
torqueusers mailing list<br>
<a href="mailto:torqueusers@supercluster.org">torqueusers@supercluster.org</a><br>
<a href="http://www.supercluster.org/mailman/listinfo/torqueusers" target="_blank">http://www.supercluster.org/mailman/listinfo/torqueusers</a><br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br><span style="font-family:courier new,monospace">________________________________________________________________</span><br style="font-family:courier new,monospace">
<span style="font-family:courier new,monospace"> Steve Cousins             Supercomputer Engineer/Administrator</span><br style="font-family:courier new,monospace"><span style="font-family:courier new,monospace"> Advanced Computing Group            University of Maine System</span><br style="font-family:courier new,monospace">
<span style="font-family:courier new,monospace"> 244 Neville Hall (UMS Data Center)              (207) 561-3574</span><br style="font-family:courier new,monospace"><span style="font-family:courier new,monospace"> Orono ME 04469                      steve.cousins at <a href="http://maine.edu" target="_blank">maine.edu</a></span><br>
<br>
</div>