<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2//EN">
<HTML>
<HEAD>
<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=iso-8859-1">
<META NAME="Generator" CONTENT="MS Exchange Server version 6.5.7655.1">
<TITLE>RE: [torqueusers] Torque environment problem</TITLE>
</HEAD>
<BODY>
<!-- Converted from text/plain format -->

<P><FONT SIZE=2>Hi<BR>
<BR>
I did figure out the issue, or at least I am on the path to a solution.<BR>
<BR>
I was assuming that when I submit a job via torque with the PBS parameter: #PBS -l nodes=12:ppn=12 that the PBS_NODEFILE parameter would have the correctly formatted hosts file for openmpi.&nbsp;<BR>
<BR>
What I am seeing is that torque will generate a hosts file that looks like this:<BR>
<BR>
node164<BR>
node164<BR>
node164<BR>
node164<BR>
node164<BR>
node164<BR>
node164<BR>
node164<BR>
node164<BR>
node164<BR>
node164<BR>
node164<BR>
node164<BR>
node163<BR>
node163<BR>
node163<BR>
node163<BR>
node163<BR>
node163<BR>
node163<BR>
node163<BR>
node163<BR>
node163<BR>
node163<BR>
node163<BR>
....<BR>
<BR>
<BR>
But from what I can see, openmpi expects a hostfile list likethis:<BR>
<BR>
node164 slots=12<BR>
node163 slots=12<BR>
<BR>
So what I had to do in my script is add the following code:<BR>
<BR>
np=$(cat $PBS_NODEFILE | wc -l)<BR>
<BR>
for i in `cat ${PBS_NODEFILE}|sort -u`; do<BR>
&nbsp; echo $i slots=12 &gt; /home/admins/rsvancara/nodes<BR>
done<BR>
<BR>
/usr/mpi/intel/openmpi-1.4.3/bin/mpiexec $RUN $MCA -np $np -hostfile /home/admins/rsvancara/nodes /home/admins/rsvancara/TEST/mpitest<BR>
<BR>
I guess I was expecting openmpi to do the right thing but apparently torque and openmpi are not on the same page in terms of formatting for a hosts file.&nbsp; I am using version 2.4.7 of torque.&nbsp; Would newer versions of torque correctly generate a hosts file?<BR>
<BR>
The strange thing is that why would openmpi just simply tell me it may be a LD_LIBRARY_PATH problem seems rather vague.&nbsp; A better response would be &quot;What the .... am I supposed to do with this hosts file you idiot, please format it correctly&quot;.&nbsp;&nbsp;<BR>
<BR>
Best regards<BR>
<BR>
Randall<BR>
<BR>
<BR>
<BR>
<BR>
<BR>
<BR>
<BR>
-----Original Message-----<BR>
From: torqueusers-bounces@supercluster.org on behalf of Shenglong Wang<BR>
Sent: Fri 3/18/2011 8:45 PM<BR>
To: Torque Users Mailing List<BR>
Subject: Re: [torqueusers] Torque environment problem<BR>
<BR>
Have you set LD_LIBRARY_PATH in your ~/.bashrc file? Did you try to include LD_LIBRARY_PATH to mpirun or mpiexec?<BR>
<BR>
np=$(cat $PBS_NODEFILE | wc -l)<BR>
<BR>
mpiexec -np $np -hostfile $PBS_NODEFILE env LD_LIBRARY_PATH=$LD_LIBRARY_PATH XXXX<BR>
<BR>
Best,<BR>
<BR>
Shenglong<BR>
<BR>
<BR>
<BR>
<BR>
On Mar 18, 2011, at 11:36 PM, Svancara, Randall wrote:<BR>
<BR>
&gt; I just wanted to add that if I launch a job on one node, everything works fine.&nbsp; For example in my job script if I specify<BR>
&gt;<BR>
&gt;<BR>
&gt; #PBS -l nodes=1:ppn=12<BR>
&gt;<BR>
&gt; Then everything runs fine.<BR>
&gt;<BR>
&gt;<BR>
&gt; However, if I specify two nodes, then everything fails.<BR>
&gt;<BR>
&gt;<BR>
&gt; #PBS -l nodes=1:ppn=12<BR>
&gt;<BR>
&gt; This also fails<BR>
&gt;<BR>
&gt;<BR>
&gt; #PBS -l nodes=13<BR>
&gt;<BR>
&gt; But this does not:<BR>
&gt;<BR>
&gt;<BR>
&gt; #PBS -l nodes=12<BR>
&gt;<BR>
&gt; Thanks,<BR>
&gt;<BR>
&gt; Randall<BR>
&gt;<BR>
&gt; -----Original Message-----<BR>
&gt; From: torqueusers-bounces@supercluster.org on behalf of Svancara, Randall<BR>
&gt; Sent: Fri 3/18/2011 7:48 PM<BR>
&gt; To: torqueusers@supercluster.org<BR>
&gt; Subject: [torqueusers] Torque environment problem<BR>
&gt;<BR>
&gt;<BR>
&gt; Hi,<BR>
&gt;<BR>
&gt; We are in the process of setting up a new cluster.&nbsp;&nbsp; One issue I am experiencing is with openmpi jobs launched through torque.<BR>
&gt;<BR>
&gt; When I launch a simple job using a very basic mpi &quot;Hello World&quot; script I am seeing the following errors from openmpi:<BR>
&gt;<BR>
&gt; **************************<BR>
&gt;<BR>
&gt; [node164:06689] plm:tm: failed to poll for a spawned daemon, return status = 17002<BR>
&gt; --------------------------------------------------------------------------<BR>
&gt; A daemon (pid unknown) died unexpectedly on signal 1&nbsp; while attempting to<BR>
&gt; launch so we are aborting.<BR>
&gt;<BR>
&gt; There may be more information reported by the environment (see above).<BR>
&gt;<BR>
&gt; This may be because the daemon was unable to find all the needed shared<BR>
&gt; libraries on the remote node. You may set your LD_LIBRARY_PATH to have the<BR>
&gt; location of the shared libraries on the remote nodes and this will<BR>
&gt; automatically be forwarded to the remote nodes.<BR>
&gt; --------------------------------------------------------------------------<BR>
&gt; --------------------------------------------------------------------------<BR>
&gt; mpirun noticed that the job aborted, but has no info as to the process<BR>
&gt; that caused that situation.<BR>
&gt; --------------------------------------------------------------------------<BR>
&gt; --------------------------------------------------------------------------<BR>
&gt; mpirun was unable to cleanly terminate the daemons on the nodes shown<BR>
&gt; below. Additional manual cleanup may be required - please refer to<BR>
&gt; the &quot;orte-clean&quot; tool for assistance.<BR>
&gt; --------------------------------------------------------------------------<BR>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; node163 - daemon did not report back when launched<BR>
&gt; Completed executing:<BR>
&gt;<BR>
&gt; *************************<BR>
&gt;<BR>
&gt; However when launch a job running mpiexec, everything seems to work fine using the following script:<BR>
&gt;<BR>
&gt; /usr/mpi/intel/openmpi-1.4.3/bin/mpirun -hostfile /home/admins/rsvancara/hosts -n 24 /home/admins/rsvancara/TEST/mpitest<BR>
&gt;<BR>
&gt; The job runs on 24 nodes with 12 processes per node.<BR>
&gt;<BR>
&gt; I have verified that my .bashrc is working.&nbsp; I have tried to launch from an interactive job using qsub -I -lnodes=12:ppn12 without any success.&nbsp; I am assuming this is an environment problem, however, I am unsure as the openmpi error includes &quot;MAY&quot;.&nbsp;<BR>
&gt;<BR>
&gt; My question is:<BR>
&gt;<BR>
&gt; 1.&nbsp; Has anyone had this problem before (I am sure they have)<BR>
&gt; 2.&nbsp; How would I go about troubleshooting this problem.<BR>
&gt;<BR>
&gt;<BR>
&gt; I am using torque version 2.4.7.<BR>
&gt;<BR>
&gt; Thanks for any assistance anyone can provide.<BR>
&gt;<BR>
&gt;<BR>
&gt; _______________________________________________<BR>
&gt; torqueusers mailing list<BR>
&gt; torqueusers@supercluster.org<BR>
&gt; <A HREF="http://www.supercluster.org/mailman/listinfo/torqueusers">http://www.supercluster.org/mailman/listinfo/torqueusers</A><BR>
<BR>
<BR>
</FONT>
</P>

</BODY>
</HTML>