<div>The processors allocated when request &#39;nodes=1:ppn=3&#39;  is right, both when use maui 3.3.1 and 3.2.6p21.</div><div> </div><div>I try to add &quot;JOBNODEMATCHPOLICY EXACTNODE&quot; in maui 3.3.1 config file, but the processor allocation for &quot;procs&quot; syntax is still one. I compare the config file of maui 3.3.1 and maui 3.2.6p21, and see nothing is different.</div>

<div> </div><div>Probably I should use maui 3.2.6p21 for the moment if i want to submit job with &quot;procs&quot; syntax.</div><div> </div><div>BTW, i&#39;m concerning the strength and weakness of the usage of &quot;procs&quot;, since I don&#39;t want to care about the hardware configuration and its current usage, maybe this laziness is at some cost of performance degradation.</div>

<div> </div><div>Thanks for you Gustavo!</div><div> </div><div>Xiangqian</div><div> </div><div> </div><div class="gmail_quote">2012/1/16 Gustavo Correa <span dir="ltr">&lt;<a href="mailto:gus@ldeo.columbia.edu">gus@ldeo.columbia.edu</a>&gt;</span><br>

<blockquote style="margin:0px 0px 0px 0.8ex;padding-left:1ex;border-left-color:rgb(204,204,204);border-left-width:1px;border-left-style:solid" class="gmail_quote">PS - Hi Xiangqian.<br>
<br>
Maybe you need to add this line to your maui.cfg [and restart maui],<br>
for the &#39;proc=Z&#39; syntax to work as you expect:<br>
<br>
JOBNODEMATCHPOLICY EXACTNODE<br>
<br>
I *think* the default is<br>
<br>
JOBNODEMATCHPOLICY EXACTPROC<br>
<br>
which expects your node to have the exact number of processors you requested [i.e. 3].<br>
<br>
See appendix F of the Maui Admininstrator Guide for details.<br>
<br>
I am not sure, but my recollection is that somebody reported a problem similar to yours<br>
in the list before, and the solution suggested was this one.<br>
<div class="im HOEnZb"><br>
I hope this helps,<br>
Gus Correa<br>
<br>
</div><div class="HOEnZb"><div class="h5">On Jan 16, 2012, at 10:21 AM, Gustavo Correa wrote:<br>
<br>
&gt; Hi Xiangqian<br>
&gt;<br>
&gt; For what it is worth, I use Maui 3.2.6p21, and I don&#39;t have the problem you described.<br>
&gt; I don&#39;t know the behavior in Maui 3.3.1, but as you reported 3.2.6p1 also works correctly for you,<br>
&gt; with the nodes-1:ppn=3 syntax.<br>
&gt; I am happy with 3.2.6p21.<br>
&gt;<br>
&gt; There is still a chance that a change in maui.cfg 3.3.1 may fix this glitch,<br>
&gt; but I don&#39;t know what it would be.  Most likely it has to do with the node allocation policies,<br>
&gt; and how it translates &#39;procs&#39; into nodes and ppn.<br>
&gt; Somebody else more savvy in the list may clarify this point.<br>
&gt;<br>
&gt; I confess I prefer the more detailed syntax &#39;nodes=X:ppn=Y&#39;,<br>
&gt; because it specifies more detail about the resources you are requesting,<br>
&gt; and apparently avoids the issue that hit you.<br>
&gt;<br>
&gt; Have you tried the &#39;nodes=1:ppn=3&#39; syntax in Maui 3.3.1?<br>
&gt; I wonder if it would work there too.<br>
&gt;<br>
&gt; I hope this helps,<br>
&gt; Gus Correa<br>
&gt;<br>
&gt;<br>
&gt; On Jan 16, 2012, at 1:43 AM, Xiangqian Wang wrote:<br>
&gt;<br>
&gt;&gt; thanks, Gustavo<br>
&gt;&gt;<br>
&gt;&gt; sorry for the misspelling in the previous email, i recheck it and correct it as following:<br>
&gt;&gt;<br>
&gt;&gt; i tested torque 2.5.8 and maui 3.3.1 on a centos 6.0 node, the job script is:<br>
&gt;&gt;<br>
&gt;&gt; #!/bin/sh<br>
&gt;&gt; #PBS -N procsjob<br>
&gt;&gt; #PBS -l procs=3<br>
&gt;&gt; #PBS -q batch<br>
&gt;&gt; ping localhost -c 100<br>
&gt;&gt;<br>
&gt;&gt; and qstat output &quot;exec_host = snode02/0&quot;.<br>
&gt;&gt; i replace with the new job script, as<br>
&gt;&gt;<br>
&gt;&gt; #!/bin/sh<br>
&gt;&gt; #PBS -N procsjob<br>
&gt;&gt; #PBS -l nodes=1:ppn=3<br>
&gt;&gt; #PBS -q batch<br>
&gt;&gt; ping localhost -c 100<br>
&gt;&gt; and qstat output &quot;exec_host = snode02/2+snode02/1+snode02/0&quot;.<br>
&gt;&gt;<br>
&gt;&gt; i change maui 3.3.1 to maui 3.2.6p21 and test again, qstat output  &quot;exec_host = snode02/2+snode02/1+snode02/0&quot; for both script. maybe it&#39;s a maui 3.3.1 problem?<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; 2012/1/14 Gustavo Correa &lt;<a href="mailto:gus@ldeo.columbia.edu">gus@ldeo.columbia.edu</a>&gt;<br>
&gt;&gt; Hi Xiangqian<br>
&gt;&gt;<br>
&gt;&gt; Is it a typo in your email or did you comment out this line in your Torque/PBS script?<br>
&gt;&gt; [Note the double hash ##.]<br>
&gt;&gt;<br>
&gt;&gt;&gt; ##PBS -l procs=3<br>
&gt;&gt;<br>
&gt;&gt; Have you tried this form instead?<br>
&gt;&gt;<br>
&gt;&gt; #PBS -l nodes=1:ppn=3<br>
&gt;&gt;<br>
&gt;&gt; For more details check &#39;man qsub&#39; and &#39;man pbs_resources&#39;.<br>
&gt;&gt;<br>
&gt;&gt; I hope it helps,<br>
&gt;&gt; Gus Correa<br>
&gt;&gt;<br>
&gt;&gt; On Jan 13, 2012, at 4:10 AM, Xiangqian Wang wrote:<br>
&gt;&gt;<br>
&gt;&gt;&gt; my demo torque+maui cluster has one node with np=4 set fot it. i want to submit a job requesting 3 processors, but when it start to run, i see only one processor is used (qstat shows &quot;exec_host = snode02/0&quot;).<br>


&gt;&gt;&gt;<br>
&gt;&gt;&gt; i use torque 2.5.6 and maui 3.3.1. anyone can help me out, it&#39;ll be greatly appreciated<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; the submit script is something like:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; #!/bin/sh<br>
&gt;&gt;&gt; #PBS -N procsjob<br>
&gt;&gt;&gt; ##PBS -l procs=3<br>
&gt;&gt;&gt; #PBS -q batch<br>
&gt;&gt;&gt; the output of checkjob is :<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; checking job 33<br>
&gt;&gt;&gt; State: Running<br>
&gt;&gt;&gt; Creds:  user:wangxq  group:wangxq  class:batch  qos:DEFAULT<br>
&gt;&gt;&gt; WallTime: 00:00:00 of 1:00:00<br>
&gt;&gt;&gt; SubmitTime: Fri Jan 13 17:07:43<br>
&gt;&gt;&gt;  (Time Queued  Total: 00:00:01  Eligible: 00:00:01)<br>
&gt;&gt;&gt; StartTime: Fri Jan 13 17:07:44<br>
&gt;&gt;&gt; Total Tasks: 1<br>
&gt;&gt;&gt; Req[0]  TaskCount: 1  Partition: DEFAULT<br>
&gt;&gt;&gt; Network: [NONE]  Memory &gt;= 0  Disk &gt;= 0  Swap &gt;= 0<br>
&gt;&gt;&gt; Opsys: [NONE]  Arch: [NONE]  Features: [NONE]<br>
&gt;&gt;&gt; Exec:  &#39;&#39;  ExecSize: 0  ImageSize: 0<br>
&gt;&gt;&gt; Dedicated Resources Per Task: PROCS: 1<br>
&gt;&gt;&gt; Utilized Resources Per Task:  [NONE]<br>
&gt;&gt;&gt; Avg Util Resources Per Task:  [NONE]<br>
&gt;&gt;&gt; Max Util Resources Per Task:  [NONE]<br>
&gt;&gt;&gt; NodeAccess: SHARED<br>
&gt;&gt;&gt; NodeCount: 0<br>
&gt;&gt;&gt; Allocated Nodes:<br>
&gt;&gt;&gt; [snode02:1]<br>
&gt;&gt;&gt; Task Distribution: snode02<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; IWD: [NONE]  Executable:  [NONE]<br>
&gt;&gt;&gt; Bypass: 0  StartCount: 1<br>
&gt;&gt;&gt; PartitionMask: [ALL]<br>
&gt;&gt;&gt; Flags:       RESTARTABLE<br>
&gt;&gt;&gt; Reservation &#39;33&#39; (00:00:00 -&gt; 1:00:00  Duration: 1:00:00)<br>
&gt;&gt;&gt; PE:  1.00  StartPriority:  1<br>
&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; torqueusers mailing list<br>
&gt;&gt;&gt; <a href="mailto:torqueusers@supercluster.org">torqueusers@supercluster.org</a><br>
&gt;&gt;&gt; <a href="http://www.supercluster.org/mailman/listinfo/torqueusers" target="_blank">http://www.supercluster.org/mailman/listinfo/torqueusers</a><br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; torqueusers mailing list<br>
&gt;&gt; <a href="mailto:torqueusers@supercluster.org">torqueusers@supercluster.org</a><br>
&gt;&gt; <a href="http://www.supercluster.org/mailman/listinfo/torqueusers" target="_blank">http://www.supercluster.org/mailman/listinfo/torqueusers</a><br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; torqueusers mailing list<br>
&gt;&gt; <a href="mailto:torqueusers@supercluster.org">torqueusers@supercluster.org</a><br>
&gt;&gt; <a href="http://www.supercluster.org/mailman/listinfo/torqueusers" target="_blank">http://www.supercluster.org/mailman/listinfo/torqueusers</a><br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; torqueusers mailing list<br>
&gt; <a href="mailto:torqueusers@supercluster.org">torqueusers@supercluster.org</a><br>
&gt; <a href="http://www.supercluster.org/mailman/listinfo/torqueusers" target="_blank">http://www.supercluster.org/mailman/listinfo/torqueusers</a><br>
<br>
_______________________________________________<br>
torqueusers mailing list<br>
<a href="mailto:torqueusers@supercluster.org">torqueusers@supercluster.org</a><br>
<a href="http://www.supercluster.org/mailman/listinfo/torqueusers" target="_blank">http://www.supercluster.org/mailman/listinfo/torqueusers</a><br>
</div></div></blockquote></div><br>