<font face="verdana,sans-serif"></font>Hi Brian,<br><br>I do&#39;nt want to block a complete node for a single job. <br>My requirement is to request multiple processor on different nodes which is not working at the moment.<br>

<br>Thanks<br>Govind<br><br><br><div class="gmail_quote">On Mon, Nov 15, 2010 at 5:53 PM, Andrus, Brian Contractor <span dir="ltr">&lt;<a href="mailto:bdandrus@nps.edu">bdandrus@nps.edu</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">

Govind,<br>
<br>
You may want to add:<br>
<br>
#PBS -l naccesspolicy=singlejob<br>
<br>
This will cause allocation to be a single job per node.<br>
Given your resource request, you do not specify you need exclusive use of the node, so as far as torque is concerned, there are processors available to be assigned to jobs, which it does.<br>
<br>
Brian Andrus<br>
<br>
<br>
<br>
________________________________<br>
<br>
From: <a href="mailto:torqueusers-bounces@supercluster.org">torqueusers-bounces@supercluster.org</a> on behalf of Govind Songara<br>
Sent: Fri 11/12/2010 8:25 AM<br>
To: Torque Users Mailing List<br>
Subject: [torqueusers] strange behaviour of ppn<br>
<div><div></div><div class="h5"><br>
<br>
Hi,<br>
<br>
<br>
I am not expert on torque configurations, so might something wrong with configurations.<br>
I am seeing a strange behaviour of ppn variable.<br>
My nodes config is something like<br>
node01 np=4<br>
node02 np=4<br>
<br>
snippet of maui config<br>
JOBNODEMATCHPOLICY     EXACTNODE<br>
ENABLEMULTINODEJOBS   TRUE<br>
NODEACCESSPOLICY         SHARED<br>
<br>
<br>
snippet of queue config<br>
        resources_available.nodect = 65<br>
        resources_assigned.nodect = 5<br>
        resources_default.nodes = 1<br>
<br>
sample script<br>
------------------------------------<br>
#PBS -q long<br>
#PBS -l nodes=2:ppn=1<br>
<br>
echo This jobs runs on the following processors:<br>
echo `cat $PBS_NODEFILE`<br>
NPROCS=`wc -l &lt; $PBS_NODEFILE`<br>
echo This job has allocated $NPROCS processors<br>
hostname<br>
------------------------------------<br>
<br>
Below is my result in the tables<br>
<br>
<br>
<br>
nodes<br>
<br>
ppn<br>
<br>
no. process run (hostname)<br>
<br>
no. pf processor allocated<br>
<br>
3<br>
<br>
1<br>
<br>
1<br>
<br>
3<br>
<br>
3<br>
<br>
2<br>
<br>
1<br>
<br>
2<br>
<br>
3<br>
<br>
3<br>
<br>
1<br>
<br>
3<br>
<br>
3<br>
<br>
4<br>
<br>
1<br>
<br>
4<br>
<br>
In case 1, it gives 3 processor on same node which is incorrect, it should give 1 processor on 3 different nodes<br>
In case2, it give only 2 processor on same node, it should 2 processor on 3 different nodes (total 6 processor) and similar behaviour with the last tow cases.<br>
In all the cases the hostname command run only once, which should run at least on total number of allocated processors.<br>
<br>
<br>
Due to this strange behaviour i can not run mpi jobs correctly, kindly advise on this problem.<br>
<br>
TIA<br>
<br>
Regards<br>
Govind<br>
<br>
<br>
<br>
<br>
<br>
</div></div><br>_______________________________________________<br>
torqueusers mailing list<br>
<a href="mailto:torqueusers@supercluster.org">torqueusers@supercluster.org</a><br>
<a href="http://www.supercluster.org/mailman/listinfo/torqueusers" target="_blank">http://www.supercluster.org/mailman/listinfo/torqueusers</a><br>
<br></blockquote></div><br>