<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html; charset=ISO-8859-1"
 http-equiv="Content-Type">
</head>
<body bgcolor="#ffffff" text="#000000">
David, <br>
<br>
Thanks for the reply. <br>
<br>
I have checked the qsub script, it seems that a single cpu is required <br>
#PBS -l ncpus=1)<br>
&nbsp;but maybe the correct argument should be<br>
&nbsp;#PBS -l nodes=1&nbsp;&nbsp;&nbsp; <br>
<br>
qsub script<br>
**************************************<br>
#PBS -j oe<br>
#PBS -l ncpus=1<br>
#PBS -q um_mes<br>
#PBS -N dif_t170_u106_6<br>
<br>
work_dir=$PBS_O_WORKDIR<br>
cd $work_dir<br>
./script_6<br>
**************************************<br>
<br>
But the&nbsp; output for qstat -f (below) seems to indicate that&nbsp; 4 cpu's
have been required...<br>
<br>
Leonardo<br>
*************************************<br>
Job Id: 78898.master<br>
&nbsp;&nbsp;&nbsp; Job_Name = dif_u91_t170_1<br>
&nbsp;&nbsp;&nbsp; Job_Owner = <a class="moz-txt-link-abbreviated" href="mailto:andressa@master.cluster">andressa@master.cluster</a><br>
&nbsp;&nbsp;&nbsp; resources_used.cput = 5124169:16:44<br>
&nbsp;&nbsp;&nbsp; resources_used.mem = 6204kb<br>
&nbsp;&nbsp;&nbsp; resources_used.vmem = 52424kb<br>
&nbsp;&nbsp;&nbsp; resources_used.walltime = 76:15:25<br>
&nbsp;&nbsp;&nbsp; job_state = R<br>
&nbsp;&nbsp;&nbsp; queue = uma_semana<br>
&nbsp;&nbsp;&nbsp; server = master.cluster<br>
&nbsp;&nbsp;&nbsp; Checkpoint = u<br>
&nbsp;&nbsp;&nbsp; ctime = Mon Apr 16 12:35:53 2012<br>
&nbsp;&nbsp;&nbsp; Error_Path = master.cluster:/home103/andressa/ramp_system/dif_<br>
&nbsp;&nbsp;&nbsp; u91_t170_1.e78898<br>
&nbsp;&nbsp;&nbsp; exec_host =
node131/3+node131/2+node131/1+node131/0+node123/2+node123/1+no<br>
&nbsp;&nbsp;&nbsp; de123/0<br>
&nbsp;&nbsp;&nbsp; Hold_Types = n<br>
&nbsp;&nbsp;&nbsp; Join_Path = oe<br>
&nbsp;&nbsp;&nbsp; Keep_Files = n<br>
&nbsp;&nbsp;&nbsp; Mail_Points = a<br>
&nbsp;&nbsp;&nbsp; mtime = Mon Apr 16 12:36:40 2012<br>
&nbsp;&nbsp;&nbsp; Output_Path = master.cluster:/home103/andressa/ramp_system/dif<br>
&nbsp;&nbsp;&nbsp; _u91_t170_1.o78898<br>
&nbsp;&nbsp;&nbsp; Priority = 0<br>
&nbsp;&nbsp;&nbsp; qtime = Mon Apr 16 12:35:53 2012<br>
&nbsp;&nbsp;&nbsp; Rerunable = True<br>
&nbsp;&nbsp;&nbsp; Resource_List.ncpus = 1<br>
&nbsp;&nbsp;&nbsp; Resource_List.neednodes = 7<br>
&nbsp;&nbsp;&nbsp; Resource_List.nodect = 7<br>
&nbsp;&nbsp;&nbsp; Resource_List.nodes = 7<br>
&nbsp;&nbsp;&nbsp; Resource_List.walltime = 168:00:00<br>
&nbsp;&nbsp;&nbsp; session_id = 8224<br>
&nbsp;&nbsp;&nbsp; substate = 42<br>
&nbsp;&nbsp;&nbsp; Variable_List = PBS_O_QUEUE=uma_semana,<br>
&nbsp;&nbsp;&nbsp; PBS_O_HOST=master.cluster,PBS_O_HOME=/home103/andressa,<br>
&nbsp;&nbsp;&nbsp; PBS_O_LANG=pt_BR.UTF-8,PBS_O_LOGNAME=andressa,<br>
&nbsp;&nbsp;&nbsp;
PBS_O_PATH=/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games:/<br>
&nbsp;&nbsp;&nbsp; opt/intel/composer_xe_2011_sp1.6.233/bin/intel64/,<br>
&nbsp;&nbsp;&nbsp; PBS_O_MAIL=/var/mail/andressa,PBS_O_SHELL=/bin/bash,<br>
&nbsp;&nbsp;&nbsp; PBS_SERVER=master.cluster,<br>
&nbsp;&nbsp;&nbsp; PBS_O_WORKDIR=/home103/andressa/ramp_system<br>
&nbsp;&nbsp;&nbsp; euser = andressa<br>
&nbsp;&nbsp;&nbsp; egroup = 1030<br>
&nbsp;&nbsp;&nbsp; hashname = 78898.master.cluster<br>
&nbsp;&nbsp;&nbsp; queue_rank = 24<br>
&nbsp;&nbsp;&nbsp; queue_type = E<br>
&nbsp;&nbsp;&nbsp; etime = Mon Apr 16 12:35:53 2012<br>
&nbsp;&nbsp;&nbsp; submit_args = ./script_minuano_1<br>
&nbsp;&nbsp;&nbsp; start_time = Mon Apr 16 12:35:54 2012<br>
&nbsp;&nbsp;&nbsp; Walltime.Remaining = 330258<br>
&nbsp;&nbsp;&nbsp; start_count = 1<br>
&nbsp;&nbsp;&nbsp; fault_tolerant = False<br>
&nbsp;&nbsp;&nbsp; submit_host = master.cluster<br>
&nbsp;&nbsp;&nbsp; init_work_dir = /home103/andressa/ramp_system<br>
****************************************<br>
<br>
On 19-04-2012 12:32, David Beer wrote:
<blockquote
 cite="mid:CAFUQeZ0zEYfPkTP0hVFgZLpuekvLYvO0wD--4b-f--F8zwS=yw@mail.gmail.com"
 type="cite">What is the qstat -f output for this job? pbs_server
reports dedicated resources in pbsnodes output, so if the job requests
4 execution slots and runs one process, pbs_server will report 4
execution slots as occupied. Conversely, if a job asks for one
execution slot and uses 4, pbs_server will not scale up what it reports.<br>
  <br>
David<br>
  <br>
  <div class="gmail_quote">On Wed, Apr 18, 2012 at 4:26 PM, Leonardo
Gregory Brunnet <span dir="ltr">&lt;<a moz-do-not-send="true"
 href="mailto:leon@if.ufrgs.br">leon@if.ufrgs.br</a>&gt;</span> wrote:<br>
  <blockquote class="gmail_quote"
 style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Dear
All,<br>
    <br>
In a fresh installed torque/maui cluster the server reports<br>
repeated execution of a job in a given &nbsp;node. (There is no job running<br>
mpi)!.<br>
    <br>
The output for pbsnodes for one given node gives:<br>
    <br>
node131<br>
&nbsp; &nbsp; &nbsp;state = job-exclusive<br>
&nbsp; &nbsp; &nbsp;np = 4<br>
&nbsp; &nbsp; &nbsp;properties = quadcore<br>
&nbsp; &nbsp; &nbsp;ntype = cluster<br>
&nbsp; &nbsp; &nbsp;jobs = 0/78898.master.cluster.XX.XX.XX,<br>
1/78898.master.cluster.XX.XX.XX, 2/78898.master.cluster.XX.XX.XX,<br>
3/78898.master.XX.XX.XX<br>
&nbsp; &nbsp; &nbsp;status =<br>
rectime=1334786811,varattr=,jobs=<a moz-do-not-send="true"
 href="http://78898.master.cluster.if.ufrgs.br" target="_blank">78898.master.cluster.if.ufrgs.br</a>,state=free,netload=2914588064,gres=,loadave=1.00,ncpus=4,physmem=3985876kb,availmem=4649240kb,totmem=5062188kb,idletime=535832,nusers=2,nsessions=2,sessions=2804<br>
8224,uname=Linux node131 2.6.23-1-amd64 #1 SMP Fri Oct 12 23:45:48 UTC<br>
2007 x86_64,opsys=linux<br>
&nbsp; &nbsp; &nbsp;gpus = 0<br>
    <br>
But, if we log in that node we will see what was expected, a single job.<br>
Since the torque server (or maui) "believes" all cpu's of that node are<br>
working,<br>
no other jobs are sent. &nbsp;Any clues ?<br>
    <br>
Thanks for the help!<br>
    <br>
Leonardo<br>
    <br>
Below, you find the output for<br>
# qmgr -c "p s"<br>
    <br>
#<br>
# Create queues and set their attributes.<br>
#<br>
#<br>
# Create and define queue padrao<br>
#<br>
create queue padrao<br>
set queue padrao queue_type = Execution<br>
set queue padrao resources_default.nodes = 7<br>
set queue padrao resources_default.walltime = 01:00:00<br>
set queue padrao max_user_run = 5<br>
set queue padrao enabled = True<br>
set queue padrao started = True<br>
#<br>
# Create and define queue um_mes<br>
#<br>
create queue um_mes<br>
set queue um_mes queue_type = Execution<br>
set queue um_mes resources_max.nodes = 7<br>
set queue um_mes resources_default.nodes = 7<br>
set queue um_mes resources_default.walltime = 720:00:00<br>
set queue um_mes max_user_run = 5<br>
set queue um_mes enabled = True<br>
set queue um_mes started = True<br>
#<br>
# Create and define queue batch<br>
#<br>
create queue batch<br>
set queue batch queue_type = Execution<br>
set queue batch resources_default.nodes = 1<br>
set queue batch resources_default.walltime = 01:00:00<br>
set queue batch enabled = True<br>
set queue batch started = True<br>
#<br>
# Create and define queue um_dia<br>
#<br>
create queue um_dia<br>
set queue um_dia queue_type = Execution<br>
set queue um_dia resources_max.nodes = 7<br>
set queue um_dia resources_default.nodes = 7<br>
set queue um_dia resources_default.walltime = 24:00:00<br>
set queue um_dia max_user_run = 7<br>
set queue um_dia enabled = True<br>
set queue um_dia started = True<br>
#<br>
# Create and define queue uma_semana<br>
#<br>
create queue uma_semana<br>
set queue uma_semana queue_type = Execution<br>
set queue uma_semana resources_max.nodes = 7<br>
set queue uma_semana resources_default.nodes = 7<br>
set queue uma_semana resources_default.walltime = 168:00:00<br>
set queue uma_semana max_user_run = 5<br>
set queue uma_semana enabled = True<br>
set queue uma_semana started = True<br>
#<br>
# Create and define queue route<br>
#<br>
create queue route<br>
set queue route queue_type = Route<br>
set queue route route_destinations = padrao<br>
set queue route route_destinations += padrao2<br>
set queue route enabled = True<br>
set queue route started = True<br>
#<br>
# Set server attributes.<br>
#<br>
set server scheduling = True<br>
set server acl_hosts = master.cluster.XX.XX.XX<br>
set server acl_hosts += clusterapg<br>
set server managers = <a class="moz-txt-link-abbreviated" href="mailto:root@master.cluster.XX.XX.XX">root@master.cluster.XX.XX.XX</a><br>
set server operators = <a class="moz-txt-link-abbreviated" href="mailto:root@master.cluster.XX.XX.XX">root@master.cluster.XX.XX.XX</a><br>
set server default_queue = padrao<br>
set server log_events = 511<br>
set server mail_from = adm<br>
set server scheduler_iteration = 600<br>
set server node_check_rate = 150<br>
set server tcp_timeout = 6<br>
set server mom_job_sync = True<br>
set server keep_completed = 300<br>
set server next_job_number = 79033<br>
    <span class="HOEnZb"><font color="#888888"><br>
--<br>
Leonardo Gregory Brunnet &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;E-mail: <a
 moz-do-not-send="true" href="mailto:leon@if.ufrgs.br">leon@if.ufrgs.br</a><br>
Instituto de Fisica - UFRGS &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; <a moz-do-not-send="true"
 href="http://pcleon.if.ufrgs.br" target="_blank">http://pcleon.if.ufrgs.br</a><br>
91501-970 Porto Alegre, RS, BRASIL &nbsp; &nbsp; &nbsp; &nbsp;Phone: <a
 moz-do-not-send="true" href="tel:%2851%29%2033%2008%2072%2051"
 value="+15133087251">(51) 33 08 72 51</a><br>
FAX <a moz-do-not-send="true" href="tel:%2B55%2051%2033%2008%2072%2086"
 value="+555133087286">+55 51 33 08 72 86</a> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; C.P.
15051<br>
Linux User: 39314<br>
    <br>
_______________________________________________<br>
torqueusers mailing list<br>
    <a moz-do-not-send="true" href="mailto:torqueusers@supercluster.org">torqueusers@supercluster.org</a><br>
    <a moz-do-not-send="true"
 href="http://www.supercluster.org/mailman/listinfo/torqueusers"
 target="_blank">http://www.supercluster.org/mailman/listinfo/torqueusers</a><br>
    </font></span></blockquote>
  </div>
  <br>
  <br clear="all">
  <br>
-- <br>
  <div>David Beer | Software Engineer</div>
  <div>Adaptive Computing</div>
  <br>
  <pre wrap="">
<fieldset class="mimeAttachmentHeader"></fieldset>
_______________________________________________
torqueusers mailing list
<a class="moz-txt-link-abbreviated" href="mailto:torqueusers@supercluster.org">torqueusers@supercluster.org</a>
<a class="moz-txt-link-freetext" href="http://www.supercluster.org/mailman/listinfo/torqueusers">http://www.supercluster.org/mailman/listinfo/torqueusers</a>
  </pre>
</blockquote>
<br>
<pre class="moz-signature" cols="72">-- 
Leonardo Gregory Brunnet                  E-mail: <a class="moz-txt-link-abbreviated" href="mailto:leon@if.ufrgs.br">leon@if.ufrgs.br</a>
Instituto de Fisica - UFRGS               <a class="moz-txt-link-freetext" href="http://pcleon.if.ufrgs.br">http://pcleon.if.ufrgs.br</a>  
91501-970 Porto Alegre, RS, BRASIL        Phone: (51) 33 08 72 51
FAX +55 51 33 08 72 86                     C.P. 15051
Linux User: 39314
</pre>
</body>
</html>