Hello,<br>
I use MAUI 3.2.6p16 and torque 2.1.2.<br>
<br>
I want to declare GRES on node in maui.cfg:<br>
<br>
SERVERHOST&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; linux-ci<br>
<br>
# primary admin must be first in list<br>
ADMIN1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; maui<br>
<br>
# Resource Manager Definition<br>
<br>
RMCFG[LINUX-CI] TYPE=PBS HOST=linux-ci SUBMITCMD=/usr/local/torque/1.2.0p6/bin/qsub<br>
<br>
RMPOLLINTERVAL&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 00:00:30<br>
<br>
# Allocation Manager Definition<br>
<br>
AMCFG[bank]&nbsp; TYPE=NONE<br>
<br>
# full parameter docs at <a href="http://clusterresources.com/mauidocs/a.fparameters.html">http://clusterresources.com/mauidocs/a.fparameters.html</a><br>
# use the 'schedctl -l' command to display current configuration<br>
<br>
SERVERPORT&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 42559<br>
SERVERMODE&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; NORMAL<br>
<br>
# Admin: <a href="http://clusterresources.com/mauidocs/a.esecurity.html">http://clusterresources.com/mauidocs/a.esecurity.html</a><br>
<br>
LOGFILE&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; maui.log<br>
LOGFILEMAXSIZE&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 10000000<br>
LOGLEVEL&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 3<br>
LOGFILEROLLDEPTH&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 5<br>
<br>
# Job Priority: <a href="http://clusterresources.com/mauidocs/5.1jobprioritization.html">http://clusterresources.com/mauidocs/5.1jobprioritization.html</a><br>
<br>
QUEUETIMEWEIGHT 250<br>
XFACTORWEIGHT&nbsp;&nbsp; 100<br>
RESWEIGHT&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 100<br>
NODEWEIGHT&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 100<br>
PROCWEIGHT&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 200<br>
PEWEIGHT&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 50<br>
FSWEIGHT&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 1000# FairShare: <a href="http://clusterresources.com/mauidocs/6.3fairshare.html">http://clusterresources.com/mauidocs/6.3fairshare.html</a><br>
<br>
FSPOLICY&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; DEDICATEDPS<br>
FSDEPTH&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 7<br>
FSINTERVAL&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 86400<br>
FSDECAY&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.60<br>
<br>
# Throttling Policies: <a href="http://clusterresources.com/mauidocs/6.2throttlingpolicies.html">http://clusterresources.com/mauidocs/6.2throttlingpolicies.html</a><br>
<br>
# NONE SPECIFIED<br>
<br>
# Backfill: <a href="http://clusterresources.com/mauidocs/8.2backfill.html">http://clusterresources.com/mauidocs/8.2backfill.html</a><br>
<br>
BACKFILLPOLICY&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; FIRSTFIT<br>
BACKFILLMETRIC&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; PROCSECONDS<br>
<br>
RESERVATIONPOLICY&nbsp;&nbsp;&nbsp;&nbsp; CURRENTHIGHEST<br>
RESERVATIONDEPTH&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 1<br>
<br>
# Node Allocation: <a href="http://clusterresources.com/mauidocs/5.2nodeallocation.html">http://clusterresources.com/mauidocs/5.2nodeallocation.html</a><br>
<br>
NODEALLOCATIONPOLICY&nbsp;&nbsp;&nbsp; CPULOAD<br>
NODEAVAILABILITYPOLICY&nbsp; COMBINED<br>
NODEPOLLFREQUENCY&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0<br>
NODEACCESSPOLICY&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; SHARED#
Standing Reservations:
<a href="http://clusterresources.com/mauidocs/7.1.3standingreservations.html">http://clusterresources.com/mauidocs/7.1.3standingreservations.html</a><br>
<br>
SRCFG[0] NAME=inter_ope HOSTLIST=l6-ci PERIOD=INFINITY CLASSLIST=q_ope_shell<br>
SRCFG[1] NAME=inter_gen HOSTLIST=l1-ci,l2-ci,l3-ci,l4-ci,l5-ci PERIOD=INFINITY CLASSLIST=q_gen_shell<br>
#SRCFG[2] NAME=batch_ope HOSTLIST=l16-ci PERIOD=INFINITY CLASSLIST=q_ope_15m,q_ope_4h,q_ope_max,q_gen_15m-<br>
#SRCFG[3] NAME=batch_gen
HOSTLIST=l7-ci,l8-ci,l9-ci,l10-ci,l11-ci,l12-ci,l13-ci,l14-ci,l15-ci
PERIOD=INFINITY CLASSLIST=q_gen_15m,q_gen_4h,q_gen_max<br>
<br>
# SRSTARTTIME[test] 8:00:00<br>
# SRENDTIME[test]&nbsp;&nbsp; 17:00:00<br>
# SRDAYS[test]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; MON TUE WED THU FRI<br>
# SRTASKCOUNT[test] 20<br>
# SRMAXTIME[test]&nbsp;&nbsp; 0:30:00<br>
<br>
# Creds: <a href="http://clusterresources.com/mauidocs/6.1fairnessoverview.html">http://clusterresources.com/mauidocs/6.1fairnessoverview.html</a><br>
<br>
USERCFG[DEFAULT]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; FSTARGET=10.0-<br>
GROUPCFG[DEFAULT]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; FSTARGET=20.0-<br>
# USERCFG[john]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; PRIORITY=100&nbsp; FSTARGET=10.0-<br>
# GROUPCFG[staff]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; PRIORITY=1000 QLIST=hi:low QDEF=hi<br>
# CLASSCFG[batch]&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; FLAGS=PREEMPTEE<br>
# CLASSCFG[interactive] FLAGS=PREEMPTOR<br>
<br>
# Temps d'attente avant remise en queue<br>
DEFERTIME&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 00:15:00<br>
#DEFERTIME 0<br>
<br>
# Autoriser les requetes a ressources multiples<br>
ENABLEMULTINODEJOBS&nbsp;&nbsp;&nbsp;&nbsp; TRUE<br>
ENABLEMULTIREQJOBS&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; FALSE<br>
#ENABLEMULTIREQJOBS&nbsp;&nbsp;&nbsp;&nbsp; TRUE<br>
<br>
# Annulation des jobs depassant le temps ou les ressources imparties<br>
JOBMAXOVERRUN&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 00:00:00<br>
#JOBMAXSTARTTIME&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 01:00:00:00<br>
RESOURCELIMITPOLICY&nbsp;&nbsp;&nbsp;&nbsp; PROC:ALWAYS:CANCEL# Nodes Definition<br>
<br>
NODECFG[DEFAULT] SPEED=2.2<br>
#NODECFG[l9-ci]<br>
#NODECFG[l13-ci]<br>
#NODECFG[l14-ci]<br>
#NODECFG[l15-ci]<br>
#NODECFG[l16-ci]<br>
NODECFG[l8-ci]&nbsp; GRES=matlab:2,tape:2<br>
NODECFG[l9-ci]&nbsp; GRES=matlab:2<br>
#NODECFG[l10-ci]&nbsp; GRES=tape:5<br>
#NODECFG[l7-ci] FEATURES=matlab:2<br>
<br>
<br>
<br>
<br>
RESOURCELIMITPOLICY&nbsp;&nbsp;&nbsp;&nbsp; SWAP:ALWAYS:CANCEL<br>
RESOURCELIMITPOLICY&nbsp;&nbsp;&nbsp;&nbsp; DISK:ALWAYS:CANCEL<br>
RESOURCELIMITPOLICY&nbsp;&nbsp;&nbsp;&nbsp; MEM:ALWAYS:CANCEL<br>
<br>
#JOBNODEMATCHPOLICY&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; EXACTNODE<br>
<br>
# QOS: <a href="http://clusterresources.com/mauidocs/7.3qos.html">http://clusterresources.com/mauidocs/7.3qos.html</a><br>
<br>
# QOSCFG[hi]&nbsp; PRIORITY=100 XFTARGET=100 FLAGS=PREEMPTOR:IGNMAXJOB<br>
# QOSCFG[low] PRIORITY=-1000 FLAGS=PREEMPTEE<br>
<br>
<br>
FSUSERWEIGHT&nbsp;&nbsp;&nbsp; 10<br>
FSGROUPWEIGHT&nbsp;&nbsp; 1<br>
<br>
But with this config, I can't run job with gres=matalab, because the reschecking node l9-ci<br>
<br>
State:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Idle&nbsp; (in current state for 00:15:14)<br>
Configured Resources: PROCS: 2&nbsp; MEM: 277M&nbsp; SWAP: 738M&nbsp; DISK: 1011M&nbsp; matlab: 2<br>
Utilized&nbsp;&nbsp; Resources: DISK: 83M&nbsp; matlab: 2&nbsp; &lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;!!!!!!!!!!!!!!!!!!!!!!!!<br>
Dedicated&nbsp; Resources: [NONE]<br>
Opsys:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; linux&nbsp; Arch:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; [NONE]<br>
Speed:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 1.00&nbsp; Load:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.000<br>
Network:&nbsp;&nbsp;&nbsp; [DEFAULT]<br>
Features:&nbsp;&nbsp; [genbatch][short]<br>
Attributes: [Batch]<br>
Classes:&nbsp;&nbsp;&nbsp; [q_gen_15m 2:2][q_gen_shell 2:2][q_ope_max
2:2][q_ope_4h 2:2][q_ope_batch 2:2][q_gen_max 2:2][q_gen_batch
2:2][q_gen_4h 2:2][q_ope_15m 2:2][q_ope_shell 2:2]<br>
<br>
Total Time: 5:46:02&nbsp; Up: 5:44:05 (99.44%)&nbsp; Active: 00:10:56 (3.16%)<br>
<br>
Reservations:<br>
NOTE:&nbsp; no reservations on node<br>
<br>
[maui@linux-ci ~]$ checknode l8-ci<br>
<br>
<br>
checking node l8-ci<br>
<br>
State:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Idle&nbsp; (in current state for 00:15:14)<br>
Configured Resources: PROCS: 2&nbsp; MEM: 277M&nbsp; SWAP: 734M&nbsp; DISK: 1011M&nbsp; matlab: 2<br>
Utilized&nbsp;&nbsp; Resources: DISK: 115M&nbsp; matlab: 2
&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;&lt;!!!!!!!!!!!!!!!!!!!!!!!!!!<br>
Dedicated&nbsp; Resources: [NONE]<br>
Opsys:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; linux&nbsp; Arch:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; [NONE]<br>
Speed:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 1.00&nbsp; Load:&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0.000<br>
Network:&nbsp;&nbsp;&nbsp; [DEFAULT]<br>
Features:&nbsp;&nbsp; [genbatch][short]<br>
Attributes: [Batch]<br>
Classes:&nbsp;&nbsp;&nbsp; [q_gen_15m 2:2][q_gen_shell 2:2][q_ope_max
2:2][q_ope_4h 2:2][q_ope_batch 2:2][q_gen_max 2:2][q_gen_batch
2:2][q_gen_4h 2:2][q_ope_15m 2:2][q_ope_shell 2:2]<br>
<br>
Total Time: 5:46:02&nbsp; Up: 4:54:18 (85.05%)&nbsp; Active: 00:06:20 (1.83%)<br>
<br>
Reservations:<br>
NOTE:&nbsp; no reservations on node<br>
ource is utilized...<br>
<br>
Thanks for your help...<br>
<br>
<br>