<HTML dir=ltr><HEAD>
<META http-equiv=Content-Type content="text/html; charset=unicode">
<META content="MSHTML 6.00.6000.16981" name=GENERATOR></HEAD>
<BODY>
<DIV id=idOWAReplyText83883 dir=ltr>
<DIV dir=ltr><FONT face=Arial color=#000000 size=2>Marcelo,</FONT></DIV>
<DIV dir=ltr><FONT face=Arial size=2></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face=Arial size=2>Have you tried setting a CLASSCFG directive for the queue you're trying to manage?&nbsp; For example, we have a group that is only allowed to have a max number of idle nodes of 64 in the queue "work", and that looks like this:</FONT></DIV>
<DIV dir=ltr><FONT face=Arial size=2></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face=Arial size=2>CLASSCFG[work] MAXINODE[GROUP:group1]=64</FONT></DIV>
<DIV dir=ltr><FONT face=Arial size=2></FONT>&nbsp;</DIV>
<DIV dir=ltr><FONT face=Arial size=2>--Joe</FONT></DIV></DIV>
<DIV dir=ltr><BR>
<HR tabIndex=-1>
<FONT face=Tahoma size=2><B>From:</B> mauiusers-bounces@supercluster.org on behalf of Marcelo Zimmer<BR><B>Sent:</B> Thu 2/25/2010 4:18 PM<BR><B>To:</B> mauiusers@supercluster.org<BR><B>Subject:</B> Re: [Mauiusers] Fairness Policy Configuration<BR></FONT><BR></DIV>
<DIV>Hi,<BR><BR>Thank you for your prompt response, but the suggestions don't seem to be solving my problem. Actually, I've tracked the submitted jobs with the "showq" command and I couldn't see any blocked ones even if the number of idle jobs was greater than the number I wast trying to specify (actually, all non-running jobs appeared with the flag "Q"). As I said in the previous email, my aim is to set a quite soft policy, which is basically allowing users to use as many available processors as possible (in an extreme case, a single user can even take control of the whole cluster and use all processors at once), while precluding users to submit an extesive number of jobs that stay on "Q" mode, which would result in people "taking control" of the cluster during on month, for instance. As result, I found 5 a good number to set as the maximum number of idle jobs per user.<BR><BR>This way, as far as I could understand, the number specified in "max_user_queuable" or "max_queuable" flags in torque (PBS) indicates the maximum number of jobs a user can put in queue, regardless of its status (either running or idle). For that, I found very hard to set a number for those flags, because they would result either in unused processors while there's just one person in need to use the cluster or in setting a high value that would allow user to keep a long list of idle jobs and preventing (or delaying someone else's job to start) others to use the cluster.<BR><BR>Do I still missing anything?<BR><BR>Best regards,<BR><BR>Marcelo Zimmer<BR clear=all><BR>-- <BR>===================================================<BR>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Marcelo Zimmer S. Flores<BR>&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;(PhD Physics Student)<BR><BR>Address:<BR>&nbsp; &nbsp; &nbsp; &nbsp;Universidade Estadual de Campinas - UNICAMP<BR>&nbsp; &nbsp; &nbsp; &nbsp;Instituto de Fisica Gleb Wataghin - IFGW<BR>&nbsp; &nbsp; &nbsp; &nbsp;Grupo de Solidos Organicos e Novos Materiais - GSONM<BR>&nbsp; &nbsp; &nbsp; &nbsp;Departamento de Fisica Aplicada (DFA) - Room 61<BR>&nbsp; &nbsp; &nbsp; &nbsp;Campinas - Sao Paulo - Brazil<BR>&nbsp; &nbsp; &nbsp; &nbsp;13083-970<BR>&nbsp; &nbsp; &nbsp; &nbsp;Caixa Postal: 6165<BR>&nbsp; &nbsp; &nbsp; &nbsp;<A href="mailto:zimmer@ifi.unicamp.br">zimmer@ifi.unicamp.br</A><BR>===================================================<BR></DIV></BODY></HTML>