Hi all,
<div><br></div><div>I have installed torque-4.0.2 in an Ubuntu-10.04 and I don&#39;t know how to make the scheduler run jobs. If I use qrun the job will be executed, but otherwise it won&#39;t.</div><div>I have made sure that:</div>
<div>- trqauthd, pbs_server and pbs_sched are running on head node</div><div>- pbs_mom is running on compute node</div><div>- The user from which I submit the job exists in all (2) machines with same id and same group</div>
<div>- iptables is not messing around and neither is a firewall</div><div>- DNS is working propperly, both fordward and reverse. I am using a DNS server on another machine (neither head nor compute)</div><div>- pbsnodes shows</div>
<div><br></div><div>This is the setup:</div><div><br></div><div>head node</div><div>  - hostname: lucid-tor1</div><div>  - users: root, david</div><div>  - executing: /etc/init.d/trqauthd, pbs_server, pbs_sched (the simplest scheduler)</div>
<div><br></div><div>compute node</div><div>  - hostname: lucid-tor2</div><div>  - users: root, david</div><div>  - executing: pbs_mom</div><div><br></div><div>This is the output from qmgr -c &#39;p s&#39;:</div><div><div>
#</div><div># Create queues and set their attributes.</div><div>#</div><div>#</div><div># Create and define queue batch</div><div>#</div><div>create queue batch</div><div>set queue batch queue_type = Execution</div><div>set queue batch resources_max.nodes = 2</div>
<div>set queue batch resources_min.nodes = 1</div><div>set queue batch resources_default.nodes = 1</div><div>set queue batch resources_default.walltime = 01:00:00</div><div>set queue batch enabled = True</div><div>set queue batch started = True</div>
<div>#</div><div># Set server attributes.</div><div>#</div><div>set server scheduling = True</div><div>set server acl_hosts = lucid-tor1.cps.cloud</div><div>set server acl_hosts += lucid-tor1</div><div>set server managers = david@lucid-tor1</div>
<div>set server managers += root@lucid-tor1</div><div>set server operators = david@lucid-tor1</div><div>set server operators += root@lucid-tor1</div><div>set server default_queue = batch</div><div>set server log_events = 511</div>
<div>set server mail_from = adm</div><div>set server scheduler_iteration = 600</div><div>set server node_check_rate = 150</div><div>set server tcp_timeout = 300</div><div>set server job_stat_rate = 45</div><div>set server poll_jobs = True</div>
<div>set server log_level = 3</div><div>set server mom_job_sync = True</div><div>set server keep_completed = 10</div><div>set server next_job_number = 74</div><div>set server moab_array_compatible = True</div></div><div><br>
</div><div>And this is the one from pbsnodes:</div><div><div>lucid-tor2</div><div>     state = free</div><div>     np = 1</div><div>     ntype = cluster</div><div>     status = rectime=1339089060,varattr=,jobs=,state=free,netload=724555,gres=,loadave=0.00,ncpus=2,physmem=1023292kb,availmem=1458140kb,totmem=1521972kb,idletime=379,nusers=0,nsessions=0,uname=Linux lucid-tor2 2.6.32-33-server #70-Ubuntu SMP Thu Jul 7 22:28:30 UTC 2011 x86_64,opsys=linux</div>
<div>     mom_service_port = 15002</div><div>     mom_manager_port = 15003</div><div>     gpus = 0</div></div><div><br></div><div><br></div><div>In the logs, I find no errors:</div><div><br></div><div>### sched log</div><div>
<div>06/07/2012 18:58:44;0002; pbs_sched;Svr;Log;Log opened</div><div>06/07/2012 18:58:44;0002; pbs_sched;Svr;TokenAct;Account file /var/spool/torque/sched_priv/accounting/20120607 opened</div><div>06/07/2012 18:58:44;0002; pbs_sched;Svr;main;pbs_sched startup pid 1203</div>
</div><div><br></div><div>### server log</div><div><div>06/07/2012 18:59:28;0100;PBS_Server;Req;;Type AuthenticateUser request received from david@lucid-tor1.cps.cloud, sock=9</div><div>06/07/2012 18:59:28;0100;PBS_Server;Req;;Type QueueJob request received from david@lucid-tor1.cps.cloud, sock=8</div>
<div>06/07/2012 18:59:28;0100;PBS_Server;Req;;Type JobScript request received from david@lucid-tor1.cps.cloud, sock=8</div><div>06/07/2012 18:59:28;0100;PBS_Server;Req;;Type ReadyToCommit request received from david@lucid-tor1.cps.cloud, sock=8</div>
<div>06/07/2012 18:59:28;0100;PBS_Server;Req;;Type Commit request received from david@lucid-tor1.cps.cloud, sock=8</div><div>06/07/2012 18:59:28;0001;PBS_Server;Svr;PBS_Server;svr_setjobstate: setting job 73.lucid-tor1.cps.cloud state from TRANSIT-TRANSICM to QUEUED-QUEUED (1-10)</div>
<div>06/07/2012 18:59:28;0100;PBS_Server;Job;73.lucid-tor1.cps.cloud;enqueuing into batch, state 1 hop 1</div><div>06/07/2012 18:59:28;0008;PBS_Server;Job;73.lucid-tor1.cps.cloud;Job Queued at request of david@lucid-tor1.cps.cloud, owner = david@lucid-tor1.cps.cloud, job name = STDIN, queue = batch</div>
<div>06/07/2012 18:59:45;0004;PBS_Server;Svr;svr_is_request;message received from addr 155.210.155.xx7:219: mom_port 15002  - rm_port 15003</div><div>06/07/2012 18:59:45;0004;PBS_Server;Svr;svr_is_request;message STATUS (4) received from mom on host lucid-tor2.cps.cloud (155.210.155.xx7:219) (sock 10)</div>
<div>06/07/2012 18:59:45;0004;PBS_Server;Svr;svr_is_request;IS_STATUS received from lucid-tor2.cps.cloud</div><div>06/07/2012 18:59:45;0040;PBS_Server;Req;is_stat_get;received status from node lucid-tor2.cps.cloud</div><div>
06/07/2012 18:59:45;0040;PBS_Server;Req;update_node_state;adjusting state for node lucid-tor2 - state=512, newstate=0</div><div>06/07/2012 19:00:30;0004;PBS_Server;Svr;svr_is_request;message received from addr 155.210.155.xx7:340: mom_port 15002  - rm_port 15003</div>
<div>06/07/2012 19:00:30;0004;PBS_Server;Svr;svr_is_request;message STATUS (4) received from mom on host lucid-tor2.cps.cloud (155.210.155.xx7:340) (sock 8)</div><div>06/07/2012 19:00:30;0004;PBS_Server;Svr;svr_is_request;IS_STATUS received from lucid-tor2.cps.cloud</div>
<div>06/07/2012 19:00:30;0040;PBS_Server;Req;is_stat_get;received status from node lucid-tor2.cps.cloud</div><div>06/07/2012 19:00:30;0040;PBS_Server;Req;update_node_state;adjusting state for node lucid-tor2 - state=512, newstate=0</div>
</div><div><br></div><div>Then I run qrun:</div><div>root@lucid-tor1: qrun 73</div><div><br></div><div><br></div><div>And these are the logs after qrun:</div><div><br></div><div>### sched log (it is the same)</div><div><div>
06/07/2012 18:58:44;0002; pbs_sched;Svr;Log;Log opened</div><div>06/07/2012 18:58:44;0002; pbs_sched;Svr;TokenAct;Account file /var/spool/torque/sched_priv/accounting/20120607 opened</div><div>06/07/2012 18:58:44;0002; pbs_sched;Svr;main;pbs_sched startup pid 1203</div>
</div><div><br></div><div>### server log</div><div><div>...</div><div>06/07/2012 19:00:30;0004;PBS_Server;Svr;svr_is_request;message received from addr 155.210.155.xx7:340: mom_port 15002  - rm_port 15003</div><div>06/07/2012 19:00:30;0004;PBS_Server;Svr;svr_is_request;message STATUS (4) received from mom on host lucid-tor2.cps.cloud (155.210.155.xx7:340) (sock 8)</div>
<div>06/07/2012 19:00:30;0004;PBS_Server;Svr;svr_is_request;IS_STATUS received from lucid-tor2.cps.cloud</div><div>06/07/2012 19:00:30;0040;PBS_Server;Req;is_stat_get;received status from node lucid-tor2.cps.cloud</div><div>
06/07/2012 19:00:30;0040;PBS_Server;Req;update_node_state;adjusting state for node lucid-tor2 - state=512, newstate=0</div><div>06/07/2012 19:01:14;0004;PBS_Server;Svr;check_nodes_work;node lucid-tor2.cps.cloud not detected in 1339088474 seconds, marking node down</div>
<div>06/07/2012 19:01:14;0040;PBS_Server;Req;update_node_state;adjusting state for node lucid-tor2.cps.cloud - state=512, newstate=2</div><div>06/07/2012 19:01:14;0040;PBS_Server;Req;update_node_state;node lucid-tor2.cps.cloud marked down</div>
<div>06/07/2012 19:01:15;0004;PBS_Server;Svr;svr_is_request;message received from addr 155.210.155.xx7:279: mom_port 15002  - rm_port 15003</div><div>06/07/2012 19:01:15;0004;PBS_Server;Svr;svr_is_request;message STATUS (4) received from mom on host lucid-tor2.cps.cloud (155.210.155.xx7:279) (sock 9)</div>
<div>06/07/2012 19:01:15;0004;PBS_Server;Svr;svr_is_request;IS_STATUS received from lucid-tor2.cps.cloud</div><div>06/07/2012 19:01:15;0040;PBS_Server;Req;is_stat_get;received status from node lucid-tor2.cps.cloud</div><div>
06/07/2012 19:01:15;0040;PBS_Server;Req;update_node_state;adjusting state for node lucid-tor2 - state=512, newstate=0</div><div>06/07/2012 19:02:00;0004;PBS_Server;Svr;svr_is_request;message received from addr 155.210.155.xx7:251: mom_port 15002  - rm_port 15003</div>
<div>06/07/2012 19:02:00;0004;PBS_Server;Svr;svr_is_request;message STATUS (4) received from mom on host lucid-tor2.cps.cloud (155.210.155.xx7:251) (sock 8)</div><div>06/07/2012 19:02:00;0004;PBS_Server;Svr;svr_is_request;IS_STATUS received from lucid-tor2.cps.cloud</div>
<div>06/07/2012 19:02:00;0040;PBS_Server;Req;is_stat_get;received status from node lucid-tor2.cps.cloud</div><div>06/07/2012 19:02:00;0040;PBS_Server;Req;update_node_state;adjusting state for node lucid-tor2 - state=512, newstate=0</div>
<div>06/07/2012 19:02:45;0004;PBS_Server;Svr;svr_is_request;message received from addr 155.210.155.xx7:448: mom_port 15002  - rm_port 15003</div><div>06/07/2012 19:02:45;0004;PBS_Server;Svr;svr_is_request;message STATUS (4) received from mom on host lucid-tor2.cps.cloud (155.210.155.xx7:448) (sock 9)</div>
<div>06/07/2012 19:02:45;0004;PBS_Server;Svr;svr_is_request;IS_STATUS received from lucid-tor2.cps.cloud</div><div>06/07/2012 19:02:45;0040;PBS_Server;Req;is_stat_get;received status from node lucid-tor2.cps.cloud</div><div>
06/07/2012 19:02:45;0040;PBS_Server;Req;update_node_state;adjusting state for node lucid-tor2 - state=512, newstate=0</div><div>06/07/2012 19:03:30;0004;PBS_Server;Svr;svr_is_request;message received from addr 155.210.155.xx7:650: mom_port 15002  - rm_port 15003</div>
<div>06/07/2012 19:03:30;0004;PBS_Server;Svr;svr_is_request;message STATUS (4) received from mom on host lucid-tor2.cps.cloud (155.210.155.xx7:650) (sock 8)</div><div>06/07/2012 19:03:30;0004;PBS_Server;Svr;svr_is_request;IS_STATUS received from lucid-tor2.cps.cloud</div>
<div>06/07/2012 19:03:30;0040;PBS_Server;Req;is_stat_get;received status from node lucid-tor2.cps.cloud</div><div>06/07/2012 19:03:30;0040;PBS_Server;Req;update_node_state;adjusting state for node lucid-tor2 - state=512, newstate=0</div>
<div>06/07/2012 19:03:59;0100;PBS_Server;Req;;Type AuthenticateUser request received from root@lucid-tor1.cps.cloud, sock=8</div><div>06/07/2012 19:03:59;0100;PBS_Server;Req;;Type RunJob request received from root@lucid-tor1.cps.cloud, sock=9</div>
<div>06/07/2012 19:03:59;0040;PBS_Server;Req;set_nodes;allocating nodes for job 73.lucid-tor1.cps.cloud with node expression &#39;1&#39;</div><div>06/07/2012 19:03:59;0040;PBS_Server;Req;set_nodes;job 73.lucid-tor1.cps.cloud allocated 1 nodes (nodelist=lucid-tor2/0)</div>
<div>06/07/2012 19:03:59;0008;PBS_Server;Job;73.lucid-tor1.cps.cloud;Job Run at request of root@lucid-tor1.cps.cloud</div><div>06/07/2012 19:03:59;0001;PBS_Server;Svr;PBS_Server;svr_setjobstate: setting job 73.lucid-tor1.cps.cloud state from QUEUED-QUEUED to RUNNING-PRERUN (4-40)</div>
<div>06/07/2012 19:03:59;0002;PBS_Server;Job;73.lucid-tor1.cps.cloud;child reported success for job after 0 seconds (dest=???), rc=0</div><div>06/07/2012 19:03:59;0001;PBS_Server;Svr;PBS_Server;svr_setjobstate: setting job 73.lucid-tor1.cps.cloud state from RUNNING-TRNOUTCM to RUNNING-RUNNING (4-42)</div>
<div>06/07/2012 19:03:59;0002;PBS_Server;Svr;PBS_Server;Torque Server Version = 4.0.2, loglevel = 3</div><div>06/07/2012 19:04:03;0100;PBS_Server;Req;;Type StatusJob request received from pbs_mom@lucid-tor2.cps.cloud, sock=10</div>
<div>06/07/2012 19:04:03;0100;PBS_Server;Req;;Type JobObituary request received from pbs_mom@lucid-tor2.cps.cloud, sock=8</div><div>06/07/2012 19:04:03;0009;PBS_Server;Job;73.lucid-tor1.cps.cloud;obit received - updating final job usage info</div>
<div>06/07/2012 19:04:03;0009;PBS_Server;Job;73.lucid-tor1.cps.cloud;job exit status 0 handled</div><div>06/07/2012 19:04:03;0001;PBS_Server;Svr;PBS_Server;svr_setjobstate: setting job 73.lucid-tor1.cps.cloud state from RUNNING-RUNNING to EXITING-EXITING (5-50)</div>
<div>06/07/2012 19:04:03;000d;PBS_Server;Job;73.lucid-tor1.cps.cloud;preparing to send &#39;e&#39; mail for job 73.lucid-tor1.cps.cloud to david@lucid-tor1.cps.cloud (Exit_status=0)</div><div>06/07/2012 19:04:03;000d;PBS_Server;Job;73.lucid-tor1.cps.cloud;Not sending email: User does not want mail of this type.</div>
<div>06/07/2012 19:04:03;0010;PBS_Server;Job;73.lucid-tor1.cps.cloud;Exit_status=0</div><div>06/07/2012 19:04:03;0008;PBS_Server;Job;73.lucid-tor1.cps.cloud;on_job_exit valid pjob: 0x2493f30 (substate=50)</div><div>06/07/2012 19:04:03;0008;PBS_Server;Job;73.lucid-tor1.cps.cloud;JOB_SUBSTATE_EXITING</div>
<div>06/07/2012 19:04:03;0001;PBS_Server;Svr;PBS_Server;svr_setjobstate: setting job 73.lucid-tor1.cps.cloud state from EXITING-EXITING to EXITING-RETURNSTD (5-70)</div><div>06/07/2012 19:04:03;0001;PBS_Server;Svr;PBS_Server;svr_setjobstate: setting job 73.lucid-tor1.cps.cloud state from EXITING-RETURNSTD to EXITING-STAGEDEL (5-52)</div>
<div>06/07/2012 19:04:12;000d;PBS_Server;Job;73.lucid-tor1.cps.cloud;Post job file processing error; job 73.lucid-tor1.cps.cloud on host lucid-tor2/0</div><div>06/07/2012 19:04:12;000d;PBS_Server;Job;73.lucid-tor1.cps.cloud;request to copy stageout files failed on node &#39;lucid-tor2/0&#39; for job 73.lucid-tor1.cps.cloud</div>
<div>06/07/2012 19:04:12;000d;PBS_Server;Job;73.lucid-tor1.cps.cloud;preparing to send &#39;o&#39; mail for job 73.lucid-tor1.cps.cloud to david@lucid-tor1.cps.cloud (request to copy stageout files failed on node &#39;lucid-tor2/0&#39; for)</div>
<div>06/07/2012 19:04:12;0001;PBS_Server;Svr;PBS_Server;svr_setjobstate: setting job 73.lucid-tor1.cps.cloud state from EXITING-STAGEDEL to EXITING-EXITED (5-53)</div><div>06/07/2012 19:04:12;0001;PBS_Server;Svr;PBS_Server;svr_setjobstate: setting job 73.lucid-tor1.cps.cloud state from EXITING-EXITED to EXITING-ABORT (5-54)</div>
<div>06/07/2012 19:04:12;000d;PBS_Server;Job;73.lucid-tor1.cps.cloud;Email &#39;o&#39; to david@lucid-tor1.cps.cloud failed: Child process &#39;sendmail -f adm david@lucid-tor1.cps.cloud&#39; returned 127 (errno 0:Success)</div>
<div>06/07/2012 19:04:12;0040;PBS_Server;Req;free_nodes;freeing nodes for job 73.lucid-tor1.cps.cloud</div><div>06/07/2012 19:04:12;0001;PBS_Server;Svr;PBS_Server;svr_setjobstate: setting job 73.lucid-tor1.cps.cloud state from EXITING-ABORT to COMPLETE-COMPLETE (6-59)</div>
<div>06/07/2012 19:04:15;0004;PBS_Server;Svr;svr_is_request;message received from addr 155.210.155.xx7:175: mom_port 15002  - rm_port 15003</div><div>06/07/2012 19:04:15;0004;PBS_Server;Svr;svr_is_request;message STATUS (4) received from mom on host lucid-tor2.cps.cloud (155.210.155.xx7:175) (sock 9)</div>
<div>06/07/2012 19:04:15;0004;PBS_Server;Svr;svr_is_request;IS_STATUS received from lucid-tor2.cps.cloud</div><div>06/07/2012 19:04:15;0040;PBS_Server;Req;is_stat_get;received status from node lucid-tor2.cps.cloud</div><div>
06/07/2012 19:04:15;0040;PBS_Server;Req;update_node_state;adjusting state for node lucid-tor2 - state=0, newstate=0</div><div>06/07/2012 19:04:27;0008;PBS_Server;Job;73.lucid-tor1.cps.cloud;on_job_exit valid pjob: 0x2493f30 (substate=59)</div>
<div>06/07/2012 19:04:27;0100;PBS_Server;Job;73.lucid-tor1.cps.cloud;dequeuing from batch, state COMPLETE</div></div><div><br></div><div>### mom log</div><div><div>06/07/2012 18:59:00;0002;   pbs_mom;n/a;mom_server_update_stat;status update successfully sent to lucid-tor1</div>
<div>06/07/2012 18:59:45;0002;   pbs_mom;n/a;mom_server_update_stat;status update successfully sent to lucid-tor1</div><div>06/07/2012 19:00:30;0002;   pbs_mom;n/a;mom_server_update_stat;status update successfully sent to lucid-tor1</div>
<div>06/07/2012 19:00:36;0002;   pbs_mom;Svr;pbs_mom;Torque Mom Version = 4.0.2, loglevel = 3</div><div>06/07/2012 19:01:15;0002;   pbs_mom;n/a;mom_server_update_stat;status update successfully sent to lucid-tor1</div><div>
06/07/2012 19:02:00;0002;   pbs_mom;n/a;mom_server_update_stat;status update successfully sent to lucid-tor1</div><div>06/07/2012 19:02:45;0002;   pbs_mom;n/a;mom_server_update_stat;status update successfully sent to lucid-tor1</div>
<div>06/07/2012 19:03:30;0002;   pbs_mom;n/a;mom_server_update_stat;status update successfully sent to lucid-tor1</div><div>06/07/2012 19:03:59;0008;   pbs_mom;Job;mom_process_request;request type QueueJob from host lucid-tor1.cps.cloud allowed</div>
<div>06/07/2012 19:03:59;0008;   pbs_mom;Job;mom_process_request;request type JobScript from host lucid-tor1.cps.cloud allowed</div><div>06/07/2012 19:03:59;0008;   pbs_mom;Job;mom_process_request;request type ReadyToCommit from host lucid-tor1.cps.cloud allowed</div>
<div>06/07/2012 19:03:59;0008;   pbs_mom;Job;mom_process_request;request type Commit from host lucid-tor1.cps.cloud allowed</div><div>06/07/2012 19:03:59;0001;   pbs_mom;Job;job_nodes;job: 73.lucid-tor1.cps.cloud numnodes=1 numvnod=1</div>
<div>06/07/2012 19:03:59;0001;   pbs_mom;Job;73.lucid-tor1.cps.cloud;phase 2 of job launch successfully completed</div><div>06/07/2012 19:03:59;0001;   pbs_mom;Job;TMomFinalizeJob3;Job 73.lucid-tor1.cps.cloud read start return code=0 session=959</div>
<div>06/07/2012 19:03:59;0001;   pbs_mom;Job;TMomFinalizeJob3;job 73.lucid-tor1.cps.cloud started, pid = 959</div><div>06/07/2012 19:03:59;0001;   pbs_mom;Job;73.lucid-tor1.cps.cloud;exec_job_on_ms:job successfully started</div>
<div>06/07/2012 19:04:03;0008;   pbs_mom;Job;scan_for_terminated;pid 959 harvested for job 73.lucid-tor1.cps.cloud, task 1, exitcode=0</div><div>06/07/2012 19:04:03;0080;   pbs_mom;Job;73.lucid-tor1.cps.cloud;scan_for_terminated: job 73.lucid-tor1.cps.cloud task 1 terminated, sid=959</div>
<div>06/07/2012 19:04:03;0080;   pbs_mom;Svr;scan_for_exiting;searching for exiting jobs</div><div>06/07/2012 19:04:03;0008;   pbs_mom;Job;kill_job;scan_for_exiting: sending signal 9, &quot;KILL&quot; to job 73.lucid-tor1.cps.cloud, reason: local task termination detected</div>
<div>06/07/2012 19:04:03;0080;   pbs_mom;Svr;preobit_reply;top of preobit_reply</div><div>06/07/2012 19:04:03;0080;   pbs_mom;Svr;preobit_reply;DIS_reply_read/decode_DIS_replySvr worked, top of while loop</div><div>06/07/2012 19:04:03;0080;   pbs_mom;Svr;preobit_reply;in while loop, no error from job stat</div>
<div>06/07/2012 19:04:03;0080;   pbs_mom;Job;73.lucid-tor1.cps.cloud;performing job clean-up in preobit_reply()</div><div>06/07/2012 19:04:03;0080;   pbs_mom;Job;73.lucid-tor1.cps.cloud;epilog subtask created with pid 962 - substate set to JOB_SUBSTATE_OBIT - registered post_epilogue</div>
<div>06/07/2012 19:04:03;0080;   pbs_mom;Req;post_epilogue;preparing obit message for job 73.lucid-tor1.cps.cloud</div><div>06/07/2012 19:04:03;0080;   pbs_mom;Job;73.lucid-tor1.cps.cloud;obit sent to server</div><div>06/07/2012 19:04:03;0008;   pbs_mom;Job;mom_process_request;request type CopyFiles from host lucid-tor1.cps.cloud allowed</div>
<div>06/07/2012 19:04:03;0008;   pbs_mom;Job;73.lucid-tor1.cps.cloud;forking to user, uid: 1000  gid: 1000  homedir: &#39;/home/david&#39;</div><div>06/07/2012 19:04:12;0008;   pbs_mom;Job;scan_for_terminated;pid 963 not tracked, statloc=0, exitval=0</div>
<div>06/07/2012 19:04:12;0008;   pbs_mom;Job;mom_process_request;request type DeleteJob from host lucid-tor1.cps.cloud allowed</div><div>06/07/2012 19:04:12;0008;   pbs_mom;Job;73.lucid-tor1.cps.cloud;deleting job</div><div>
06/07/2012 19:04:12;0080;   pbs_mom;Job;73.lucid-tor1.cps.cloud;deleting job 73.lucid-tor1.cps.cloud in state EXITED</div><div>06/07/2012 19:04:12;0080;   pbs_mom;Job;73.lucid-tor1.cps.cloud;removed job script</div><div>06/07/2012 19:04:15;0002;   pbs_mom;n/a;mom_server_update_stat;status update successfully sent to lucid-tor1</div>
</div><div><br></div><div>So the job gets executed on the compute node, but only if I force it with qrun.</div><div>I have already found these questions</div><div>- <a href="http://serverfault.com/questions/258195/torque-jobs-does-not-enter-e-state-unless-qrun">http://serverfault.com/questions/258195/torque-jobs-does-not-enter-e-state-unless-qrun</a></div>
<div>- <a href="http://www.clusterresources.com/pipermail/torqueusers/2004-October/000871.html">http://www.clusterresources.com/pipermail/torqueusers/2004-October/000871.html</a></div><div>- <a href="http://www.supercluster.org/pipermail/torqueusers/2011-April/012609.html">http://www.supercluster.org/pipermail/torqueusers/2011-April/012609.html</a></div>
<div>but the answers don&#39;t help that much.</div><div><br></div><div>Did I miss anything?</div><div>In case I didn&#39;t, do you have any idea of what could be going wrong?</div><div><br></div><div>Thank you very much.</div>