Hi Chris,<br><br>2008/5/30 Chris Samuel &lt;<a href="mailto:csamuel@vpac.org">csamuel@vpac.org</a>&gt;:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div class="Ih2E3d"><br>
</div>We started off with MVAPICH but moved to OpenMPI when we<br>
found we had real problems getting any job larger than 64<br>
CPUs to start with it.</blockquote><div><br>I am taking much larger number than&nbsp; that in terms of cores, and wondering what would be the overhead on connections, and as a result on system resources associated with this connection, and that most likely means some parameters that i need to tune, and have in place.<br>
</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><br>
<br>
OpenMPI also has *much* better error messages, and doesn&#39;t<br>
have the dumb idea of enabling CPU affinity by default on<br>
AMD64 systems (though that might be fixed by now).</blockquote><div><br>you mean OpenMPI does handle CPU affinity by default or that is something I should be worried about? in AMD64 most likely i should worry, however we are using Intel <span class="mw-headline">Harpertown</span> E5450, unless the developer submits a 2 core job in an 8 core node, should i worry how to make sure that each core is a differenty cpu at least?<br>
</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br>
Their code naively binds from cores 0-&gt;N, which is fine<br>
until you run two 4 CPU codes on an 8 core node and why<br>
they&#39;re running at half speed compared to just running<br>
one job on its own.. :-(</blockquote><div><br>Interesting! <br></div></div><br><br>regards<br><br>Walid. <br>