On Fri, Sep 14, 2012 at 1:53 AM, Birendra jha <span dir="ltr">&lt;<a href="mailto:bjha7333@yahoo.com" target="_blank">bjha7333@yahoo.com</a>&gt;</span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Dear developers<br>
<br>
I simplified my problem setup to see if no. of KSP iterations goes down. There are 46552 nodes, 42525 hex elements in a box.  In this very simple setup, both ASM and ML preconditioner takes ~90 iterations for convergence.<br>

Attached are the cfg files and stdout from LU and ML preconditioners. ASM stdout is not attached.<br></blockquote><div><br></div><div>Something in your setup is causing the problem to be nearly or actually singular. Its either bad elements in</div>
<div>the mesh, or an inconsistent boundary condition I think.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Why does the run with LU crash? I just used following 2 lines to use LU:<br>
[pylithapp.petsc]<br>
pc_type = lu<br>
Is it incorrect?<br></blockquote><div><br></div><div>This is interesting. Can you run in the debugger --petsc.start_in_debugger and get a stack trace?</div><div><br></div><div>  Thanks,</div><div><br></div><div>     Matt</div>
<div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
For both ASM and ML, the solution looks correct in Paraview. It&#39;s just the time taken in integrating residual that I would like to reduce.<br>
<br>
Another question: when Pylith is running on a single multicore machine, can it use OpenMPI instead of MPI (I am assuming it&#39;s using MPI by default)?<br>
<br>
Thanks and regards<br>
Birendra<br>
<br>
--- On Tue, 9/4/12, Brad Aagaard &lt;<a href="mailto:baagaard@usgs.gov">baagaard@usgs.gov</a>&gt; wrote:<br>
<br>
&gt; From: Brad Aagaard &lt;<a href="mailto:baagaard@usgs.gov">baagaard@usgs.gov</a>&gt;<br>
&gt; Subject: Re: Change in dt means new Jacobian<br>
&gt; To: &quot;Birendra jha&quot; &lt;<a href="mailto:bjha7333@yahoo.com">bjha7333@yahoo.com</a>&gt;<br>
&gt; Cc: <a href="mailto:cig-short@geodynamics.org">cig-short@geodynamics.org</a><br>
&gt; Date: Tuesday, September 4, 2012, 7:59 PM<br>
&gt; On 09/03/2012 08:54 PM, Birendra jha<br>
&gt; wrote:<br>
&gt; &gt; 3. How do I utilize multiple cores on a single machine?<br>
&gt; Sorry if this<br>
&gt; &gt; question is already answered somewhere. I found<br>
&gt; instructions on<br>
&gt; &gt; running parallel using a batch system but don&#39;t know<br>
&gt; how to run on 1<br>
&gt; &gt; node and use multiple cores. Does this require<br>
&gt; re-building Pylith?<br>
&gt;<br>
&gt; To run in parallel all you have to do is add the command<br>
&gt; line argument --nodes=NUM_CORES. You do not need to<br>
&gt; rebuild.<br>
&gt;<br>
&gt; &gt; 4. For HDF5 output, is it correct that the I have to<br>
&gt; wait until<br>
&gt; &gt; finish to get the xmf file which is needed to load h5<br>
&gt; files in<br>
&gt; &gt; Paraview? Manual says &quot;This file is written when PyLith<br>
&gt; closes the<br>
&gt; &gt; HDF5 file at the end of the simulation&quot;.<br>
&gt;<br>
&gt; The Xdmf file is written when PyLith closes the HDF5 file at<br>
&gt; the end of a simulation. There is a python script included<br>
&gt; with PyLith called pylith_genxdmf that will generate the<br>
&gt; Xdmf file given an HDF5 file. This is handy if a simulation<br>
&gt; did not finish or you add additional fields to an existing<br>
&gt; HDF5 file. Generating the Xdmf file in the middle of a<br>
&gt; simulation can work but it is risky because the HDF5 file<br>
&gt; can get corrupted if multiple processes try to access the<br>
&gt; file simultaneously.<br>
&gt;<br>
&gt;   pylith_genxdmf --file=HDF5_FILE<br>
&gt;<br>
&gt; Brad<br>
&gt;<br>_______________________________________________<br>
CIG-SHORT mailing list<br>
<a href="mailto:CIG-SHORT@geodynamics.org">CIG-SHORT@geodynamics.org</a><br>
<a href="http://geodynamics.org/cgi-bin/mailman/listinfo/cig-short" target="_blank">http://geodynamics.org/cgi-bin/mailman/listinfo/cig-short</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br>What most experimenters take for granted before they begin their experiments is infinitely more interesting than any results to which their experiments lead.<br>
-- Norbert Wiener<br>