<div dir="ltr">he Rene,<div><br></div><div>nope its the cray compilers fault.</div><div>expect it to compile for almost a day for dealII (9.5 hours with version 8.1.4)......</div><div>i have been trying to get it to work on the cray @hlrs with the help of their cray engineers.</div>

<div>8.1.4 does not work for sure i hoped that the newer versions of the compiler would be more succesfull.</div><div>i will have to dig up my notes and gain access to a cray system again to test it.</div><div>is this part of a prace PA project? on what system are you running?</div>

<div><br></div><div>cheers</div><div>Thomas</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, Jan 13, 2014 at 7:32 PM, Rene Gassmoeller <span dir="ltr"><<a href="mailto:rengas@gfz-potsdam.de" target="_blank">rengas@gfz-potsdam.de</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Thomas,<br>
actually I used the gcc (4.8.1) after trying the cray compiler (8.1.9)<br>
for a while without success, I am however no expert in this, so it might<br>
have been my fault and not the compilers. I just rechecked the part<br>
about static linking and you are right. Static linking simply is the<br>
default option proposed by the admin. If you have instructions available<br>
for the dynamic linking I would be happy to see them.<br>
<br>
Cheers,<br>
Rene<br>
<div class="HOEnZb"><div class="h5"><br>
On 01/13/2014 06:30 PM, Thomas Geenen wrote:<br>
> he Rene,<br>
><br>
> what is the status of getting dealii to compile with the cray compiler?<br>
> last year we still needed a pre-release of the compiler to get it to work<br>
> its possible to build with shared libraries as well (gcc)<br>
> let me know if you need help with setting that up.<br>
> the instructions are for the pre cmake migration so i will have to do a<br>
> quick check to adapt the hacks to the new build system.<br>
><br>
> cheers<br>
> Thomas<br>
><br>
><br>
> On Mon, Jan 13, 2014 at 6:05 PM, Rene Gassmoeller <<a href="mailto:rengas@gfz-potsdam.de">rengas@gfz-potsdam.de</a>>wrote:<br>
><br>
>> Dear all,<br>
>> I have a follow up question on the Input/Output issue Wolfgang had. I am<br>
>> currently doing scaling tests on a Cray XC30 up to 4000 cores and<br>
>> getting the same error messages. I am writing in a designated $WORK<br>
>> directory that is intended for data output, however there is also a fast<br>
>> local $TMPDIR directory on each compute node.<br>
>> I guess my question is: Is the Number of grouped files = 1 parameter<br>
>> always useful in case of a large parallel computation and an existent<br>
>> MPI I/O system or is this cluster specific (in that case I will just<br>
>> contact the system administrators for help)?<br>
>><br>
>> Another thing I would like to mention is that this system only allows<br>
>> for static linking. With my limited knowledge I was only able to compile<br>
>> ASPECT by commenting out the option to dynamically load external<br>
>> libraries by user input. Could somebody who introduced the possibility<br>
>> to dynamically load libraries at runtime comment on the work to make<br>
>> this a switch at compile-time? I dont know much about this, otherwise I<br>
>> would search for a solution myself. In case this creates a longer<br>
>> discussion I will open up a new thread on the mailing list.<br>
>><br>
>> Thanks for comments and suggestions,<br>
>> Rene<br>
>><br>
>> On 10/14/2013 05:02 PM, Wolfgang Bangerth wrote:<br>
>>> On 10/11/2013 01:32 PM, Timo Heister wrote:<br>
>>>>> I'm running this big computation and I'm getting these errors:<br>
>>>><br>
>>>> For a large parallel computation I would use MPI I/O using<br>
>>>>      set Number of grouped files       = 1<br>
>>><br>
>>> Good point. I had forgotten about this flag.<br>
>>><br>
>>>><br>
>>>>> ***** ERROR: could not move /tmp/tmp.gDzuQS to<br>
>>>>> output/solution-00001.0007.vtu *****<br>
>>>><br>
>>>> Is this on brazos? Are you writing/moving into your slow NFS ~/? I got<br>
>>>> several GB/s writing with MPI I/O to the parallel filesystem (was it<br>
>>>> called data or fdata?).<br>
>>><br>
>>> Yes. I was just writing to something under $HOME. Maybe not very smart...<br>
>>><br>
>>><br>
>>>> retry and otherwise abort the computation I would say.<br>
>>><br>
>>> OK, that's what I'm doing now. It shouldn't just fail any more now.<br>
>>><br>
>>> Best<br>
>>>  W.<br>
>>><br>
>>><br>
>> _______________________________________________<br>
>> Aspect-devel mailing list<br>
>> <a href="mailto:Aspect-devel@geodynamics.org">Aspect-devel@geodynamics.org</a><br>
>> <a href="http://geodynamics.org/cgi-bin/mailman/listinfo/aspect-devel" target="_blank">http://geodynamics.org/cgi-bin/mailman/listinfo/aspect-devel</a><br>
>><br>
><br>
><br>
><br>
> _______________________________________________<br>
> Aspect-devel mailing list<br>
> <a href="mailto:Aspect-devel@geodynamics.org">Aspect-devel@geodynamics.org</a><br>
> <a href="http://geodynamics.org/cgi-bin/mailman/listinfo/aspect-devel" target="_blank">http://geodynamics.org/cgi-bin/mailman/listinfo/aspect-devel</a><br>
><br>
_______________________________________________<br>
Aspect-devel mailing list<br>
<a href="mailto:Aspect-devel@geodynamics.org">Aspect-devel@geodynamics.org</a><br>
<a href="http://geodynamics.org/cgi-bin/mailman/listinfo/aspect-devel" target="_blank">http://geodynamics.org/cgi-bin/mailman/listinfo/aspect-devel</a><br>
</div></div></blockquote></div><br></div>