<div dir="ltr"><div><div><div>Sam,<br><br></div>    Grib2 files compressed with jpeg2000 are slow to read.   You can determine<br>the type of compressing by using <br><br></div>    wgrib2 IN.grb -packing<br><br></div><div>
You can speed up the reading of jpeg compressed grib2 files by converting<br>the file to complex packing.<br><br></div><div>    wgrib2 IN.grb -set_grib_type c3 -grib_out OUT.grb<br><br></div><div>c3 is good for smooth fields and c1 is good for noisy fields.  Many people<br>
use jpeg compression because it often makes the smallest files.<br></div><div class="gmail_extra"><br></div><div class="gmail_extra">After converting the file, the index files will have to be remade.<br><br></div><div class="gmail_extra">
 Wesley<br><br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Apr 16, 2013 at 7:16 PM, Sam Wilson <span dir="ltr">&lt;<a href="mailto:sam@surfline.com" target="_blank">sam@surfline.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div style="font-size:14px;word-wrap:break-word">
<div>
<div>
<div style="font-family:Calibri,sans-serif">Hi,</div>
<div style="font-family:Calibri,sans-serif"><br>
</div>
<div style="font-family:Calibri,sans-serif">I have a set of grads scripts that generate point output of various variables (wind, pressure, etc.) for many locations using different model datasets in grb format.  I&#39;m using the gr2stn function to get the output
 at the station locations.  Most of my scripts run very quickly and generate data for thousands of locations.  However, some of them are very slow and will take many hours to get output at all the points I want.  The only difference between the scripts are
 the dataset that they are accessing and using to generate the output.  </div>
<div style="font-family:Calibri,sans-serif"><br>
</div>
<div style="font-family:Calibri,sans-serif">I&#39;m trying to determine why some of them run very slow and others do not.  I assumed the reason was the size of the grb files being used – if the grb files were very large then it would be slower and vice versa.
  As a test, I decreased the number of variables being included in the grb file set that was very large to reduce the size of those grb files.  I then ran the script to generate the point output from the smaller grb files and it didn&#39;t seem to buy me much run
 time.</div>
<div style="font-family:Calibri,sans-serif"><br>
</div>
<div style="font-family:Calibri,sans-serif">I did notice that the grb files that are associated with the slow processing have a PDEF entry in the .ctl file, whereas the grb files that process very fast have no PDEF entry.  Could this be the cause?  Does
 it take a lot longer to get point output from data that has to be mapped to a rectilinear lat/lon grid (has a PDEF entry) versus data that is already on a rectilinear lat/lon grid (no PDEF entry)?  If this is the case, does anyone know of a way around this
 to get faster point output from grb files?</div>
<div style="font-family:Calibri,sans-serif"><br>
</div>
<div style="font-family:Calibri,sans-serif">Thanks for your time and any help you can provide.</div>
<div style="font-family:Calibri,sans-serif"><br>
</div>
<div style="font-family:Calibri,sans-serif">Best,</div>
</div>
</div>
<div style="font-family:Calibri,sans-serif">Sam </div>
</div>

<br>_______________________________________________<br>
gradsusr mailing list<br>
<a href="mailto:gradsusr@gradsusr.org">gradsusr@gradsusr.org</a><br>
<a href="http://gradsusr.org/mailman/listinfo/gradsusr" target="_blank">http://gradsusr.org/mailman/listinfo/gradsusr</a><br>
<br></blockquote></div><br></div></div>