]> git.lizzy.rs Git - zlib.git/blob - deflate.c
ac083ae324b391e39fd89160f6b12df9266890af
[zlib.git] / deflate.c
1 /* deflate.c -- compress data using the deflation algorithm
2  * Copyright (C) 1995-2003 Jean-loup Gailly.
3  * For conditions of distribution and use, see copyright notice in zlib.h
4  */
5
6 /*
7  *  ALGORITHM
8  *
9  *      The "deflation" process depends on being able to identify portions
10  *      of the input text which are identical to earlier input (within a
11  *      sliding window trailing behind the input currently being processed).
12  *
13  *      The most straightforward technique turns out to be the fastest for
14  *      most input files: try all possible matches and select the longest.
15  *      The key feature of this algorithm is that insertions into the string
16  *      dictionary are very simple and thus fast, and deletions are avoided
17  *      completely. Insertions are performed at each input character, whereas
18  *      string matches are performed only when the previous match ends. So it
19  *      is preferable to spend more time in matches to allow very fast string
20  *      insertions and avoid deletions. The matching algorithm for small
21  *      strings is inspired from that of Rabin & Karp. A brute force approach
22  *      is used to find longer strings when a small match has been found.
23  *      A similar algorithm is used in comic (by Jan-Mark Wams) and freeze
24  *      (by Leonid Broukhis).
25  *         A previous version of this file used a more sophisticated algorithm
26  *      (by Fiala and Greene) which is guaranteed to run in linear amortized
27  *      time, but has a larger average cost, uses more memory and is patented.
28  *      However the F&G algorithm may be faster for some highly redundant
29  *      files if the parameter max_chain_length (described below) is too large.
30  *
31  *  ACKNOWLEDGEMENTS
32  *
33  *      The idea of lazy evaluation of matches is due to Jan-Mark Wams, and
34  *      I found it in 'freeze' written by Leonid Broukhis.
35  *      Thanks to many people for bug reports and testing.
36  *
37  *  REFERENCES
38  *
39  *      Deutsch, L.P.,"DEFLATE Compressed Data Format Specification".
40  *      Available in http://www.ietf.org/rfc/rfc1951.txt
41  *
42  *      A description of the Rabin and Karp algorithm is given in the book
43  *         "Algorithms" by R. Sedgewick, Addison-Wesley, p252.
44  *
45  *      Fiala,E.R., and Greene,D.H.
46  *         Data Compression with Finite Windows, Comm.ACM, 32,4 (1989) 490-595
47  *
48  */
49
50 /* @(#) $Id$ */
51
52 #include "deflate.h"
53
54 const char deflate_copyright[] =
55    " deflate 1.2.0.6 Copyright 1995-2003 Jean-loup Gailly ";
56 /*
57   If you use the zlib library in a product, an acknowledgment is welcome
58   in the documentation of your product. If for some reason you cannot
59   include such an acknowledgment, I would appreciate that you keep this
60   copyright string in the executable of your product.
61  */
62
63 /* ===========================================================================
64  *  Function prototypes.
65  */
66 typedef enum {
67     need_more,      /* block not completed, need more input or more output */
68     block_done,     /* block flush performed */
69     finish_started, /* finish started, need only more output at next deflate */
70     finish_done     /* finish done, accept no more input or output */
71 } block_state;
72
73 typedef block_state (*compress_func) OF((deflate_state *s, int flush));
74 /* Compression function. Returns the block state after the call. */
75
76 local void fill_window    OF((deflate_state *s));
77 local block_state deflate_stored OF((deflate_state *s, int flush));
78 local block_state deflate_fast   OF((deflate_state *s, int flush));
79 #ifndef FASTEST
80 local block_state deflate_slow   OF((deflate_state *s, int flush));
81 #endif
82 local void lm_init        OF((deflate_state *s));
83 local void putShortMSB    OF((deflate_state *s, uInt b));
84 local void flush_pending  OF((z_streamp strm));
85 local int read_buf        OF((z_streamp strm, Bytef *buf, unsigned size));
86 #ifndef FASTEST
87 #ifdef ASMV
88       void match_init OF((void)); /* asm code initialization */
89       uInt longest_match  OF((deflate_state *s, IPos cur_match));
90 #else
91 local uInt longest_match  OF((deflate_state *s, IPos cur_match));
92 #endif
93 #endif
94 local uInt longest_match_fast OF((deflate_state *s, IPos cur_match));
95
96 #ifdef DEBUG
97 local  void check_match OF((deflate_state *s, IPos start, IPos match,
98                             int length));
99 #endif
100
101 /* ===========================================================================
102  * Local data
103  */
104
105 #define NIL 0
106 /* Tail of hash chains */
107
108 #ifndef TOO_FAR
109 #  define TOO_FAR 4096
110 #endif
111 /* Matches of length 3 are discarded if their distance exceeds TOO_FAR */
112
113 #define MIN_LOOKAHEAD (MAX_MATCH+MIN_MATCH+1)
114 /* Minimum amount of lookahead, except at the end of the input file.
115  * See deflate.c for comments about the MIN_MATCH+1.
116  */
117
118 /* Values for max_lazy_match, good_match and max_chain_length, depending on
119  * the desired pack level (0..9). The values given below have been tuned to
120  * exclude worst case performance for pathological files. Better values may be
121  * found for specific files.
122  */
123 typedef struct config_s {
124    ush good_length; /* reduce lazy search above this match length */
125    ush max_lazy;    /* do not perform lazy search above this match length */
126    ush nice_length; /* quit search above this match length */
127    ush max_chain;
128    compress_func func;
129 } config;
130
131 #ifdef FASTEST
132 local const config configuration_table[2] = {
133 /*      good lazy nice chain */
134 /* 0 */ {0,    0,  0,    0, deflate_stored},  /* store only */
135 /* 1 */ {4,    4,  8,    4, deflate_fast}}; /* max speed, no lazy matches */
136 #else
137 local const config configuration_table[10] = {
138 /*      good lazy nice chain */
139 /* 0 */ {0,    0,  0,    0, deflate_stored},  /* store only */
140 /* 1 */ {4,    4,  8,    4, deflate_fast}, /* max speed, no lazy matches */
141 /* 2 */ {4,    5, 16,    8, deflate_fast},
142 /* 3 */ {4,    6, 32,   32, deflate_fast},
143
144 /* 4 */ {4,    4, 16,   16, deflate_slow},  /* lazy matches */
145 /* 5 */ {8,   16, 32,   32, deflate_slow},
146 /* 6 */ {8,   16, 128, 128, deflate_slow},
147 /* 7 */ {8,   32, 128, 256, deflate_slow},
148 /* 8 */ {32, 128, 258, 1024, deflate_slow},
149 /* 9 */ {32, 258, 258, 4096, deflate_slow}}; /* max compression */
150 #endif
151
152 /* Note: the deflate() code requires max_lazy >= MIN_MATCH and max_chain >= 4
153  * For deflate_fast() (levels <= 3) good is ignored and lazy has a different
154  * meaning.
155  */
156
157 #define EQUAL 0
158 /* result of memcmp for equal strings */
159
160 #ifndef NO_DUMMY_DECL
161 struct static_tree_desc_s {int dummy;}; /* for buggy compilers */
162 #endif
163
164 /* ===========================================================================
165  * Update a hash value with the given input byte
166  * IN  assertion: all calls to to UPDATE_HASH are made with consecutive
167  *    input characters, so that a running hash key can be computed from the
168  *    previous key instead of complete recalculation each time.
169  */
170 #define UPDATE_HASH(s,h,c) (h = (((h)<<s->hash_shift) ^ (c)) & s->hash_mask)
171
172
173 /* ===========================================================================
174  * Insert string str in the dictionary and set match_head to the previous head
175  * of the hash chain (the most recent string with same hash key). Return
176  * the previous length of the hash chain.
177  * If this file is compiled with -DFASTEST, the compression level is forced
178  * to 1, and no hash chains are maintained.
179  * IN  assertion: all calls to to INSERT_STRING are made with consecutive
180  *    input characters and the first MIN_MATCH bytes of str are valid
181  *    (except for the last MIN_MATCH-1 bytes of the input file).
182  */
183 #ifdef FASTEST
184 #define INSERT_STRING(s, str, match_head) \
185    (UPDATE_HASH(s, s->ins_h, s->window[(str) + (MIN_MATCH-1)]), \
186     match_head = s->head[s->ins_h], \
187     s->head[s->ins_h] = (Pos)(str))
188 #else
189 #define INSERT_STRING(s, str, match_head) \
190    (UPDATE_HASH(s, s->ins_h, s->window[(str) + (MIN_MATCH-1)]), \
191     match_head = s->prev[(str) & s->w_mask] = s->head[s->ins_h], \
192     s->head[s->ins_h] = (Pos)(str))
193 #endif
194
195 /* ===========================================================================
196  * Initialize the hash table (avoiding 64K overflow for 16 bit systems).
197  * prev[] will be initialized on the fly.
198  */
199 #define CLEAR_HASH(s) \
200     s->head[s->hash_size-1] = NIL; \
201     zmemzero((Bytef *)s->head, (unsigned)(s->hash_size-1)*sizeof(*s->head));
202
203 /* ========================================================================= */
204 int ZEXPORT deflateInit_(strm, level, version, stream_size)
205     z_streamp strm;
206     int level;
207     const char *version;
208     int stream_size;
209 {
210     return deflateInit2_(strm, level, Z_DEFLATED, MAX_WBITS, DEF_MEM_LEVEL,
211                          Z_DEFAULT_STRATEGY, version, stream_size);
212     /* To do: ignore strm->next_in if we use it as window */
213 }
214
215 /* ========================================================================= */
216 int ZEXPORT deflateInit2_(strm, level, method, windowBits, memLevel, strategy,
217                   version, stream_size)
218     z_streamp strm;
219     int  level;
220     int  method;
221     int  windowBits;
222     int  memLevel;
223     int  strategy;
224     const char *version;
225     int stream_size;
226 {
227     deflate_state *s;
228     int wrap = 1;
229     static const char my_version[] = ZLIB_VERSION;
230
231     ushf *overlay;
232     /* We overlay pending_buf and d_buf+l_buf. This works since the average
233      * output size for (length,distance) codes is <= 24 bits.
234      */
235
236     if (version == Z_NULL || version[0] != my_version[0] ||
237         stream_size != sizeof(z_stream)) {
238         return Z_VERSION_ERROR;
239     }
240     if (strm == Z_NULL) return Z_STREAM_ERROR;
241
242     strm->msg = Z_NULL;
243     if (strm->zalloc == (alloc_func)0) {
244         strm->zalloc = zcalloc;
245         strm->opaque = (voidpf)0;
246     }
247     if (strm->zfree == (free_func)0) strm->zfree = zcfree;
248
249 #ifdef FASTEST
250     if (level != 0) level = 1;
251 #else
252     if (level == Z_DEFAULT_COMPRESSION) level = 6;
253 #endif
254
255     if (windowBits < 0) { /* suppress zlib wrapper */
256         wrap = 0;
257         windowBits = -windowBits;
258     }
259 #ifdef GZIP
260     else if (windowBits > 15) {
261         wrap = 2;       /* write gzip wrapper instead */
262         windowBits -= 16;
263     }
264 #endif
265     if (memLevel < 1 || memLevel > MAX_MEM_LEVEL || method != Z_DEFLATED ||
266         windowBits < 8 || windowBits > 15 || level < 0 || level > 9 ||
267         strategy < 0 || strategy > Z_RLE) {
268         return Z_STREAM_ERROR;
269     }
270     if (windowBits == 8) windowBits = 9;  /* until 256-byte window bug fixed */
271     s = (deflate_state *) ZALLOC(strm, 1, sizeof(deflate_state));
272     if (s == Z_NULL) return Z_MEM_ERROR;
273     strm->state = (struct internal_state FAR *)s;
274     s->strm = strm;
275
276     s->wrap = wrap;
277     s->w_bits = windowBits;
278     s->w_size = 1 << s->w_bits;
279     s->w_mask = s->w_size - 1;
280
281     s->hash_bits = memLevel + 7;
282     s->hash_size = 1 << s->hash_bits;
283     s->hash_mask = s->hash_size - 1;
284     s->hash_shift =  ((s->hash_bits+MIN_MATCH-1)/MIN_MATCH);
285
286     s->window = (Bytef *) ZALLOC(strm, s->w_size, 2*sizeof(Byte));
287     s->prev   = (Posf *)  ZALLOC(strm, s->w_size, sizeof(Pos));
288     s->head   = (Posf *)  ZALLOC(strm, s->hash_size, sizeof(Pos));
289
290     s->lit_bufsize = 1 << (memLevel + 6); /* 16K elements by default */
291
292     overlay = (ushf *) ZALLOC(strm, s->lit_bufsize, sizeof(ush)+2);
293     s->pending_buf = (uchf *) overlay;
294     s->pending_buf_size = (ulg)s->lit_bufsize * (sizeof(ush)+2L);
295
296     if (s->window == Z_NULL || s->prev == Z_NULL || s->head == Z_NULL ||
297         s->pending_buf == Z_NULL) {
298         s->status = FINISH_STATE;
299         strm->msg = (char*)ERR_MSG(Z_MEM_ERROR);
300         deflateEnd (strm);
301         return Z_MEM_ERROR;
302     }
303     s->d_buf = overlay + s->lit_bufsize/sizeof(ush);
304     s->l_buf = s->pending_buf + (1+sizeof(ush))*s->lit_bufsize;
305
306     s->level = level;
307     s->strategy = strategy;
308     s->method = (Byte)method;
309
310     return deflateReset(strm);
311 }
312
313 /* ========================================================================= */
314 int ZEXPORT deflateSetDictionary (strm, dictionary, dictLength)
315     z_streamp strm;
316     const Bytef *dictionary;
317     uInt  dictLength;
318 {
319     deflate_state *s;
320     uInt length = dictLength;
321     uInt n;
322     IPos hash_head = 0;
323
324     if (strm == Z_NULL || strm->state == Z_NULL || dictionary == Z_NULL ||
325         strm->state->wrap == 2 ||
326         (strm->state->wrap == 1 && strm->state->status != INIT_STATE))
327         return Z_STREAM_ERROR;
328
329     s = strm->state;
330     if (s->wrap)
331         strm->adler = adler32(strm->adler, dictionary, dictLength);
332
333     if (length < MIN_MATCH) return Z_OK;
334     if (length > MAX_DIST(s)) {
335         length = MAX_DIST(s);
336 #ifndef USE_DICT_HEAD
337         dictionary += dictLength - length; /* use the tail of the dictionary */
338 #endif
339     }
340     zmemcpy(s->window, dictionary, length);
341     s->strstart = length;
342     s->block_start = (long)length;
343
344     /* Insert all strings in the hash table (except for the last two bytes).
345      * s->lookahead stays null, so s->ins_h will be recomputed at the next
346      * call of fill_window.
347      */
348     s->ins_h = s->window[0];
349     UPDATE_HASH(s, s->ins_h, s->window[1]);
350     for (n = 0; n <= length - MIN_MATCH; n++) {
351         INSERT_STRING(s, n, hash_head);
352     }
353     if (hash_head) hash_head = 0;  /* to make compiler happy */
354     return Z_OK;
355 }
356
357 /* ========================================================================= */
358 int ZEXPORT deflateReset (strm)
359     z_streamp strm;
360 {
361     deflate_state *s;
362
363     if (strm == Z_NULL || strm->state == Z_NULL ||
364         strm->zalloc == (alloc_func)0 || strm->zfree == (free_func)0) {
365         return Z_STREAM_ERROR;
366     }
367
368     strm->total_in = strm->total_out = 0;
369     strm->msg = Z_NULL; /* use zfree if we ever allocate msg dynamically */
370     strm->data_type = Z_UNKNOWN;
371
372     s = (deflate_state *)strm->state;
373     s->pending = 0;
374     s->pending_out = s->pending_buf;
375
376     if (s->wrap < 0) {
377         s->wrap = -s->wrap; /* was made negative by deflate(..., Z_FINISH); */
378     }
379     s->status = s->wrap ? INIT_STATE : BUSY_STATE;
380     strm->adler =
381 #ifdef GZIP
382         s->wrap == 2 ? crc32(0L, Z_NULL, 0) :
383 #endif
384         adler32(0L, Z_NULL, 0);
385     s->last_flush = Z_NO_FLUSH;
386
387     _tr_init(s);
388     lm_init(s);
389
390     return Z_OK;
391 }
392
393 /* ========================================================================= */
394 int ZEXPORT deflateParams(strm, level, strategy)
395     z_streamp strm;
396     int level;
397     int strategy;
398 {
399     deflate_state *s;
400     compress_func func;
401     int err = Z_OK;
402
403     if (strm == Z_NULL || strm->state == Z_NULL) return Z_STREAM_ERROR;
404     s = strm->state;
405
406 #ifdef FASTEST
407     if (level != 0) level = 1;
408 #else
409     if (level == Z_DEFAULT_COMPRESSION) level = 6;
410 #endif
411     if (level < 0 || level > 9 || strategy < 0 || strategy > Z_RLE) {
412         return Z_STREAM_ERROR;
413     }
414     func = configuration_table[s->level].func;
415
416     if (func != configuration_table[level].func && strm->total_in != 0) {
417         /* Flush the last buffer: */
418         err = deflate(strm, Z_PARTIAL_FLUSH);
419     }
420     if (s->level != level) {
421         s->level = level;
422         s->max_lazy_match   = configuration_table[level].max_lazy;
423         s->good_match       = configuration_table[level].good_length;
424         s->nice_match       = configuration_table[level].nice_length;
425         s->max_chain_length = configuration_table[level].max_chain;
426     }
427     s->strategy = strategy;
428     return err;
429 }
430
431 /* =========================================================================
432  * For the default windowBits of 15 and memLevel of 8, this function returns
433  * a close to exact, as well as small, upper bound on the compressed size.
434  * They are coded as constants here for a reason--if the #define's are
435  * changed, then this function needs to be changed as well.  The return
436  * value for 15 and 8 only works for those exact settings.
437  *
438  * For any setting other than those defaults for windowBits and memLevel,
439  * the value returned is a conservative worst case for the maximum expansion
440  * resulting from using fixed blocks instead of stored blocks, which deflate
441  * can emit on compressed data for some combinations of the parameters.
442  *
443  * This function could be more sophisticated to provide closer upper bounds
444  * for every combination of windowBits and memLevel, as well as wrap.
445  * But even the conservative upper bound of about 14% expansion does not
446  * seem onerous for output buffer allocation.
447  */
448 uLong ZEXPORT deflateBound(strm, sourceLen)
449     z_streamp strm;
450     uLong sourceLen;
451 {
452     deflate_state *s;
453     uLong destLen;
454
455     /* conservative upper bound */
456     destLen = sourceLen +
457               ((sourceLen + 7) >> 3) + ((sourceLen + 63) >> 6) + 11;
458
459     /* if can't get parameters, return conservative bound */
460     if (strm == Z_NULL || strm->state == Z_NULL)
461         return destLen;
462
463     /* if not default parameters, return conservative bound */
464     s = strm->state;
465     if (s->w_bits != 15 || s->hash_bits != 8 + 7)
466         return destLen;
467
468     /* default settings: return tight bound for that case */
469     return compressBound(sourceLen);
470 }
471
472 /* =========================================================================
473  * Put a short in the pending buffer. The 16-bit value is put in MSB order.
474  * IN assertion: the stream state is correct and there is enough room in
475  * pending_buf.
476  */
477 local void putShortMSB (s, b)
478     deflate_state *s;
479     uInt b;
480 {
481     put_byte(s, (Byte)(b >> 8));
482     put_byte(s, (Byte)(b & 0xff));
483 }
484
485 /* =========================================================================
486  * Flush as much pending output as possible. All deflate() output goes
487  * through this function so some applications may wish to modify it
488  * to avoid allocating a large strm->next_out buffer and copying into it.
489  * (See also read_buf()).
490  */
491 local void flush_pending(strm)
492     z_streamp strm;
493 {
494     unsigned len = strm->state->pending;
495
496     if (len > strm->avail_out) len = strm->avail_out;
497     if (len == 0) return;
498
499     zmemcpy(strm->next_out, strm->state->pending_out, len);
500     strm->next_out  += len;
501     strm->state->pending_out  += len;
502     strm->total_out += len;
503     strm->avail_out  -= len;
504     strm->state->pending -= len;
505     if (strm->state->pending == 0) {
506         strm->state->pending_out = strm->state->pending_buf;
507     }
508 }
509
510 /* ========================================================================= */
511 int ZEXPORT deflate (strm, flush)
512     z_streamp strm;
513     int flush;
514 {
515     int old_flush; /* value of flush param for previous deflate call */
516     deflate_state *s;
517
518     if (strm == Z_NULL || strm->state == Z_NULL ||
519         flush > Z_FINISH || flush < 0) {
520         return Z_STREAM_ERROR;
521     }
522     s = strm->state;
523
524     if (strm->next_out == Z_NULL ||
525         (strm->next_in == Z_NULL && strm->avail_in != 0) ||
526         (s->status == FINISH_STATE && flush != Z_FINISH)) {
527         ERR_RETURN(strm, Z_STREAM_ERROR);
528     }
529     if (strm->avail_out == 0) ERR_RETURN(strm, Z_BUF_ERROR);
530
531     s->strm = strm; /* just in case */
532     old_flush = s->last_flush;
533     s->last_flush = flush;
534
535     /* Write the header */
536     if (s->status == INIT_STATE) {
537 #ifdef GZIP
538         if (s->wrap == 2) {
539             put_byte(s, 31);
540             put_byte(s, 139);
541             put_byte(s, 8);
542             put_byte(s, 0);
543             put_byte(s, 0);
544             put_byte(s, 0);
545             put_byte(s, 0);
546             put_byte(s, 0);
547             put_byte(s, s->level == 9 ? 2 :
548                         (s->strategy >= Z_HUFFMAN_ONLY || s->level < 2 ?
549                          4 : 0));
550             put_byte(s, 255);
551             s->status = BUSY_STATE;
552             strm->adler = crc32(0L, Z_NULL, 0);
553         }
554         else
555 #endif
556         {
557             uInt header = (Z_DEFLATED + ((s->w_bits-8)<<4)) << 8;
558             uInt level_flags;
559
560             if (s->strategy >= Z_HUFFMAN_ONLY || s->level < 2)
561                 level_flags = 0;
562             else if (s->level < 6)
563                 level_flags = 1;
564             else if (s->level == 6)
565                 level_flags = 2;
566             else
567                 level_flags = 3;
568             header |= (level_flags << 6);
569             if (s->strstart != 0) header |= PRESET_DICT;
570             header += 31 - (header % 31);
571
572             s->status = BUSY_STATE;
573             putShortMSB(s, header);
574
575             /* Save the adler32 of the preset dictionary: */
576             if (s->strstart != 0) {
577                 putShortMSB(s, (uInt)(strm->adler >> 16));
578                 putShortMSB(s, (uInt)(strm->adler & 0xffff));
579             }
580             strm->adler = adler32(0L, Z_NULL, 0);
581         }
582     }
583
584     /* Flush as much pending output as possible */
585     if (s->pending != 0) {
586         flush_pending(strm);
587         if (strm->avail_out == 0) {
588             /* Since avail_out is 0, deflate will be called again with
589              * more output space, but possibly with both pending and
590              * avail_in equal to zero. There won't be anything to do,
591              * but this is not an error situation so make sure we
592              * return OK instead of BUF_ERROR at next call of deflate:
593              */
594             s->last_flush = -1;
595             return Z_OK;
596         }
597
598     /* Make sure there is something to do and avoid duplicate consecutive
599      * flushes. For repeated and useless calls with Z_FINISH, we keep
600      * returning Z_STREAM_END instead of Z_BUF_ERROR.
601      */
602     } else if (strm->avail_in == 0 && flush <= old_flush &&
603                flush != Z_FINISH) {
604         ERR_RETURN(strm, Z_BUF_ERROR);
605     }
606
607     /* User must not provide more input after the first FINISH: */
608     if (s->status == FINISH_STATE && strm->avail_in != 0) {
609         ERR_RETURN(strm, Z_BUF_ERROR);
610     }
611
612     /* Start a new block or continue the current one.
613      */
614     if (strm->avail_in != 0 || s->lookahead != 0 ||
615         (flush != Z_NO_FLUSH && s->status != FINISH_STATE)) {
616         block_state bstate;
617
618         bstate = (*(configuration_table[s->level].func))(s, flush);
619
620         if (bstate == finish_started || bstate == finish_done) {
621             s->status = FINISH_STATE;
622         }
623         if (bstate == need_more || bstate == finish_started) {
624             if (strm->avail_out == 0) {
625                 s->last_flush = -1; /* avoid BUF_ERROR next call, see above */
626             }
627             return Z_OK;
628             /* If flush != Z_NO_FLUSH && avail_out == 0, the next call
629              * of deflate should use the same flush parameter to make sure
630              * that the flush is complete. So we don't have to output an
631              * empty block here, this will be done at next call. This also
632              * ensures that for a very small output buffer, we emit at most
633              * one empty block.
634              */
635         }
636         if (bstate == block_done) {
637             if (flush == Z_PARTIAL_FLUSH) {
638                 _tr_align(s);
639             } else { /* FULL_FLUSH or SYNC_FLUSH */
640                 _tr_stored_block(s, (char*)0, 0L, 0);
641                 /* For a full flush, this empty block will be recognized
642                  * as a special marker by inflate_sync().
643                  */
644                 if (flush == Z_FULL_FLUSH) {
645                     CLEAR_HASH(s);             /* forget history */
646                 }
647             }
648             flush_pending(strm);
649             if (strm->avail_out == 0) {
650               s->last_flush = -1; /* avoid BUF_ERROR at next call, see above */
651               return Z_OK;
652             }
653         }
654     }
655     Assert(strm->avail_out > 0, "bug2");
656
657     if (flush != Z_FINISH) return Z_OK;
658     if (s->wrap <= 0) return Z_STREAM_END;
659
660     /* Write the trailer */
661 #ifdef GZIP
662     if (s->wrap == 2) {
663         put_byte(s, (Byte)(strm->adler & 0xff));
664         put_byte(s, (Byte)((strm->adler >> 8) & 0xff));
665         put_byte(s, (Byte)((strm->adler >> 16) & 0xff));
666         put_byte(s, (Byte)((strm->adler >> 24) & 0xff));
667         put_byte(s, (Byte)(strm->total_in & 0xff));
668         put_byte(s, (Byte)((strm->total_in >> 8) & 0xff));
669         put_byte(s, (Byte)((strm->total_in >> 16) & 0xff));
670         put_byte(s, (Byte)((strm->total_in >> 24) & 0xff));
671     }
672     else
673 #endif
674     {
675         putShortMSB(s, (uInt)(strm->adler >> 16));
676         putShortMSB(s, (uInt)(strm->adler & 0xffff));
677     }
678     flush_pending(strm);
679     /* If avail_out is zero, the application will call deflate again
680      * to flush the rest.
681      */
682     if (s->wrap > 0) s->wrap = -s->wrap; /* write the trailer only once! */
683     return s->pending != 0 ? Z_OK : Z_STREAM_END;
684 }
685
686 /* ========================================================================= */
687 int ZEXPORT deflateEnd (strm)
688     z_streamp strm;
689 {
690     int status;
691
692     if (strm == Z_NULL || strm->state == Z_NULL) return Z_STREAM_ERROR;
693
694     status = strm->state->status;
695     if (status != INIT_STATE && status != BUSY_STATE &&
696         status != FINISH_STATE) {
697       return Z_STREAM_ERROR;
698     }
699
700     /* Deallocate in reverse order of allocations: */
701     TRY_FREE(strm, strm->state->pending_buf);
702     TRY_FREE(strm, strm->state->head);
703     TRY_FREE(strm, strm->state->prev);
704     TRY_FREE(strm, strm->state->window);
705
706     ZFREE(strm, strm->state);
707     strm->state = Z_NULL;
708
709     return status == BUSY_STATE ? Z_DATA_ERROR : Z_OK;
710 }
711
712 /* =========================================================================
713  * Copy the source state to the destination state.
714  * To simplify the source, this is not supported for 16-bit MSDOS (which
715  * doesn't have enough memory anyway to duplicate compression states).
716  */
717 int ZEXPORT deflateCopy (dest, source)
718     z_streamp dest;
719     z_streamp source;
720 {
721 #ifdef MAXSEG_64K
722     return Z_STREAM_ERROR;
723 #else
724     deflate_state *ds;
725     deflate_state *ss;
726     ushf *overlay;
727
728
729     if (source == Z_NULL || dest == Z_NULL || source->state == Z_NULL) {
730         return Z_STREAM_ERROR;
731     }
732
733     ss = source->state;
734
735     *dest = *source;
736
737     ds = (deflate_state *) ZALLOC(dest, 1, sizeof(deflate_state));
738     if (ds == Z_NULL) return Z_MEM_ERROR;
739     dest->state = (struct internal_state FAR *) ds;
740     *ds = *ss;
741     ds->strm = dest;
742
743     ds->window = (Bytef *) ZALLOC(dest, ds->w_size, 2*sizeof(Byte));
744     ds->prev   = (Posf *)  ZALLOC(dest, ds->w_size, sizeof(Pos));
745     ds->head   = (Posf *)  ZALLOC(dest, ds->hash_size, sizeof(Pos));
746     overlay = (ushf *) ZALLOC(dest, ds->lit_bufsize, sizeof(ush)+2);
747     ds->pending_buf = (uchf *) overlay;
748
749     if (ds->window == Z_NULL || ds->prev == Z_NULL || ds->head == Z_NULL ||
750         ds->pending_buf == Z_NULL) {
751         deflateEnd (dest);
752         return Z_MEM_ERROR;
753     }
754     /* following zmemcpy do not work for 16-bit MSDOS */
755     zmemcpy(ds->window, ss->window, ds->w_size * 2 * sizeof(Byte));
756     zmemcpy(ds->prev, ss->prev, ds->w_size * sizeof(Pos));
757     zmemcpy(ds->head, ss->head, ds->hash_size * sizeof(Pos));
758     zmemcpy(ds->pending_buf, ss->pending_buf, (uInt)ds->pending_buf_size);
759
760     ds->pending_out = ds->pending_buf + (ss->pending_out - ss->pending_buf);
761     ds->d_buf = overlay + ds->lit_bufsize/sizeof(ush);
762     ds->l_buf = ds->pending_buf + (1+sizeof(ush))*ds->lit_bufsize;
763
764     ds->l_desc.dyn_tree = ds->dyn_ltree;
765     ds->d_desc.dyn_tree = ds->dyn_dtree;
766     ds->bl_desc.dyn_tree = ds->bl_tree;
767
768     return Z_OK;
769 #endif /* MAXSEG_64K */
770 }
771
772 /* ===========================================================================
773  * Read a new buffer from the current input stream, update the adler32
774  * and total number of bytes read.  All deflate() input goes through
775  * this function so some applications may wish to modify it to avoid
776  * allocating a large strm->next_in buffer and copying from it.
777  * (See also flush_pending()).
778  */
779 local int read_buf(strm, buf, size)
780     z_streamp strm;
781     Bytef *buf;
782     unsigned size;
783 {
784     unsigned len = strm->avail_in;
785
786     if (len > size) len = size;
787     if (len == 0) return 0;
788
789     strm->avail_in  -= len;
790
791     if (strm->state->wrap == 1) {
792         strm->adler = adler32(strm->adler, strm->next_in, len);
793     }
794 #ifdef GZIP
795     else if (strm->state->wrap == 2) {
796         strm->adler = crc32(strm->adler, strm->next_in, len);
797     }
798 #endif
799     zmemcpy(buf, strm->next_in, len);
800     strm->next_in  += len;
801     strm->total_in += len;
802
803     return (int)len;
804 }
805
806 /* ===========================================================================
807  * Initialize the "longest match" routines for a new zlib stream
808  */
809 local void lm_init (s)
810     deflate_state *s;
811 {
812     s->window_size = (ulg)2L*s->w_size;
813
814     CLEAR_HASH(s);
815
816     /* Set the default configuration parameters:
817      */
818     s->max_lazy_match   = configuration_table[s->level].max_lazy;
819     s->good_match       = configuration_table[s->level].good_length;
820     s->nice_match       = configuration_table[s->level].nice_length;
821     s->max_chain_length = configuration_table[s->level].max_chain;
822
823     s->strstart = 0;
824     s->block_start = 0L;
825     s->lookahead = 0;
826     s->match_length = s->prev_length = MIN_MATCH-1;
827     s->match_available = 0;
828     s->ins_h = 0;
829 #ifdef ASMV
830     match_init(); /* initialize the asm code */
831 #endif
832 }
833
834 #ifndef FASTEST
835 /* ===========================================================================
836  * Set match_start to the longest match starting at the given string and
837  * return its length. Matches shorter or equal to prev_length are discarded,
838  * in which case the result is equal to prev_length and match_start is
839  * garbage.
840  * IN assertions: cur_match is the head of the hash chain for the current
841  *   string (strstart) and its distance is <= MAX_DIST, and prev_length >= 1
842  * OUT assertion: the match length is not greater than s->lookahead.
843  */
844 #ifndef ASMV
845 /* For 80x86 and 680x0, an optimized version will be provided in match.asm or
846  * match.S. The code will be functionally equivalent.
847  */
848 local uInt longest_match(s, cur_match)
849     deflate_state *s;
850     IPos cur_match;                             /* current match */
851 {
852     unsigned chain_length = s->max_chain_length;/* max hash chain length */
853     register Bytef *scan = s->window + s->strstart; /* current string */
854     register Bytef *match;                       /* matched string */
855     register int len;                           /* length of current match */
856     int best_len = s->prev_length;              /* best match length so far */
857     int nice_match = s->nice_match;             /* stop if match long enough */
858     IPos limit = s->strstart > (IPos)MAX_DIST(s) ?
859         s->strstart - (IPos)MAX_DIST(s) : NIL;
860     /* Stop when cur_match becomes <= limit. To simplify the code,
861      * we prevent matches with the string of window index 0.
862      */
863     Posf *prev = s->prev;
864     uInt wmask = s->w_mask;
865
866 #ifdef UNALIGNED_OK
867     /* Compare two bytes at a time. Note: this is not always beneficial.
868      * Try with and without -DUNALIGNED_OK to check.
869      */
870     register Bytef *strend = s->window + s->strstart + MAX_MATCH - 1;
871     register ush scan_start = *(ushf*)scan;
872     register ush scan_end   = *(ushf*)(scan+best_len-1);
873 #else
874     register Bytef *strend = s->window + s->strstart + MAX_MATCH;
875     register Byte scan_end1  = scan[best_len-1];
876     register Byte scan_end   = scan[best_len];
877 #endif
878
879     /* The code is optimized for HASH_BITS >= 8 and MAX_MATCH-2 multiple of 16.
880      * It is easy to get rid of this optimization if necessary.
881      */
882     Assert(s->hash_bits >= 8 && MAX_MATCH == 258, "Code too clever");
883
884     /* Do not waste too much time if we already have a good match: */
885     if (s->prev_length >= s->good_match) {
886         chain_length >>= 2;
887     }
888     /* Do not look for matches beyond the end of the input. This is necessary
889      * to make deflate deterministic.
890      */
891     if ((uInt)nice_match > s->lookahead) nice_match = s->lookahead;
892
893     Assert((ulg)s->strstart <= s->window_size-MIN_LOOKAHEAD, "need lookahead");
894
895     do {
896         Assert(cur_match < s->strstart, "no future");
897         match = s->window + cur_match;
898
899         /* Skip to next match if the match length cannot increase
900          * or if the match length is less than 2:
901          */
902 #if (defined(UNALIGNED_OK) && MAX_MATCH == 258)
903         /* This code assumes sizeof(unsigned short) == 2. Do not use
904          * UNALIGNED_OK if your compiler uses a different size.
905          */
906         if (*(ushf*)(match+best_len-1) != scan_end ||
907             *(ushf*)match != scan_start) continue;
908
909         /* It is not necessary to compare scan[2] and match[2] since they are
910          * always equal when the other bytes match, given that the hash keys
911          * are equal and that HASH_BITS >= 8. Compare 2 bytes at a time at
912          * strstart+3, +5, ... up to strstart+257. We check for insufficient
913          * lookahead only every 4th comparison; the 128th check will be made
914          * at strstart+257. If MAX_MATCH-2 is not a multiple of 8, it is
915          * necessary to put more guard bytes at the end of the window, or
916          * to check more often for insufficient lookahead.
917          */
918         Assert(scan[2] == match[2], "scan[2]?");
919         scan++, match++;
920         do {
921         } while (*(ushf*)(scan+=2) == *(ushf*)(match+=2) &&
922                  *(ushf*)(scan+=2) == *(ushf*)(match+=2) &&
923                  *(ushf*)(scan+=2) == *(ushf*)(match+=2) &&
924                  *(ushf*)(scan+=2) == *(ushf*)(match+=2) &&
925                  scan < strend);
926         /* The funny "do {}" generates better code on most compilers */
927
928         /* Here, scan <= window+strstart+257 */
929         Assert(scan <= s->window+(unsigned)(s->window_size-1), "wild scan");
930         if (*scan == *match) scan++;
931
932         len = (MAX_MATCH - 1) - (int)(strend-scan);
933         scan = strend - (MAX_MATCH-1);
934
935 #else /* UNALIGNED_OK */
936
937         if (match[best_len]   != scan_end  ||
938             match[best_len-1] != scan_end1 ||
939             *match            != *scan     ||
940             *++match          != scan[1])      continue;
941
942         /* The check at best_len-1 can be removed because it will be made
943          * again later. (This heuristic is not always a win.)
944          * It is not necessary to compare scan[2] and match[2] since they
945          * are always equal when the other bytes match, given that
946          * the hash keys are equal and that HASH_BITS >= 8.
947          */
948         scan += 2, match++;
949         Assert(*scan == *match, "match[2]?");
950
951         /* We check for insufficient lookahead only every 8th comparison;
952          * the 256th check will be made at strstart+258.
953          */
954         do {
955         } while (*++scan == *++match && *++scan == *++match &&
956                  *++scan == *++match && *++scan == *++match &&
957                  *++scan == *++match && *++scan == *++match &&
958                  *++scan == *++match && *++scan == *++match &&
959                  scan < strend);
960
961         Assert(scan <= s->window+(unsigned)(s->window_size-1), "wild scan");
962
963         len = MAX_MATCH - (int)(strend - scan);
964         scan = strend - MAX_MATCH;
965
966 #endif /* UNALIGNED_OK */
967
968         if (len > best_len) {
969             s->match_start = cur_match;
970             best_len = len;
971             if (len >= nice_match) break;
972 #ifdef UNALIGNED_OK
973             scan_end = *(ushf*)(scan+best_len-1);
974 #else
975             scan_end1  = scan[best_len-1];
976             scan_end   = scan[best_len];
977 #endif
978         }
979     } while ((cur_match = prev[cur_match & wmask]) > limit
980              && --chain_length != 0);
981
982     if ((uInt)best_len <= s->lookahead) return (uInt)best_len;
983     return s->lookahead;
984 }
985 #endif /* ASMV */
986 #endif /* FASTEST */
987
988 /* ---------------------------------------------------------------------------
989  * Optimized version for level == 1 or strategy == Z_RLE only
990  */
991 local uInt longest_match_fast(s, cur_match)
992     deflate_state *s;
993     IPos cur_match;                             /* current match */
994 {
995     register Bytef *scan = s->window + s->strstart; /* current string */
996     register Bytef *match;                       /* matched string */
997     register int len;                           /* length of current match */
998     register Bytef *strend = s->window + s->strstart + MAX_MATCH;
999
1000     /* The code is optimized for HASH_BITS >= 8 and MAX_MATCH-2 multiple of 16.
1001      * It is easy to get rid of this optimization if necessary.
1002      */
1003     Assert(s->hash_bits >= 8 && MAX_MATCH == 258, "Code too clever");
1004
1005     Assert((ulg)s->strstart <= s->window_size-MIN_LOOKAHEAD, "need lookahead");
1006
1007     Assert(cur_match < s->strstart, "no future");
1008
1009     match = s->window + cur_match;
1010
1011     /* Return failure if the match length is less than 2:
1012      */
1013     if (match[0] != scan[0] || match[1] != scan[1]) return MIN_MATCH-1;
1014
1015     /* The check at best_len-1 can be removed because it will be made
1016      * again later. (This heuristic is not always a win.)
1017      * It is not necessary to compare scan[2] and match[2] since they
1018      * are always equal when the other bytes match, given that
1019      * the hash keys are equal and that HASH_BITS >= 8.
1020      */
1021     scan += 2, match += 2;
1022     Assert(*scan == *match, "match[2]?");
1023
1024     /* We check for insufficient lookahead only every 8th comparison;
1025      * the 256th check will be made at strstart+258.
1026      */
1027     do {
1028     } while (*++scan == *++match && *++scan == *++match &&
1029              *++scan == *++match && *++scan == *++match &&
1030              *++scan == *++match && *++scan == *++match &&
1031              *++scan == *++match && *++scan == *++match &&
1032              scan < strend);
1033
1034     Assert(scan <= s->window+(unsigned)(s->window_size-1), "wild scan");
1035
1036     len = MAX_MATCH - (int)(strend - scan);
1037
1038     if (len < MIN_MATCH) return MIN_MATCH - 1;
1039
1040     s->match_start = cur_match;
1041     return (uInt)len <= s->lookahead ? (uInt)len : s->lookahead;
1042 }
1043
1044 #ifdef DEBUG
1045 /* ===========================================================================
1046  * Check that the match at match_start is indeed a match.
1047  */
1048 local void check_match(s, start, match, length)
1049     deflate_state *s;
1050     IPos start, match;
1051     int length;
1052 {
1053     /* check that the match is indeed a match */
1054     if (zmemcmp(s->window + match,
1055                 s->window + start, length) != EQUAL) {
1056         fprintf(stderr, " start %u, match %u, length %d\n",
1057                 start, match, length);
1058         do {
1059             fprintf(stderr, "%c%c", s->window[match++], s->window[start++]);
1060         } while (--length != 0);
1061         z_error("invalid match");
1062     }
1063     if (z_verbose > 1) {
1064         fprintf(stderr,"\\[%d,%d]", start-match, length);
1065         do { putc(s->window[start++], stderr); } while (--length != 0);
1066     }
1067 }
1068 #else
1069 #  define check_match(s, start, match, length)
1070 #endif /* DEBUG */
1071
1072 /* ===========================================================================
1073  * Fill the window when the lookahead becomes insufficient.
1074  * Updates strstart and lookahead.
1075  *
1076  * IN assertion: lookahead < MIN_LOOKAHEAD
1077  * OUT assertions: strstart <= window_size-MIN_LOOKAHEAD
1078  *    At least one byte has been read, or avail_in == 0; reads are
1079  *    performed for at least two bytes (required for the zip translate_eol
1080  *    option -- not supported here).
1081  */
1082 local void fill_window(s)
1083     deflate_state *s;
1084 {
1085     register unsigned n, m;
1086     register Posf *p;
1087     unsigned more;    /* Amount of free space at the end of the window. */
1088     uInt wsize = s->w_size;
1089
1090     do {
1091         more = (unsigned)(s->window_size -(ulg)s->lookahead -(ulg)s->strstart);
1092
1093         /* Deal with !@#$% 64K limit: */
1094         if (sizeof(int) <= 2) {
1095             if (more == 0 && s->strstart == 0 && s->lookahead == 0) {
1096                 more = wsize;
1097
1098             } else if (more == (unsigned)(-1)) {
1099                 /* Very unlikely, but possible on 16 bit machine if
1100                  * strstart == 0 && lookahead == 1 (input done a byte at time)
1101                  */
1102                 more--;
1103             }
1104         }
1105
1106         /* If the window is almost full and there is insufficient lookahead,
1107          * move the upper half to the lower one to make room in the upper half.
1108          */
1109         if (s->strstart >= wsize+MAX_DIST(s)) {
1110
1111             zmemcpy(s->window, s->window+wsize, (unsigned)wsize);
1112             s->match_start -= wsize;
1113             s->strstart    -= wsize; /* we now have strstart >= MAX_DIST */
1114             s->block_start -= (long) wsize;
1115
1116             /* Slide the hash table (could be avoided with 32 bit values
1117                at the expense of memory usage). We slide even when level == 0
1118                to keep the hash table consistent if we switch back to level > 0
1119                later. (Using level 0 permanently is not an optimal usage of
1120                zlib, so we don't care about this pathological case.)
1121              */
1122             n = s->hash_size;
1123             p = &s->head[n];
1124             do {
1125                 m = *--p;
1126                 *p = (Pos)(m >= wsize ? m-wsize : NIL);
1127             } while (--n);
1128
1129             n = wsize;
1130 #ifndef FASTEST
1131             p = &s->prev[n];
1132             do {
1133                 m = *--p;
1134                 *p = (Pos)(m >= wsize ? m-wsize : NIL);
1135                 /* If n is not on any hash chain, prev[n] is garbage but
1136                  * its value will never be used.
1137                  */
1138             } while (--n);
1139 #endif
1140             more += wsize;
1141         }
1142         if (s->strm->avail_in == 0) return;
1143
1144         /* If there was no sliding:
1145          *    strstart <= WSIZE+MAX_DIST-1 && lookahead <= MIN_LOOKAHEAD - 1 &&
1146          *    more == window_size - lookahead - strstart
1147          * => more >= window_size - (MIN_LOOKAHEAD-1 + WSIZE + MAX_DIST-1)
1148          * => more >= window_size - 2*WSIZE + 2
1149          * In the BIG_MEM or MMAP case (not yet supported),
1150          *   window_size == input_size + MIN_LOOKAHEAD  &&
1151          *   strstart + s->lookahead <= input_size => more >= MIN_LOOKAHEAD.
1152          * Otherwise, window_size == 2*WSIZE so more >= 2.
1153          * If there was sliding, more >= WSIZE. So in all cases, more >= 2.
1154          */
1155         Assert(more >= 2, "more < 2");
1156
1157         n = read_buf(s->strm, s->window + s->strstart + s->lookahead, more);
1158         s->lookahead += n;
1159
1160         /* Initialize the hash value now that we have some input: */
1161         if (s->lookahead >= MIN_MATCH) {
1162             s->ins_h = s->window[s->strstart];
1163             UPDATE_HASH(s, s->ins_h, s->window[s->strstart+1]);
1164 #if MIN_MATCH != 3
1165             Call UPDATE_HASH() MIN_MATCH-3 more times
1166 #endif
1167         }
1168         /* If the whole input has less than MIN_MATCH bytes, ins_h is garbage,
1169          * but this is not important since only literal bytes will be emitted.
1170          */
1171
1172     } while (s->lookahead < MIN_LOOKAHEAD && s->strm->avail_in != 0);
1173 }
1174
1175 /* ===========================================================================
1176  * Flush the current block, with given end-of-file flag.
1177  * IN assertion: strstart is set to the end of the current match.
1178  */
1179 #define FLUSH_BLOCK_ONLY(s, eof) { \
1180    _tr_flush_block(s, (s->block_start >= 0L ? \
1181                    (charf *)&s->window[(unsigned)s->block_start] : \
1182                    (charf *)Z_NULL), \
1183                 (ulg)((long)s->strstart - s->block_start), \
1184                 (eof)); \
1185    s->block_start = s->strstart; \
1186    flush_pending(s->strm); \
1187    Tracev((stderr,"[FLUSH]")); \
1188 }
1189
1190 /* Same but force premature exit if necessary. */
1191 #define FLUSH_BLOCK(s, eof) { \
1192    FLUSH_BLOCK_ONLY(s, eof); \
1193    if (s->strm->avail_out == 0) return (eof) ? finish_started : need_more; \
1194 }
1195
1196 /* ===========================================================================
1197  * Copy without compression as much as possible from the input stream, return
1198  * the current block state.
1199  * This function does not insert new strings in the dictionary since
1200  * uncompressible data is probably not useful. This function is used
1201  * only for the level=0 compression option.
1202  * NOTE: this function should be optimized to avoid extra copying from
1203  * window to pending_buf.
1204  */
1205 local block_state deflate_stored(s, flush)
1206     deflate_state *s;
1207     int flush;
1208 {
1209     /* Stored blocks are limited to 0xffff bytes, pending_buf is limited
1210      * to pending_buf_size, and each stored block has a 5 byte header:
1211      */
1212     ulg max_block_size = 0xffff;
1213     ulg max_start;
1214
1215     if (max_block_size > s->pending_buf_size - 5) {
1216         max_block_size = s->pending_buf_size - 5;
1217     }
1218
1219     /* Copy as much as possible from input to output: */
1220     for (;;) {
1221         /* Fill the window as much as possible: */
1222         if (s->lookahead <= 1) {
1223
1224             Assert(s->strstart < s->w_size+MAX_DIST(s) ||
1225                    s->block_start >= (long)s->w_size, "slide too late");
1226
1227             fill_window(s);
1228             if (s->lookahead == 0 && flush == Z_NO_FLUSH) return need_more;
1229
1230             if (s->lookahead == 0) break; /* flush the current block */
1231         }
1232         Assert(s->block_start >= 0L, "block gone");
1233
1234         s->strstart += s->lookahead;
1235         s->lookahead = 0;
1236
1237         /* Emit a stored block if pending_buf will be full: */
1238         max_start = s->block_start + max_block_size;
1239         if (s->strstart == 0 || (ulg)s->strstart >= max_start) {
1240             /* strstart == 0 is possible when wraparound on 16-bit machine */
1241             s->lookahead = (uInt)(s->strstart - max_start);
1242             s->strstart = (uInt)max_start;
1243             FLUSH_BLOCK(s, 0);
1244         }
1245         /* Flush if we may have to slide, otherwise block_start may become
1246          * negative and the data will be gone:
1247          */
1248         if (s->strstart - (uInt)s->block_start >= MAX_DIST(s)) {
1249             FLUSH_BLOCK(s, 0);
1250         }
1251     }
1252     FLUSH_BLOCK(s, flush == Z_FINISH);
1253     return flush == Z_FINISH ? finish_done : block_done;
1254 }
1255
1256 /* ===========================================================================
1257  * Compress as much as possible from the input stream, return the current
1258  * block state.
1259  * This function does not perform lazy evaluation of matches and inserts
1260  * new strings in the dictionary only for unmatched strings or for short
1261  * matches. It is used only for the fast compression options.
1262  */
1263 local block_state deflate_fast(s, flush)
1264     deflate_state *s;
1265     int flush;
1266 {
1267     IPos hash_head = NIL; /* head of the hash chain */
1268     int bflush;           /* set if current block must be flushed */
1269
1270     for (;;) {
1271         /* Make sure that we always have enough lookahead, except
1272          * at the end of the input file. We need MAX_MATCH bytes
1273          * for the next match, plus MIN_MATCH bytes to insert the
1274          * string following the next match.
1275          */
1276         if (s->lookahead < MIN_LOOKAHEAD) {
1277             fill_window(s);
1278             if (s->lookahead < MIN_LOOKAHEAD && flush == Z_NO_FLUSH) {
1279                 return need_more;
1280             }
1281             if (s->lookahead == 0) break; /* flush the current block */
1282         }
1283
1284         /* Insert the string window[strstart .. strstart+2] in the
1285          * dictionary, and set hash_head to the head of the hash chain:
1286          */
1287         if (s->lookahead >= MIN_MATCH) {
1288             INSERT_STRING(s, s->strstart, hash_head);
1289         }
1290
1291         /* Find the longest match, discarding those <= prev_length.
1292          * At this point we have always match_length < MIN_MATCH
1293          */
1294         if (hash_head != NIL && s->strstart - hash_head <= MAX_DIST(s)) {
1295             /* To simplify the code, we prevent matches with the string
1296              * of window index 0 (in particular we have to avoid a match
1297              * of the string with itself at the start of the input file).
1298              */
1299 #ifdef FASTEST
1300             if ((s->strategy < Z_HUFFMAN_ONLY) ||
1301                 (s->strategy == Z_RLE && s->strstart - hash_head == 1)) {
1302                 s->match_length = longest_match_fast (s, hash_head);
1303             }
1304 #else
1305             if (s->strategy < Z_HUFFMAN_ONLY) {
1306                 s->match_length = longest_match (s, hash_head);
1307             } else if (s->strategy == Z_RLE && s->strstart - hash_head == 1) {
1308                 s->match_length = longest_match_fast (s, hash_head);
1309             }
1310 #endif
1311             /* longest_match() or longest_match_fast() sets match_start */
1312         }
1313         if (s->match_length >= MIN_MATCH) {
1314             check_match(s, s->strstart, s->match_start, s->match_length);
1315
1316             _tr_tally_dist(s, s->strstart - s->match_start,
1317                            s->match_length - MIN_MATCH, bflush);
1318
1319             s->lookahead -= s->match_length;
1320
1321             /* Insert new strings in the hash table only if the match length
1322              * is not too large. This saves time but degrades compression.
1323              */
1324 #ifndef FASTEST
1325             if (s->match_length <= s->max_insert_length &&
1326                 s->lookahead >= MIN_MATCH) {
1327                 s->match_length--; /* string at strstart already in table */
1328                 do {
1329                     s->strstart++;
1330                     INSERT_STRING(s, s->strstart, hash_head);
1331                     /* strstart never exceeds WSIZE-MAX_MATCH, so there are
1332                      * always MIN_MATCH bytes ahead.
1333                      */
1334                 } while (--s->match_length != 0);
1335                 s->strstart++;
1336             } else
1337 #endif
1338             {
1339                 s->strstart += s->match_length;
1340                 s->match_length = 0;
1341                 s->ins_h = s->window[s->strstart];
1342                 UPDATE_HASH(s, s->ins_h, s->window[s->strstart+1]);
1343 #if MIN_MATCH != 3
1344                 Call UPDATE_HASH() MIN_MATCH-3 more times
1345 #endif
1346                 /* If lookahead < MIN_MATCH, ins_h is garbage, but it does not
1347                  * matter since it will be recomputed at next deflate call.
1348                  */
1349             }
1350         } else {
1351             /* No match, output a literal byte */
1352             Tracevv((stderr,"%c", s->window[s->strstart]));
1353             _tr_tally_lit (s, s->window[s->strstart], bflush);
1354             s->lookahead--;
1355             s->strstart++;
1356         }
1357         if (bflush) FLUSH_BLOCK(s, 0);
1358     }
1359     FLUSH_BLOCK(s, flush == Z_FINISH);
1360     return flush == Z_FINISH ? finish_done : block_done;
1361 }
1362
1363 #ifndef FASTEST
1364 /* ===========================================================================
1365  * Same as above, but achieves better compression. We use a lazy
1366  * evaluation for matches: a match is finally adopted only if there is
1367  * no better match at the next window position.
1368  */
1369 local block_state deflate_slow(s, flush)
1370     deflate_state *s;
1371     int flush;
1372 {
1373     IPos hash_head = NIL;    /* head of hash chain */
1374     int bflush;              /* set if current block must be flushed */
1375
1376     /* Process the input block. */
1377     for (;;) {
1378         /* Make sure that we always have enough lookahead, except
1379          * at the end of the input file. We need MAX_MATCH bytes
1380          * for the next match, plus MIN_MATCH bytes to insert the
1381          * string following the next match.
1382          */
1383         if (s->lookahead < MIN_LOOKAHEAD) {
1384             fill_window(s);
1385             if (s->lookahead < MIN_LOOKAHEAD && flush == Z_NO_FLUSH) {
1386                 return need_more;
1387             }
1388             if (s->lookahead == 0) break; /* flush the current block */
1389         }
1390
1391         /* Insert the string window[strstart .. strstart+2] in the
1392          * dictionary, and set hash_head to the head of the hash chain:
1393          */
1394         if (s->lookahead >= MIN_MATCH) {
1395             INSERT_STRING(s, s->strstart, hash_head);
1396         }
1397
1398         /* Find the longest match, discarding those <= prev_length.
1399          */
1400         s->prev_length = s->match_length, s->prev_match = s->match_start;
1401         s->match_length = MIN_MATCH-1;
1402
1403         if (hash_head != NIL && s->prev_length < s->max_lazy_match &&
1404             s->strstart - hash_head <= MAX_DIST(s)) {
1405             /* To simplify the code, we prevent matches with the string
1406              * of window index 0 (in particular we have to avoid a match
1407              * of the string with itself at the start of the input file).
1408              */
1409             if (s->strategy < Z_HUFFMAN_ONLY) {
1410                 s->match_length = longest_match (s, hash_head);
1411             } else if (s->strategy == Z_RLE && s->strstart - hash_head == 1) {
1412                 s->match_length = longest_match_fast (s, hash_head);
1413             }
1414             /* longest_match() or longest_match_fast() sets match_start */
1415
1416             if (s->match_length <= 5 && (s->strategy == Z_FILTERED
1417 #if TOO_FAR <= 32767
1418                 || (s->match_length == MIN_MATCH &&
1419                     s->strstart - s->match_start > TOO_FAR)
1420 #endif
1421                 )) {
1422
1423                 /* If prev_match is also MIN_MATCH, match_start is garbage
1424                  * but we will ignore the current match anyway.
1425                  */
1426                 s->match_length = MIN_MATCH-1;
1427             }
1428         }
1429         /* If there was a match at the previous step and the current
1430          * match is not better, output the previous match:
1431          */
1432         if (s->prev_length >= MIN_MATCH && s->match_length <= s->prev_length) {
1433             uInt max_insert = s->strstart + s->lookahead - MIN_MATCH;
1434             /* Do not insert strings in hash table beyond this. */
1435
1436             check_match(s, s->strstart-1, s->prev_match, s->prev_length);
1437
1438             _tr_tally_dist(s, s->strstart -1 - s->prev_match,
1439                            s->prev_length - MIN_MATCH, bflush);
1440
1441             /* Insert in hash table all strings up to the end of the match.
1442              * strstart-1 and strstart are already inserted. If there is not
1443              * enough lookahead, the last two strings are not inserted in
1444              * the hash table.
1445              */
1446             s->lookahead -= s->prev_length-1;
1447             s->prev_length -= 2;
1448             do {
1449                 if (++s->strstart <= max_insert) {
1450                     INSERT_STRING(s, s->strstart, hash_head);
1451                 }
1452             } while (--s->prev_length != 0);
1453             s->match_available = 0;
1454             s->match_length = MIN_MATCH-1;
1455             s->strstart++;
1456
1457             if (bflush) FLUSH_BLOCK(s, 0);
1458
1459         } else if (s->match_available) {
1460             /* If there was no match at the previous position, output a
1461              * single literal. If there was a match but the current match
1462              * is longer, truncate the previous match to a single literal.
1463              */
1464             Tracevv((stderr,"%c", s->window[s->strstart-1]));
1465             _tr_tally_lit(s, s->window[s->strstart-1], bflush);
1466             if (bflush) {
1467                 FLUSH_BLOCK_ONLY(s, 0);
1468             }
1469             s->strstart++;
1470             s->lookahead--;
1471             if (s->strm->avail_out == 0) return need_more;
1472         } else {
1473             /* There is no previous match to compare with, wait for
1474              * the next step to decide.
1475              */
1476             s->match_available = 1;
1477             s->strstart++;
1478             s->lookahead--;
1479         }
1480     }
1481     Assert (flush != Z_NO_FLUSH, "no flush?");
1482     if (s->match_available) {
1483         Tracevv((stderr,"%c", s->window[s->strstart-1]));
1484         _tr_tally_lit(s, s->window[s->strstart-1], bflush);
1485         s->match_available = 0;
1486     }
1487     FLUSH_BLOCK(s, flush == Z_FINISH);
1488     return flush == Z_FINISH ? finish_done : block_done;
1489 }
1490 #endif /* FASTEST */