/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to breezy/tests/test_tuned_gzip.py

  • Committer: Jelmer Vernooij
  • Date: 2019-09-01 15:33:59 UTC
  • mto: This revision was merged to the branch mainline in revision 7404.
  • Revision ID: jelmer@jelmer.uk-20190901153359-9gl0ai0x5wuiv444
Rename init-repo to init-shared-repo.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006 Canonical Ltd
 
1
# Copyright (C) 2006, 2009, 2010, 2011 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
17
17
 
18
18
"""Tests for tuned_gzip."""
19
19
 
20
 
 
21
 
# do not use bzrlib test cases here - this should be suitable for sending
22
 
# upstream.
23
 
from cStringIO import StringIO
24
 
from unittest import TestCase
25
 
import zlib
26
 
 
27
 
 
28
 
from bzrlib import tuned_gzip
29
 
 
30
 
 
31
 
class FakeDecompress(object):
32
 
    """A fake decompressor for testing GzipFile."""
33
 
 
34
 
    def __init__(self):
35
 
        self.unused_data=''
36
 
 
37
 
    def decompress(self, buf):
38
 
        """Return an empty string as though we are at eof."""
39
 
        # note that the zlib module *overwrites* unused data
40
 
        # on writes after EOF.
41
 
        self.unused_data = buf
42
 
        return ''
43
 
 
44
 
 
45
 
class TestFakeDecompress(TestCase):
46
 
    """We use a fake decompressor to test GzipFile.
47
 
 
48
 
    This class tests the behaviours we want from it.
49
 
    """
50
 
 
51
 
    def test_decompress(self):
52
 
        # decompressing returns no data.
53
 
        decompress = FakeDecompress()
54
 
        self.assertEqual('', decompress.decompress('0'))
55
 
 
56
 
    def test_unused_data(self):
57
 
        # after decompressing, we have 1 unused byte.
58
 
        # this is normally set by decompressors when they
59
 
        # detect the end of a compressed stream.
60
 
        decompress = FakeDecompress()
61
 
        decompress.decompress('0')
62
 
        self.assertEqual('0', decompress.unused_data)
63
 
        # decompressing again (when the short read is read)
64
 
        # will give us the latest input in the unused_data
65
 
        # this is arguably a bug in zlib but ...
66
 
        decompress.decompress('1234567')
67
 
        self.assertEqual('1234567', decompress.unused_data)
68
 
 
69
 
 
70
 
class TestGzip(TestCase):
71
 
 
72
 
    def test__read_short_remainder(self):
73
 
        # a _read call at the end of a compressed hunk should
74
 
        # read more bytes if there is less than 8 bytes (the
75
 
        # gzip trailer) unread.
76
 
        stream = StringIO('\0\0\0\0\0\0\0\0')
77
 
        myfile = tuned_gzip.GzipFile(fileobj=stream)
78
 
        # disable the _new_member check, we are microtesting.
79
 
        myfile._new_member = False
80
 
        myfile.crc = zlib.crc32('')
81
 
        myfile.decompress = FakeDecompress()
82
 
        myfile.size = 0
83
 
        myfile._read(1)
84
 
        # all the data should have been read now
85
 
        self.assertEqual('', stream.read())
86
 
        # and it should be new member time in the stream.
87
 
        self.failUnless(myfile._new_member)
88
 
 
89
 
 
90
 
class TestToGzip(TestCase):
 
20
import gzip
 
21
from io import BytesIO
 
22
 
 
23
from .. import (
 
24
    tuned_gzip,
 
25
    tests,
 
26
    )
 
27
 
 
28
 
 
29
class TestToGzip(tests.TestCase):
91
30
 
92
31
    def assertToGzip(self, chunks):
93
 
        bytes = ''.join(chunks)
 
32
        raw_bytes = b''.join(chunks)
94
33
        gzfromchunks = tuned_gzip.chunks_to_gzip(chunks)
95
 
        gzfrombytes = tuned_gzip.bytes_to_gzip(bytes)
96
 
        self.assertEqual(gzfrombytes, gzfromchunks)
97
 
        decoded = tuned_gzip.GzipFile(fileobj=StringIO(gzfromchunks)).read()
98
 
        self.assertEqual(bytes, decoded)
 
34
        decoded = gzip.GzipFile(fileobj=BytesIO(b''.join(gzfromchunks))).read()
 
35
        lraw, ldecoded = len(raw_bytes), len(decoded)
 
36
        self.assertEqual(lraw, ldecoded,
 
37
                         'Expecting data length %d, got %d' % (lraw, ldecoded))
 
38
        self.assertEqual(raw_bytes, decoded)
99
39
 
100
40
    def test_single_chunk(self):
101
 
        self.assertToGzip(['a modest chunk\nwith some various\nbits\n'])
 
41
        self.assertToGzip([b'a modest chunk\nwith some various\nbits\n'])
102
42
 
103
43
    def test_simple_text(self):
104
 
        self.assertToGzip(['some\n', 'strings\n', 'to\n', 'process\n'])
 
44
        self.assertToGzip([b'some\n', b'strings\n', b'to\n', b'process\n'])
105
45
 
106
46
    def test_large_chunks(self):
107
 
        self.assertToGzip(['a large string\n'*1024])
108
 
        self.assertToGzip(['a large string\n']*1024)
 
47
        self.assertToGzip([b'a large string\n' * 1024])
 
48
        self.assertToGzip([b'a large string\n'] * 1024)
109
49
 
110
50
    def test_enormous_chunks(self):
111
 
        self.assertToGzip(['a large string\n'*1024*256])
112
 
        self.assertToGzip(['a large string\n']*1024*256)
 
51
        self.assertToGzip([b'a large string\n' * 1024 * 256])
 
52
        self.assertToGzip([b'a large string\n'] * 1024 * 256)