/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to breezy/bundle/serializer/v4.py

  • Committer: Martin
  • Date: 2017-06-09 16:31:49 UTC
  • mto: This revision was merged to the branch mainline in revision 6673.
  • Revision ID: gzlist@googlemail.com-20170609163149-liveiasey25480q6
Make InventoryDeltaError use string formatting, and repr for fileids

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2007 Canonical Ltd
 
1
# Copyright (C) 2007-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
 
from cStringIO import StringIO
 
17
from __future__ import absolute_import
 
18
 
18
19
import bz2
19
20
import re
20
21
 
21
 
from bzrlib import (
22
 
    diff,
 
22
from ... import (
 
23
    bencode,
23
24
    errors,
24
25
    iterablefile,
25
26
    lru_cache,
30
31
    serializer,
31
32
    trace,
32
33
    ui,
33
 
    )
34
 
from bzrlib.bundle import bundle_data, serializer as bundle_serializer
35
 
from bzrlib import bencode
 
34
    versionedfile as _mod_versionedfile,
 
35
    )
 
36
from ...bundle import bundle_data, serializer as bundle_serializer
 
37
from ...i18n import ngettext
 
38
from ...sixish import (
 
39
    BytesIO,
 
40
    viewitems,
 
41
    )
 
42
 
 
43
 
 
44
class _MPDiffInventoryGenerator(_mod_versionedfile._MPDiffGenerator):
 
45
    """Generate Inventory diffs serialized inventories."""
 
46
 
 
47
    def __init__(self, repo, inventory_keys):
 
48
        super(_MPDiffInventoryGenerator, self).__init__(repo.inventories,
 
49
            inventory_keys)
 
50
        self.repo = repo
 
51
        self.sha1s = {}
 
52
 
 
53
    def iter_diffs(self):
 
54
        """Compute the diffs one at a time."""
 
55
        # This is instead of compute_diffs() since we guarantee our ordering of
 
56
        # inventories, we don't have to do any buffering
 
57
        self._find_needed_keys()
 
58
        # We actually use a slightly different ordering. We grab all of the
 
59
        # parents first, and then grab the ordered requests.
 
60
        needed_ids = [k[-1] for k in self.present_parents]
 
61
        needed_ids.extend([k[-1] for k in self.ordered_keys])
 
62
        inv_to_str = self.repo._serializer.write_inventory_to_string
 
63
        for inv in self.repo.iter_inventories(needed_ids):
 
64
            revision_id = inv.revision_id
 
65
            key = (revision_id,)
 
66
            if key in self.present_parents:
 
67
                # Not a key we will transmit, which is a shame, since because
 
68
                # of that bundles don't work with stacked branches
 
69
                parent_ids = None
 
70
            else:
 
71
                parent_ids = [k[-1] for k in self.parent_map[key]]
 
72
            as_bytes = inv_to_str(inv)
 
73
            self._process_one_record(key, (as_bytes,))
 
74
            if parent_ids is None:
 
75
                continue
 
76
            diff = self.diffs.pop(key)
 
77
            sha1 = osutils.sha_string(as_bytes)
 
78
            yield revision_id, parent_ids, sha1, diff
36
79
 
37
80
 
38
81
class BundleWriter(object):
164
207
        if stream_input:
165
208
            source_file = iterablefile.IterableFile(self.iter_decode(fileobj))
166
209
        else:
167
 
            source_file = StringIO(bz2.decompress(fileobj.read()))
 
210
            source_file = BytesIO(bz2.decompress(fileobj.read()))
168
211
        self._container_file = source_file
169
212
 
170
213
    @staticmethod
216
259
            if metadata['storage_kind'] == 'header':
217
260
                bytes = None
218
261
            else:
219
 
                _unused, bytes = iterator.next()
 
262
                _unused, bytes = next(iterator)
220
263
            yield (bytes, metadata) + self.decode_name(names[0][0])
221
264
 
222
265
 
280
323
            # Strip ghosts
281
324
            parents = graph.get_parent_map(revision_ids)
282
325
            self.revision_ids = [r for r in revision_ids if r in parents]
283
 
        self.revision_keys = set([(revid,) for revid in self.revision_ids])
 
326
        self.revision_keys = {(revid,) for revid in self.revision_ids}
284
327
 
285
328
    def do_write(self):
286
329
        """Write all data to the bundle"""
287
 
        trace.note('Bundling %d revision(s).', len(self.revision_ids))
 
330
        trace.note(ngettext('Bundling %d revision.', 'Bundling %d revisions.',
 
331
                            len(self.revision_ids)), len(self.revision_ids))
288
332
        self.repository.lock_read()
289
333
        try:
290
334
            self.bundle.begin()
309
353
        text_keys = []
310
354
        altered_fileids = self.repository.fileids_altered_by_revision_ids(
311
355
                self.revision_ids)
312
 
        for file_id, revision_ids in altered_fileids.iteritems():
 
356
        for file_id, revision_ids in viewitems(altered_fileids):
313
357
            for revision_id in revision_ids:
314
358
                text_keys.append((file_id, revision_id))
315
359
        self._add_mp_records_keys('file', self.repository.texts, text_keys)
348
392
        the other side.
349
393
        """
350
394
        inventory_key_order = [(r,) for r in revision_order]
351
 
        parent_map = self.repository.inventories.get_parent_map(
352
 
                            inventory_key_order)
353
 
        missing_keys = set(inventory_key_order).difference(parent_map)
354
 
        if missing_keys:
355
 
            raise errors.RevisionNotPresent(list(missing_keys)[0],
356
 
                                            self.repository.inventories)
357
 
        inv_to_str = self.repository._serializer.write_inventory_to_string
358
 
        # Make sure that we grab the parent texts first
359
 
        just_parents = set()
360
 
        map(just_parents.update, parent_map.itervalues())
361
 
        just_parents.difference_update(parent_map)
362
 
        # Ignore ghost parents
363
 
        present_parents = self.repository.inventories.get_parent_map(
364
 
                            just_parents)
365
 
        ghost_keys = just_parents.difference(present_parents)
366
 
        needed_inventories = list(present_parents) + inventory_key_order
367
 
        needed_inventories = [k[-1] for k in needed_inventories]
368
 
        all_lines = {}
369
 
        for inv in self.repository.iter_inventories(needed_inventories):
370
 
            revision_id = inv.revision_id
371
 
            key = (revision_id,)
372
 
            as_bytes = inv_to_str(inv)
373
 
            # The sha1 is validated as the xml/textual form, not as the
374
 
            # form-in-the-repository
375
 
            sha1 = osutils.sha_string(as_bytes)
376
 
            as_lines = osutils.split_lines(as_bytes)
377
 
            del as_bytes
378
 
            all_lines[key] = as_lines
379
 
            if key in just_parents:
380
 
                # We don't transmit those entries
381
 
                continue
382
 
            # Create an mpdiff for this text, and add it to the output
383
 
            parent_keys = parent_map[key]
384
 
            # See the comment in VF.make_mpdiffs about how this effects
385
 
            # ordering when there are ghosts present. I think we have a latent
386
 
            # bug
387
 
            parent_lines = [all_lines[p_key] for p_key in parent_keys
388
 
                            if p_key not in ghost_keys]
389
 
            diff = multiparent.MultiParent.from_lines(
390
 
                as_lines, parent_lines)
 
395
        generator = _MPDiffInventoryGenerator(self.repository,
 
396
                                              inventory_key_order)
 
397
        for revision_id, parent_ids, sha1, diff in generator.iter_diffs():
391
398
            text = ''.join(diff.to_patch())
392
 
            parent_ids = [k[-1] for k in parent_keys]
393
399
            self.bundle.add_multiparent_record(text, sha1, parent_ids,
394
400
                                               'inventory', revision_id, None)
395
401