/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/inventory.py

Merge from bzr.dev, resolving conflicts.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
16
16
 
17
 
# FIXME: This refactoring of the workingtree code doesn't seem to keep
 
17
# FIXME: This refactoring of the workingtree code doesn't seem to keep 
18
18
# the WorkingTree's copy of the inventory in sync with the branch.  The
19
19
# branch modifies its working inventory when it does a commit to make
20
20
# missing files permanently removed.
23
23
# But those depend on its position within a particular inventory, and
24
24
# it would be nice not to need to hold the backpointer here.
25
25
 
26
 
from __future__ import absolute_import
27
 
 
28
26
# This should really be an id randomly assigned when the tree is
29
27
# created, but it's not for now.
30
 
ROOT_ID = b"TREE_ROOT"
31
 
 
32
 
from ..lazy_import import lazy_import
 
28
ROOT_ID = "TREE_ROOT"
 
29
 
 
30
import os
 
31
import re
 
32
import sys
 
33
 
 
34
from bzrlib.lazy_import import lazy_import
33
35
lazy_import(globals(), """
34
36
import collections
35
 
import copy
36
 
import re
37
37
import tarfile
38
38
 
39
 
from breezy import (
 
39
import bzrlib
 
40
from bzrlib import (
40
41
    errors,
41
42
    generate_ids,
42
43
    osutils,
43
 
    )
44
 
from breezy.bzr import (
45
 
    chk_map,
 
44
    symbol_versioning,
 
45
    workingtree,
46
46
    )
47
47
""")
48
48
 
49
 
from .. import (
50
 
    lazy_regex,
51
 
    trace,
52
 
    )
53
 
from ..sixish import (
54
 
    bytesintern,
55
 
    PY3,
56
 
    text_type,
57
 
    viewitems,
58
 
    viewvalues,
59
 
    )
60
 
from ..static_tuple import StaticTuple
 
49
from bzrlib.errors import (
 
50
    BzrCheckError,
 
51
    BzrError,
 
52
    )
 
53
from bzrlib.trace import mutter
61
54
 
62
55
 
63
56
class InventoryEntry(object):
75
68
        file_id of the parent directory, or ROOT_ID
76
69
 
77
70
    revision
78
 
        the revision_id in which this variation of this file was
 
71
        the revision_id in which this variation of this file was 
79
72
        introduced.
80
73
 
81
74
    executable
84
77
 
85
78
    text_sha1
86
79
        sha-1 of the text of the file
87
 
 
 
80
        
88
81
    text_size
89
82
        size in bytes of the text of the file
90
 
 
 
83
        
91
84
    (reading a version 4 tree created a text_id field.)
92
85
 
93
86
    >>> i = Inventory()
96
89
    >>> i.add(InventoryDirectory('123', 'src', ROOT_ID))
97
90
    InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None)
98
91
    >>> i.add(InventoryFile('2323', 'hello.c', parent_id='123'))
99
 
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None)
 
92
    InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None)
100
93
    >>> shouldbe = {0: '', 1: 'src', 2: 'src/hello.c'}
101
94
    >>> for ix, j in enumerate(i.iter_entries()):
102
95
    ...   print (j[0] == shouldbe[ix], j[1])
103
 
    ...
 
96
    ... 
104
97
    (True, InventoryDirectory('TREE_ROOT', u'', parent_id=None, revision=None))
105
98
    (True, InventoryDirectory('123', 'src', parent_id='TREE_ROOT', revision=None))
106
 
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None, revision=None))
 
99
    (True, InventoryFile('2323', 'hello.c', parent_id='123', sha1=None, len=None))
107
100
    >>> i.add(InventoryFile('2324', 'bye.c', '123'))
108
 
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None, revision=None)
 
101
    InventoryFile('2324', 'bye.c', parent_id='123', sha1=None, len=None)
109
102
    >>> i.add(InventoryDirectory('2325', 'wibble', '123'))
110
103
    InventoryDirectory('2325', 'wibble', parent_id='123', revision=None)
111
104
    >>> i.path2id('src/wibble')
112
105
    '2325'
 
106
    >>> '2325' in i
 
107
    True
113
108
    >>> i.add(InventoryFile('2326', 'wibble.c', '2325'))
114
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
115
 
    >>> i.get_entry('2326')
116
 
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None, revision=None)
 
109
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
 
110
    >>> i['2326']
 
111
    InventoryFile('2326', 'wibble.c', parent_id='2325', sha1=None, len=None)
117
112
    >>> for path, entry in i.iter_entries():
118
113
    ...     print path
119
 
    ...
 
114
    ...     assert i.path2id(path)
 
115
    ... 
120
116
    <BLANKLINE>
121
117
    src
122
118
    src/bye.c
123
119
    src/hello.c
124
120
    src/wibble
125
121
    src/wibble/wibble.c
126
 
    >>> i.id2path(b'2326')
 
122
    >>> i.id2path('2326')
127
123
    'src/wibble/wibble.c'
128
124
    """
129
125
 
130
126
    # Constants returned by describe_change()
131
127
    #
132
 
    # TODO: These should probably move to some kind of FileChangeDescription
133
 
    # class; that's like what's inside a TreeDelta but we want to be able to
 
128
    # TODO: These should probably move to some kind of FileChangeDescription 
 
129
    # class; that's like what's inside a TreeDelta but we want to be able to 
134
130
    # generate them just for one file at a time.
135
131
    RENAMED = 'renamed'
136
132
    MODIFIED_AND_RENAMED = 'modified and renamed'
137
 
 
138
 
    __slots__ = ['file_id', 'revision', 'parent_id', 'name']
139
 
 
140
 
    # Attributes that all InventoryEntry instances are expected to have, but
141
 
    # that don't vary for all kinds of entry.  (e.g. symlink_target is only
142
 
    # relevant to InventoryLink, so there's no reason to make every
143
 
    # InventoryFile instance allocate space to hold a value for it.)
144
 
    # Attributes that only vary for files: executable, text_sha1, text_size,
145
 
    # text_id
146
 
    executable = False
147
 
    text_sha1 = None
148
 
    text_size = None
149
 
    text_id = None
150
 
    # Attributes that only vary for symlinks: symlink_target
151
 
    symlink_target = None
152
 
    # Attributes that only vary for tree-references: reference_revision
153
 
    reference_revision = None
154
 
 
 
133
    
 
134
    __slots__ = []
155
135
 
156
136
    def detect_changes(self, old_entry):
157
137
        """Return a (text_modified, meta_modified) from this to old_entry.
158
 
 
159
 
        _read_tree_state must have been called on self and old_entry prior to
 
138
        
 
139
        _read_tree_state must have been called on self and old_entry prior to 
160
140
        calling detect_changes.
161
141
        """
162
142
        return False, False
163
143
 
 
144
    def diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
 
145
             output_to, reverse=False):
 
146
        """Perform a diff from this to to_entry.
 
147
 
 
148
        text_diff will be used for textual difference calculation.
 
149
        This is a template method, override _diff in child classes.
 
150
        """
 
151
        self._read_tree_state(tree.id2path(self.file_id), tree)
 
152
        if to_entry:
 
153
            # cannot diff from one kind to another - you must do a removal
 
154
            # and an addif they do not match.
 
155
            assert self.kind == to_entry.kind
 
156
            to_entry._read_tree_state(to_tree.id2path(to_entry.file_id),
 
157
                                      to_tree)
 
158
        self._diff(text_diff, from_label, tree, to_label, to_entry, to_tree,
 
159
                   output_to, reverse)
 
160
 
164
161
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
165
162
             output_to, reverse=False):
166
163
        """Perform a diff between two entries of the same kind."""
167
164
 
168
 
    def parent_candidates(self, previous_inventories):
169
 
        """Find possible per-file graph parents.
170
 
 
171
 
        This is currently defined by:
172
 
         - Select the last changed revision in the parent inventory.
173
 
         - Do deal with a short lived bug in bzr 0.8's development two entries
174
 
           that have the same last changed but different 'x' bit settings are
175
 
           changed in-place.
 
165
    def find_previous_heads(self, previous_inventories,
 
166
                            versioned_file_store,
 
167
                            transaction,
 
168
                            entry_vf=None):
 
169
        """Return the revisions and entries that directly precede this.
 
170
 
 
171
        Returned as a map from revision to inventory entry.
 
172
 
 
173
        This is a map containing the file revisions in all parents
 
174
        for which the file exists, and its revision is not a parent of
 
175
        any other. If the file is new, the set will be empty.
 
176
 
 
177
        :param versioned_file_store: A store where ancestry data on this
 
178
                                     file id can be queried.
 
179
        :param transaction: The transaction that queries to the versioned 
 
180
                            file store should be completed under.
 
181
        :param entry_vf: The entry versioned file, if its already available.
176
182
        """
 
183
        def get_ancestors(weave, entry):
 
184
            return set(weave.get_ancestry(entry.revision))
177
185
        # revision:ie mapping for each ie found in previous_inventories.
178
186
        candidates = {}
 
187
        # revision:ie mapping with one revision for each head.
 
188
        heads = {}
 
189
        # revision: ancestor list for each head
 
190
        head_ancestors = {}
179
191
        # identify candidate head revision ids.
180
192
        for inv in previous_inventories:
181
 
            try:
182
 
                ie = inv.get_entry(self.file_id)
183
 
            except errors.NoSuchId:
184
 
                pass
185
 
            else:
 
193
            if self.file_id in inv:
 
194
                ie = inv[self.file_id]
 
195
                assert ie.file_id == self.file_id
 
196
                if ie.kind != self.kind:
 
197
                    # Can't be a candidate if the kind has changed.
 
198
                    continue
186
199
                if ie.revision in candidates:
187
200
                    # same revision value in two different inventories:
188
201
                    # correct possible inconsistencies:
189
 
                    #     * there was a bug in revision updates with 'x' bit
 
202
                    #     * there was a bug in revision updates with 'x' bit 
190
203
                    #       support.
191
204
                    try:
192
205
                        if candidates[ie.revision].executable != ie.executable:
194
207
                            ie.executable = False
195
208
                    except AttributeError:
196
209
                        pass
 
210
                    # must now be the same.
 
211
                    assert candidates[ie.revision] == ie
197
212
                else:
198
213
                    # add this revision as a candidate.
199
214
                    candidates[ie.revision] = ie
200
 
        return candidates
 
215
 
 
216
        # common case optimisation
 
217
        if len(candidates) == 1:
 
218
            # if there is only one candidate revision found
 
219
            # then we can opening the versioned file to access ancestry:
 
220
            # there cannot be any ancestors to eliminate when there is 
 
221
            # only one revision available.
 
222
            heads[ie.revision] = ie
 
223
            return heads
 
224
 
 
225
        # eliminate ancestors amongst the available candidates:
 
226
        # heads are those that are not an ancestor of any other candidate
 
227
        # - this provides convergence at a per-file level.
 
228
        for ie in candidates.values():
 
229
            # may be an ancestor of a known head:
 
230
            already_present = 0 != len(
 
231
                [head for head in heads 
 
232
                 if ie.revision in head_ancestors[head]])
 
233
            if already_present:
 
234
                # an ancestor of an analyzed candidate.
 
235
                continue
 
236
            # not an ancestor of a known head:
 
237
            # load the versioned file for this file id if needed
 
238
            if entry_vf is None:
 
239
                entry_vf = versioned_file_store.get_weave_or_empty(
 
240
                    self.file_id, transaction)
 
241
            ancestors = get_ancestors(entry_vf, ie)
 
242
            # may knock something else out:
 
243
            check_heads = list(heads.keys())
 
244
            for head in check_heads:
 
245
                if head in ancestors:
 
246
                    # this previously discovered 'head' is not
 
247
                    # really a head - its an ancestor of the newly 
 
248
                    # found head,
 
249
                    heads.pop(head)
 
250
            head_ancestors[ie.revision] = ancestors
 
251
            heads[ie.revision] = ie
 
252
        return heads
 
253
 
 
254
    def get_tar_item(self, root, dp, now, tree):
 
255
        """Get a tarfile item and a file stream for its content."""
 
256
        item = tarfile.TarInfo(osutils.pathjoin(root, dp).encode('utf8'))
 
257
        # TODO: would be cool to actually set it to the timestamp of the
 
258
        # revision it was last changed
 
259
        item.mtime = now
 
260
        fileobj = self._put_in_tar(item, tree)
 
261
        return item, fileobj
201
262
 
202
263
    def has_text(self):
203
264
        """Return true if the object this entry represents has textual data.
210
271
        """
211
272
        return False
212
273
 
213
 
    def __init__(self, file_id, name, parent_id):
 
274
    def __init__(self, file_id, name, parent_id, text_id=None):
214
275
        """Create an InventoryEntry
215
 
 
 
276
        
216
277
        The filename must be a single component, relative to the
217
278
        parent directory; it cannot be a whole path or relative name.
218
279
 
225
286
        Traceback (most recent call last):
226
287
        InvalidEntryName: Invalid entry name: src/hello.c
227
288
        """
228
 
        if u'/' in name:
 
289
        assert isinstance(name, basestring), name
 
290
        if '/' in name or '\\' in name:
229
291
            raise errors.InvalidEntryName(name=name)
230
 
        if not isinstance(file_id, bytes):
231
 
            raise TypeError(file_id)
 
292
        self.executable = False
 
293
        self.revision = None
 
294
        self.text_sha1 = None
 
295
        self.text_size = None
232
296
        self.file_id = file_id
233
 
        self.revision = None
 
297
        assert isinstance(file_id, (str, None.__class__)), \
 
298
            'bad type %r for %r' % (type(file_id), file_id)
234
299
        self.name = name
 
300
        self.text_id = text_id
235
301
        self.parent_id = parent_id
 
302
        self.symlink_target = None
 
303
        self.reference_revision = None
236
304
 
237
305
    def kind_character(self):
238
306
        """Return a short kind indicator useful for appending to names."""
239
 
        raise errors.BzrError('unknown kind %r' % self.kind)
 
307
        raise BzrError('unknown kind %r' % self.kind)
240
308
 
241
309
    known_kinds = ('file', 'directory', 'symlink')
242
310
 
 
311
    def _put_in_tar(self, item, tree):
 
312
        """populate item for stashing in a tar, and return the content stream.
 
313
 
 
314
        If no content is available, return None.
 
315
        """
 
316
        raise BzrError("don't know how to export {%s} of kind %r" %
 
317
                       (self.file_id, self.kind))
 
318
 
 
319
    def put_on_disk(self, dest, dp, tree):
 
320
        """Create a representation of self on disk in the prefix dest.
 
321
        
 
322
        This is a template method - implement _put_on_disk in subclasses.
 
323
        """
 
324
        fullpath = osutils.pathjoin(dest, dp)
 
325
        self._put_on_disk(fullpath, tree)
 
326
        # mutter("  export {%s} kind %s to %s", self.file_id,
 
327
        #         self.kind, fullpath)
 
328
 
 
329
    def _put_on_disk(self, fullpath, tree):
 
330
        """Put this entry onto disk at fullpath, from tree tree."""
 
331
        raise BzrError("don't know how to export {%s} of kind %r" % (self.file_id, self.kind))
 
332
 
 
333
    def sorted_children(self):
 
334
        return sorted(self.children.items())
 
335
 
243
336
    @staticmethod
244
337
    def versionable_kind(kind):
245
338
        return (kind in ('file', 'directory', 'symlink', 'tree-reference'))
246
339
 
247
 
    def check(self, checker, rev_id, inv):
 
340
    def check(self, checker, rev_id, inv, tree):
248
341
        """Check this inventory entry is intact.
249
342
 
250
343
        This is a template method, override _check for kind specific
251
344
        tests.
252
345
 
253
 
        :param checker: Check object providing context for the checks;
 
346
        :param checker: Check object providing context for the checks; 
254
347
             can be used to find out what parts of the repository have already
255
348
             been checked.
256
349
        :param rev_id: Revision id from which this InventoryEntry was loaded.
257
350
             Not necessarily the last-changed revision for this file.
258
351
        :param inv: Inventory from which the entry was loaded.
 
352
        :param tree: RevisionTree for this entry.
259
353
        """
260
354
        if self.parent_id is not None:
261
355
            if not inv.has_id(self.parent_id):
262
 
                raise errors.BzrCheckError(
263
 
                    'missing parent {%s} in inventory for revision {%s}' % (
264
 
                        self.parent_id, rev_id))
265
 
        checker._add_entry_to_text_key_references(inv, self)
266
 
        self._check(checker, rev_id)
 
356
                raise BzrCheckError('missing parent {%s} in inventory for revision {%s}'
 
357
                        % (self.parent_id, rev_id))
 
358
        self._check(checker, rev_id, tree)
267
359
 
268
 
    def _check(self, checker, rev_id):
 
360
    def _check(self, checker, rev_id, tree):
269
361
        """Check this inventory entry for kind specific errors."""
270
 
        checker._report_items.append(
271
 
            'unknown entry kind %r in revision {%s}' % (self.kind, rev_id))
 
362
        raise BzrCheckError('unknown entry kind %r in revision {%s}' % 
 
363
                            (self.kind, rev_id))
272
364
 
273
365
    def copy(self):
274
366
        """Clone this inventory entry."""
277
369
    @staticmethod
278
370
    def describe_change(old_entry, new_entry):
279
371
        """Describe the change between old_entry and this.
280
 
 
 
372
        
281
373
        This smells of being an InterInventoryEntry situation, but as its
282
374
        the first one, we're making it a static method for now.
283
375
 
284
 
        An entry with a different parent, or different name is considered
 
376
        An entry with a different parent, or different name is considered 
285
377
        to be renamed. Reparenting is an internal detail.
286
378
        Note that renaming the parent does not trigger a rename for the
287
379
        child entry itself.
324
416
                   self.parent_id,
325
417
                   self.revision))
326
418
 
 
419
    def snapshot(self, revision, path, previous_entries,
 
420
                 work_tree, commit_builder):
 
421
        """Make a snapshot of this entry which may or may not have changed.
 
422
        
 
423
        This means that all its fields are populated, that it has its
 
424
        text stored in the text store or weave.
 
425
        """
 
426
        # mutter('new parents of %s are %r', path, previous_entries)
 
427
        self._read_tree_state(path, work_tree)
 
428
        # TODO: Where should we determine whether to reuse a
 
429
        # previous revision id or create a new revision? 20060606
 
430
        if len(previous_entries) == 1:
 
431
            # cannot be unchanged unless there is only one parent file rev.
 
432
            parent_ie = previous_entries.values()[0]
 
433
            if self._unchanged(parent_ie):
 
434
                # mutter("found unchanged entry")
 
435
                self.revision = parent_ie.revision
 
436
                return "unchanged"
 
437
        return self._snapshot_into_revision(revision, previous_entries, 
 
438
                                            work_tree, commit_builder)
 
439
 
 
440
    def _snapshot_into_revision(self, revision, previous_entries, work_tree,
 
441
                                commit_builder):
 
442
        """Record this revision unconditionally into a store.
 
443
 
 
444
        The entry's last-changed revision property (`revision`) is updated to 
 
445
        that of the new revision.
 
446
        
 
447
        :param revision: id of the new revision that is being recorded.
 
448
 
 
449
        :returns: String description of the commit (e.g. "merged", "modified"), etc.
 
450
        """
 
451
        # mutter('new revision {%s} for {%s}', revision, self.file_id)
 
452
        self.revision = revision
 
453
        self._snapshot_text(previous_entries, work_tree, commit_builder)
 
454
 
 
455
    def _snapshot_text(self, file_parents, work_tree, commit_builder): 
 
456
        """Record the 'text' of this entry, whatever form that takes.
 
457
        
 
458
        This default implementation simply adds an empty text.
 
459
        """
 
460
        raise NotImplementedError(self._snapshot_text)
 
461
 
327
462
    def __eq__(self, other):
328
 
        if other is self:
329
 
            # For the case when objects are cached
330
 
            return True
331
463
        if not isinstance(other, InventoryEntry):
332
464
            return NotImplemented
333
465
 
368
500
 
369
501
    def _read_tree_state(self, path, work_tree):
370
502
        """Populate fields in the inventory entry from the given tree.
371
 
 
 
503
        
372
504
        Note that this should be modified to be a noop on virtual trees
373
505
        as all entries created there are prepopulated.
374
506
        """
375
 
        # TODO: Rather than running this manually, we should check the
 
507
        # TODO: Rather than running this manually, we should check the 
376
508
        # working sha1 and other expensive properties when they're
377
509
        # first requested, or preload them if they're already known
378
510
        pass            # nothing to do by default
381
513
        pass
382
514
 
383
515
 
 
516
class RootEntry(InventoryEntry):
 
517
 
 
518
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
519
                 'text_id', 'parent_id', 'children', 'executable',
 
520
                 'revision', 'symlink_target', 'reference_revision']
 
521
 
 
522
    def _check(self, checker, rev_id, tree):
 
523
        """See InventoryEntry._check"""
 
524
 
 
525
    def __init__(self, file_id):
 
526
        self.file_id = file_id
 
527
        self.children = {}
 
528
        self.kind = 'directory'
 
529
        self.parent_id = None
 
530
        self.name = u''
 
531
        self.revision = None
 
532
        symbol_versioning.warn('RootEntry is deprecated as of bzr 0.10.'
 
533
                               '  Please use InventoryDirectory instead.',
 
534
                               DeprecationWarning, stacklevel=2)
 
535
 
 
536
    def __eq__(self, other):
 
537
        if not isinstance(other, RootEntry):
 
538
            return NotImplemented
 
539
        
 
540
        return (self.file_id == other.file_id) \
 
541
               and (self.children == other.children)
 
542
 
 
543
 
384
544
class InventoryDirectory(InventoryEntry):
385
545
    """A directory in an inventory."""
386
546
 
387
 
    __slots__ = ['children']
388
 
 
389
 
    kind = 'directory'
390
 
 
391
 
    def _check(self, checker, rev_id):
 
547
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
548
                 'text_id', 'parent_id', 'children', 'executable',
 
549
                 'revision', 'symlink_target', 'reference_revision']
 
550
 
 
551
    def _check(self, checker, rev_id, tree):
392
552
        """See InventoryEntry._check"""
393
 
        # In non rich root repositories we do not expect a file graph for the
394
 
        # root.
395
 
        if self.name == '' and not checker.rich_roots:
396
 
            return
397
 
        # Directories are stored as an empty file, but the file should exist
398
 
        # to provide a per-fileid log. The hash of every directory content is
399
 
        # "da..." below (the sha1sum of '').
400
 
        checker.add_pending_item(rev_id,
401
 
            (b'texts', self.file_id, self.revision), b'text',
402
 
             b'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
553
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
554
            raise BzrCheckError('directory {%s} has text in revision {%s}'
 
555
                                % (self.file_id, rev_id))
403
556
 
404
557
    def copy(self):
405
558
        other = InventoryDirectory(self.file_id, self.name, self.parent_id)
411
564
    def __init__(self, file_id, name, parent_id):
412
565
        super(InventoryDirectory, self).__init__(file_id, name, parent_id)
413
566
        self.children = {}
414
 
 
415
 
    def sorted_children(self):
416
 
        return sorted(viewitems(self.children))
 
567
        self.kind = 'directory'
417
568
 
418
569
    def kind_character(self):
419
570
        """See InventoryEntry.kind_character."""
420
571
        return '/'
421
572
 
 
573
    def _put_in_tar(self, item, tree):
 
574
        """See InventoryEntry._put_in_tar."""
 
575
        item.type = tarfile.DIRTYPE
 
576
        fileobj = None
 
577
        item.name += '/'
 
578
        item.size = 0
 
579
        item.mode = 0755
 
580
        return fileobj
 
581
 
 
582
    def _put_on_disk(self, fullpath, tree):
 
583
        """See InventoryEntry._put_on_disk."""
 
584
        os.mkdir(fullpath)
 
585
 
 
586
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
587
        """See InventoryEntry._snapshot_text."""
 
588
        commit_builder.modified_directory(self.file_id, file_parents)
 
589
 
422
590
 
423
591
class InventoryFile(InventoryEntry):
424
592
    """A file in an inventory."""
425
593
 
426
 
    __slots__ = ['text_sha1', 'text_size', 'text_id', 'executable']
427
 
 
428
 
    kind = 'file'
429
 
 
430
 
    def __init__(self, file_id, name, parent_id):
431
 
        super(InventoryFile, self).__init__(file_id, name, parent_id)
432
 
        self.text_sha1 = None
433
 
        self.text_size = None
434
 
        self.text_id = None
435
 
        self.executable = False
436
 
 
437
 
    def _check(self, checker, tree_revision_id):
 
594
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
595
                 'text_id', 'parent_id', 'children', 'executable',
 
596
                 'revision', 'symlink_target', 'reference_revision']
 
597
 
 
598
    def _check(self, checker, tree_revision_id, tree):
438
599
        """See InventoryEntry._check"""
439
 
        # TODO: check size too.
440
 
        checker.add_pending_item(tree_revision_id,
441
 
            (b'texts', self.file_id, self.revision), b'text',
442
 
             self.text_sha1)
443
 
        if self.text_size is None:
444
 
            checker._report_items.append(
445
 
                'fileid {%s} in {%s} has None for text_size' % (self.file_id,
446
 
                tree_revision_id))
 
600
        t = (self.file_id, self.revision)
 
601
        if t in checker.checked_texts:
 
602
            prev_sha = checker.checked_texts[t]
 
603
            if prev_sha != self.text_sha1:
 
604
                raise BzrCheckError('mismatched sha1 on {%s} in {%s}' %
 
605
                                    (self.file_id, tree_revision_id))
 
606
            else:
 
607
                checker.repeated_text_cnt += 1
 
608
                return
 
609
 
 
610
        if self.file_id not in checker.checked_weaves:
 
611
            mutter('check weave {%s}', self.file_id)
 
612
            w = tree.get_weave(self.file_id)
 
613
            # Not passing a progress bar, because it creates a new
 
614
            # progress, which overwrites the current progress,
 
615
            # and doesn't look nice
 
616
            w.check()
 
617
            checker.checked_weaves[self.file_id] = True
 
618
        else:
 
619
            w = tree.get_weave(self.file_id)
 
620
 
 
621
        mutter('check version {%s} of {%s}', tree_revision_id, self.file_id)
 
622
        checker.checked_text_cnt += 1
 
623
        # We can't check the length, because Weave doesn't store that
 
624
        # information, and the whole point of looking at the weave's
 
625
        # sha1sum is that we don't have to extract the text.
 
626
        if self.text_sha1 != w.get_sha1(self.revision):
 
627
            raise BzrCheckError('text {%s} version {%s} wrong sha1' 
 
628
                                % (self.file_id, self.revision))
 
629
        checker.checked_texts[t] = self.text_sha1
447
630
 
448
631
    def copy(self):
449
632
        other = InventoryFile(self.file_id, self.name, self.parent_id)
456
639
 
457
640
    def detect_changes(self, old_entry):
458
641
        """See InventoryEntry.detect_changes."""
 
642
        assert self.text_sha1 is not None
 
643
        assert old_entry.text_sha1 is not None
459
644
        text_modified = (self.text_sha1 != old_entry.text_sha1)
460
645
        meta_modified = (self.executable != old_entry.executable)
461
646
        return text_modified, meta_modified
463
648
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
464
649
             output_to, reverse=False):
465
650
        """See InventoryEntry._diff."""
466
 
        from breezy.diff import DiffText
467
 
        from_file_id = self.file_id
468
 
        if to_entry:
469
 
            to_file_id = to_entry.file_id
470
 
            to_path = to_tree.id2path(to_file_id)
471
 
        else:
472
 
            to_file_id = None
473
 
            to_path = None
474
 
        if from_file_id is not None:
475
 
            from_path = tree.id2path(from_file_id)
476
 
        else:
477
 
            from_path = None
478
 
        if reverse:
479
 
            to_file_id, from_file_id = from_file_id, to_file_id
480
 
            tree, to_tree = to_tree, tree
481
 
            from_label, to_label = to_label, from_label
482
 
        differ = DiffText(tree, to_tree, output_to, 'utf-8', '', '',
483
 
                          text_diff)
484
 
        return differ.diff_text(from_path, to_path, from_label, to_label,
485
 
                                from_file_id, to_file_id)
 
651
        try:
 
652
            from_text = tree.get_file(self.file_id).readlines()
 
653
            if to_entry:
 
654
                to_text = to_tree.get_file(to_entry.file_id).readlines()
 
655
            else:
 
656
                to_text = []
 
657
            if not reverse:
 
658
                text_diff(from_label, from_text,
 
659
                          to_label, to_text, output_to)
 
660
            else:
 
661
                text_diff(to_label, to_text,
 
662
                          from_label, from_text, output_to)
 
663
        except errors.BinaryFile:
 
664
            if reverse:
 
665
                label_pair = (to_label, from_label)
 
666
            else:
 
667
                label_pair = (from_label, to_label)
 
668
            print >> output_to, "Binary files %s and %s differ" % label_pair
486
669
 
487
670
    def has_text(self):
488
671
        """See InventoryEntry.has_text."""
489
672
        return True
490
673
 
 
674
    def __init__(self, file_id, name, parent_id):
 
675
        super(InventoryFile, self).__init__(file_id, name, parent_id)
 
676
        self.kind = 'file'
 
677
 
491
678
    def kind_character(self):
492
679
        """See InventoryEntry.kind_character."""
493
680
        return ''
494
681
 
 
682
    def _put_in_tar(self, item, tree):
 
683
        """See InventoryEntry._put_in_tar."""
 
684
        item.type = tarfile.REGTYPE
 
685
        fileobj = tree.get_file(self.file_id)
 
686
        item.size = self.text_size
 
687
        if tree.is_executable(self.file_id):
 
688
            item.mode = 0755
 
689
        else:
 
690
            item.mode = 0644
 
691
        return fileobj
 
692
 
 
693
    def _put_on_disk(self, fullpath, tree):
 
694
        """See InventoryEntry._put_on_disk."""
 
695
        osutils.pumpfile(tree.get_file(self.file_id), file(fullpath, 'wb'))
 
696
        if tree.is_executable(self.file_id):
 
697
            os.chmod(fullpath, 0755)
 
698
 
495
699
    def _read_tree_state(self, path, work_tree):
496
700
        """See InventoryEntry._read_tree_state."""
497
 
        self.text_sha1 = work_tree.get_file_sha1(path, self.file_id)
 
701
        self.text_sha1 = work_tree.get_file_sha1(self.file_id, path=path)
498
702
        # FIXME: 20050930 probe for the text size when getting sha1
499
703
        # in _read_tree_state
500
 
        self.executable = work_tree.is_executable(path, self.file_id)
 
704
        self.executable = work_tree.is_executable(self.file_id, path=path)
501
705
 
502
706
    def __repr__(self):
503
 
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s, revision=%s)"
 
707
        return ("%s(%r, %r, parent_id=%r, sha1=%r, len=%s)"
504
708
                % (self.__class__.__name__,
505
709
                   self.file_id,
506
710
                   self.name,
507
711
                   self.parent_id,
508
712
                   self.text_sha1,
509
 
                   self.text_size,
510
 
                   self.revision))
 
713
                   self.text_size))
511
714
 
512
715
    def _forget_tree_state(self):
513
716
        self.text_sha1 = None
514
717
 
 
718
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
719
        """See InventoryEntry._snapshot_text."""
 
720
        def get_content_byte_lines():
 
721
            return work_tree.get_file(self.file_id).readlines()
 
722
        self.text_sha1, self.text_size = commit_builder.modified_file_text(
 
723
            self.file_id, file_parents, get_content_byte_lines, self.text_sha1, self.text_size)
 
724
 
515
725
    def _unchanged(self, previous_ie):
516
726
        """See InventoryEntry._unchanged."""
517
727
        compatible = super(InventoryFile, self)._unchanged(previous_ie)
529
739
class InventoryLink(InventoryEntry):
530
740
    """A file in an inventory."""
531
741
 
532
 
    __slots__ = ['symlink_target']
533
 
 
534
 
    kind = 'symlink'
535
 
 
536
 
    def __init__(self, file_id, name, parent_id):
537
 
        super(InventoryLink, self).__init__(file_id, name, parent_id)
538
 
        self.symlink_target = None
539
 
 
540
 
    def _check(self, checker, tree_revision_id):
 
742
    __slots__ = ['text_sha1', 'text_size', 'file_id', 'name', 'kind',
 
743
                 'text_id', 'parent_id', 'children', 'executable',
 
744
                 'revision', 'symlink_target', 'reference_revision']
 
745
 
 
746
    def _check(self, checker, rev_id, tree):
541
747
        """See InventoryEntry._check"""
 
748
        if self.text_sha1 is not None or self.text_size is not None or self.text_id is not None:
 
749
            raise BzrCheckError('symlink {%s} has text in revision {%s}'
 
750
                    % (self.file_id, rev_id))
542
751
        if self.symlink_target is None:
543
 
            checker._report_items.append(
544
 
                'symlink {%s} has no target in revision {%s}'
545
 
                    % (self.file_id, tree_revision_id))
546
 
        # Symlinks are stored as ''
547
 
        checker.add_pending_item(tree_revision_id,
548
 
            (b'texts', self.file_id, self.revision), b'text',
549
 
             b'da39a3ee5e6b4b0d3255bfef95601890afd80709')
 
752
            raise BzrCheckError('symlink {%s} has no target in revision {%s}'
 
753
                    % (self.file_id, rev_id))
550
754
 
551
755
    def copy(self):
552
756
        other = InventoryLink(self.file_id, self.name, self.parent_id)
559
763
        # FIXME: which _modified field should we use ? RBC 20051003
560
764
        text_modified = (self.symlink_target != old_entry.symlink_target)
561
765
        if text_modified:
562
 
            trace.mutter("    symlink target changed")
 
766
            mutter("    symlink target changed")
563
767
        meta_modified = False
564
768
        return text_modified, meta_modified
565
769
 
566
770
    def _diff(self, text_diff, from_label, tree, to_label, to_entry, to_tree,
567
771
             output_to, reverse=False):
568
772
        """See InventoryEntry._diff."""
569
 
        from breezy.diff import DiffSymlink
570
 
        old_target = self.symlink_target
 
773
        from_text = self.symlink_target
571
774
        if to_entry is not None:
572
 
            new_target = to_entry.symlink_target
573
 
        else:
574
 
            new_target = None
575
 
        if not reverse:
576
 
            old_tree = tree
577
 
            new_tree = to_tree
578
 
        else:
579
 
            old_tree = to_tree
580
 
            new_tree = tree
581
 
            new_target, old_target = old_target, new_target
582
 
        differ = DiffSymlink(old_tree, new_tree, output_to)
583
 
        return differ.diff_symlink(old_target, new_target)
 
775
            to_text = to_entry.symlink_target
 
776
            if reverse:
 
777
                temp = from_text
 
778
                from_text = to_text
 
779
                to_text = temp
 
780
            print >>output_to, '=== target changed %r => %r' % (from_text, to_text)
 
781
        else:
 
782
            if not reverse:
 
783
                print >>output_to, '=== target was %r' % self.symlink_target
 
784
            else:
 
785
                print >>output_to, '=== target is %r' % self.symlink_target
 
786
 
 
787
    def __init__(self, file_id, name, parent_id):
 
788
        super(InventoryLink, self).__init__(file_id, name, parent_id)
 
789
        self.kind = 'symlink'
584
790
 
585
791
    def kind_character(self):
586
792
        """See InventoryEntry.kind_character."""
587
793
        return ''
588
794
 
 
795
    def _put_in_tar(self, item, tree):
 
796
        """See InventoryEntry._put_in_tar."""
 
797
        item.type = tarfile.SYMTYPE
 
798
        fileobj = None
 
799
        item.size = 0
 
800
        item.mode = 0755
 
801
        item.linkname = self.symlink_target
 
802
        return fileobj
 
803
 
 
804
    def _put_on_disk(self, fullpath, tree):
 
805
        """See InventoryEntry._put_on_disk."""
 
806
        try:
 
807
            os.symlink(self.symlink_target, fullpath)
 
808
        except OSError,e:
 
809
            raise BzrError("Failed to create symlink %r -> %r, error: %s" % (fullpath, self.symlink_target, e))
 
810
 
589
811
    def _read_tree_state(self, path, work_tree):
590
812
        """See InventoryEntry._read_tree_state."""
591
 
        self.symlink_target = work_tree.get_symlink_target(
592
 
                work_tree.id2path(self.file_id), self.file_id)
 
813
        self.symlink_target = work_tree.get_symlink_target(self.file_id)
593
814
 
594
815
    def _forget_tree_state(self):
595
816
        self.symlink_target = None
601
822
            compatible = False
602
823
        return compatible
603
824
 
 
825
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
826
        """See InventoryEntry._snapshot_text."""
 
827
        commit_builder.modified_link(
 
828
            self.file_id, file_parents, self.symlink_target)
 
829
 
604
830
 
605
831
class TreeReference(InventoryEntry):
606
 
 
607
 
    __slots__ = ['reference_revision']
608
 
 
 
832
    
609
833
    kind = 'tree-reference'
610
 
 
 
834
    
611
835
    def __init__(self, file_id, name, parent_id, revision=None,
612
836
                 reference_revision=None):
613
837
        InventoryEntry.__init__(self, file_id, name, parent_id)
618
842
        return TreeReference(self.file_id, self.name, self.parent_id,
619
843
                             self.revision, self.reference_revision)
620
844
 
 
845
    def _snapshot_text(self, file_parents, work_tree, commit_builder):
 
846
        commit_builder.modified_reference(self.file_id, file_parents)
 
847
 
621
848
    def _read_tree_state(self, path, work_tree):
622
849
        """Populate fields in the inventory entry from the given tree.
623
850
        """
624
851
        self.reference_revision = work_tree.get_reference_revision(
625
 
            path, self.file_id)
 
852
            self.file_id, path)
626
853
 
627
854
    def _forget_tree_state(self):
628
 
        self.reference_revision = None
629
 
 
630
 
    def _unchanged(self, previous_ie):
631
 
        """See InventoryEntry._unchanged."""
632
 
        compatible = super(TreeReference, self)._unchanged(previous_ie)
633
 
        if self.reference_revision != previous_ie.reference_revision:
634
 
            compatible = False
635
 
        return compatible
636
 
 
637
 
 
638
 
class CommonInventory(object):
639
 
    """Basic inventory logic, defined in terms of primitives like has_id.
640
 
 
641
 
    An inventory is the metadata about the contents of a tree.
642
 
 
643
 
    This is broadly a map from file_id to entries such as directories, files,
644
 
    symlinks and tree references. Each entry maintains its own metadata like
645
 
    SHA1 and length for files, or children for a directory.
646
 
 
 
855
        self.reference_revision = None 
 
856
 
 
857
 
 
858
class Inventory(object):
 
859
    """Inventory of versioned files in a tree.
 
860
 
 
861
    This describes which file_id is present at each point in the tree,
 
862
    and possibly the SHA-1 or other information about the file.
647
863
    Entries can be looked up either by path or by file_id.
648
864
 
 
865
    The inventory represents a typical unix file tree, with
 
866
    directories containing files and subdirectories.  We never store
 
867
    the full path to a file, because renaming a directory implicitly
 
868
    moves all of its contents.  This class internally maintains a
 
869
    lookup tree that allows the children under a directory to be
 
870
    returned quickly.
 
871
 
649
872
    InventoryEntry objects must not be modified after they are
650
873
    inserted, other than through the Inventory API.
 
874
 
 
875
    >>> inv = Inventory()
 
876
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
877
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
878
    >>> inv['123-123'].name
 
879
    'hello.c'
 
880
 
 
881
    May be treated as an iterator or set to look up file ids:
 
882
    
 
883
    >>> bool(inv.path2id('hello.c'))
 
884
    True
 
885
    >>> '123-123' in inv
 
886
    True
 
887
 
 
888
    May also look up by name:
 
889
 
 
890
    >>> [x[0] for x in inv.iter_entries()]
 
891
    ['', u'hello.c']
 
892
    >>> inv = Inventory('TREE_ROOT-12345678-12345678')
 
893
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
 
894
    Traceback (most recent call last):
 
895
    BzrError: parent_id {TREE_ROOT} not in inventory
 
896
    >>> inv.add(InventoryFile('123-123', 'hello.c', 'TREE_ROOT-12345678-12345678'))
 
897
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT-12345678-12345678', sha1=None, len=None)
651
898
    """
652
 
 
653
 
    def has_filename(self, filename):
654
 
        return bool(self.path2id(filename))
655
 
 
656
 
    def id2path(self, file_id):
657
 
        """Return as a string the path to file_id.
658
 
 
659
 
        >>> i = Inventory()
660
 
        >>> e = i.add(InventoryDirectory(b'src-id', 'src', ROOT_ID))
661
 
        >>> e = i.add(InventoryFile(b'foo-id', 'foo.c', parent_id='src-id'))
662
 
        >>> print i.id2path(b'foo-id')
663
 
        src/foo.c
664
 
 
665
 
        :raises NoSuchId: If file_id is not present in the inventory.
666
 
        """
667
 
        # get all names, skipping root
668
 
        return '/'.join(reversed(
669
 
            [parent.name for parent in
670
 
             self._iter_file_id_parents(file_id)][:-1]))
671
 
 
672
 
    def iter_entries(self, from_dir=None, recursive=True):
673
 
        """Return (path, entry) pairs, in order by name.
674
 
        
675
 
        :param from_dir: if None, start from the root,
676
 
          otherwise start from this directory (either file-id or entry)
677
 
        :param recursive: recurse into directories or not
678
 
        """
 
899
    def __init__(self, root_id=ROOT_ID, revision_id=None):
 
900
        """Create or read an inventory.
 
901
 
 
902
        If a working directory is specified, the inventory is read
 
903
        from there.  If the file is specified, read from that. If not,
 
904
        the inventory is created empty.
 
905
 
 
906
        The inventory is created with a default root directory, with
 
907
        an id of None.
 
908
        """
 
909
        if root_id is not None:
 
910
            assert root_id.__class__ == str
 
911
            self._set_root(InventoryDirectory(root_id, u'', None))
 
912
        else:
 
913
            self.root = None
 
914
            self._byid = {}
 
915
        self.revision_id = revision_id
 
916
 
 
917
    def _set_root(self, ie):
 
918
        self.root = ie
 
919
        self._byid = {self.root.file_id: self.root}
 
920
 
 
921
    def copy(self):
 
922
        # TODO: jam 20051218 Should copy also copy the revision_id?
 
923
        entries = self.iter_entries()
 
924
        other = Inventory(entries.next()[1].file_id)
 
925
        # copy recursively so we know directories will be added before
 
926
        # their children.  There are more efficient ways than this...
 
927
        for path, entry in entries():
 
928
            other.add(entry.copy())
 
929
        return other
 
930
 
 
931
    def __iter__(self):
 
932
        return iter(self._byid)
 
933
 
 
934
    def __len__(self):
 
935
        """Returns number of entries."""
 
936
        return len(self._byid)
 
937
 
 
938
    def iter_entries(self, from_dir=None):
 
939
        """Return (path, entry) pairs, in order by name."""
679
940
        if from_dir is None:
680
941
            if self.root is None:
681
942
                return
682
943
            from_dir = self.root
683
944
            yield '', self.root
684
 
        elif isinstance(from_dir, bytes):
685
 
            from_dir = self.get_entry(from_dir)
686
 
 
 
945
        elif isinstance(from_dir, basestring):
 
946
            from_dir = self._byid[from_dir]
 
947
            
687
948
        # unrolling the recursive called changed the time from
688
949
        # 440ms/663ms (inline/total) to 116ms/116ms
689
 
        children = sorted(viewitems(from_dir.children))
690
 
        if not recursive:
691
 
            for name, ie in children:
692
 
                yield name, ie
693
 
            return
 
950
        children = from_dir.children.items()
 
951
        children.sort()
694
952
        children = collections.deque(children)
695
953
        stack = [(u'', children)]
696
954
        while stack:
711
969
                    continue
712
970
 
713
971
                # But do this child first
714
 
                new_children = sorted(viewitems(ie.children))
 
972
                new_children = ie.children.items()
 
973
                new_children.sort()
715
974
                new_children = collections.deque(new_children)
716
975
                stack.append((path, new_children))
717
976
                # Break out of inner loop, so that we start outer loop with child
720
979
                # if we finished all children, pop it off the stack
721
980
                stack.pop()
722
981
 
723
 
    def _preload_cache(self):
724
 
        """Populate any caches, we are about to access all items.
725
 
 
726
 
        The default implementation does nothing, because CommonInventory doesn't
727
 
        have a cache.
728
 
        """
729
 
        pass
730
 
 
731
982
    def iter_entries_by_dir(self, from_dir=None, specific_file_ids=None):
732
983
        """Iterate over the entries in a directory first order.
733
984
 
738
989
 
739
990
        :return: This yields (path, entry) pairs
740
991
        """
741
 
        if specific_file_ids and not isinstance(specific_file_ids, set):
742
 
            specific_file_ids = set(specific_file_ids)
 
992
        if specific_file_ids:
 
993
            safe = osutils.safe_file_id
 
994
            specific_file_ids = set(safe(fid) for fid in specific_file_ids)
743
995
        # TODO? Perhaps this should return the from_dir so that the root is
744
996
        # yielded? or maybe an option?
745
 
        if from_dir is None and specific_file_ids is None:
746
 
            # They are iterating from the root, and have not specified any
747
 
            # specific entries to look at. All current callers fully consume the
748
 
            # iterator, so we can safely assume we are accessing all entries
749
 
            self._preload_cache()
750
997
        if from_dir is None:
751
998
            if self.root is None:
752
999
                return
753
1000
            # Optimize a common case
754
 
            if (specific_file_ids is not None and
755
 
                len(specific_file_ids) == 1):
 
1001
            if specific_file_ids is not None and len(specific_file_ids) == 1:
756
1002
                file_id = list(specific_file_ids)[0]
757
 
                if file_id is not None:
758
 
                    try:
759
 
                        path = self.id2path(file_id)
760
 
                    except errors.NoSuchId:
761
 
                        pass
762
 
                    else:
763
 
                        yield path, self.get_entry(file_id)
764
 
                return
 
1003
                if file_id in self:
 
1004
                    yield self.id2path(file_id), self[file_id]
 
1005
                return 
765
1006
            from_dir = self.root
766
 
            if (specific_file_ids is None or
 
1007
            if (specific_file_ids is None or 
767
1008
                self.root.file_id in specific_file_ids):
768
1009
                yield u'', self.root
769
 
        elif isinstance(from_dir, (str, text_type)):
770
 
            from_dir = self.get_entry(from_dir)
 
1010
        elif isinstance(from_dir, basestring):
 
1011
            from_dir = self._byid[from_dir]
771
1012
 
772
1013
        if specific_file_ids is not None:
773
1014
            # TODO: jam 20070302 This could really be done as a loop rather
774
1015
            #       than a bunch of recursive calls.
775
1016
            parents = set()
776
 
            byid = self
 
1017
            byid = self._byid
777
1018
            def add_ancestors(file_id):
778
 
                if not byid.has_id(file_id):
 
1019
                if file_id not in byid:
779
1020
                    return
780
 
                parent_id = byid.get_entry(file_id).parent_id
 
1021
                parent_id = byid[file_id].parent_id
781
1022
                if parent_id is None:
782
1023
                    return
783
1024
                if parent_id not in parents:
787
1028
                add_ancestors(file_id)
788
1029
        else:
789
1030
            parents = None
790
 
 
 
1031
            
791
1032
        stack = [(u'', from_dir)]
792
1033
        while stack:
793
1034
            cur_relpath, cur_dir = stack.pop()
794
1035
 
795
1036
            child_dirs = []
796
 
            for child_name, child_ie in sorted(viewitems(cur_dir.children)):
 
1037
            for child_name, child_ie in sorted(cur_dir.children.iteritems()):
797
1038
 
798
1039
                child_relpath = cur_relpath + child_name
799
1040
 
800
 
                if (specific_file_ids is None or
 
1041
                if (specific_file_ids is None or 
801
1042
                    child_ie.file_id in specific_file_ids):
802
1043
                    yield child_relpath, child_ie
803
1044
 
806
1047
                        child_dirs.append((child_relpath+'/', child_ie))
807
1048
            stack.extend(reversed(child_dirs))
808
1049
 
809
 
    def _make_delta(self, old):
810
 
        """Make an inventory delta from two inventories."""
811
 
        old_ids = set(old.iter_all_ids())
812
 
        new_ids = set(self.iter_all_ids())
813
 
        adds = new_ids - old_ids
814
 
        deletes = old_ids - new_ids
815
 
        common = old_ids.intersection(new_ids)
816
 
        delta = []
817
 
        for file_id in deletes:
818
 
            delta.append((old.id2path(file_id), None, file_id, None))
819
 
        for file_id in adds:
820
 
            delta.append((None, self.id2path(file_id), file_id, self.get_entry(file_id)))
821
 
        for file_id in common:
822
 
            if old.get_entry(file_id) != self.get_entry(file_id):
823
 
                delta.append((old.id2path(file_id), self.id2path(file_id),
824
 
                    file_id, self.get_entry(file_id)))
825
 
        return delta
826
 
 
827
 
    def make_entry(self, kind, name, parent_id, file_id=None):
828
 
        """Simple thunk to breezy.bzr.inventory.make_entry."""
829
 
        return make_entry(kind, name, parent_id, file_id)
830
 
 
831
1050
    def entries(self):
832
1051
        """Return list of (path, ie) for all entries except the root.
833
1052
 
835
1054
        """
836
1055
        accum = []
837
1056
        def descend(dir_ie, dir_path):
838
 
            kids = sorted(viewitems(dir_ie.children))
 
1057
            kids = dir_ie.children.items()
 
1058
            kids.sort()
839
1059
            for name, ie in kids:
840
1060
                child_path = osutils.pathjoin(dir_path, name)
841
1061
                accum.append((child_path, ie))
842
1062
                if ie.kind == 'directory':
843
1063
                    descend(ie, child_path)
844
1064
 
845
 
        if self.root is not None:
846
 
            descend(self.root, u'')
847
 
        return accum
848
 
 
849
 
    def get_entry_by_path(self, relpath):
850
 
        """Return an inventory entry by path.
851
 
 
852
 
        :param relpath: may be either a list of path components, or a single
853
 
            string, in which case it is automatically split.
854
 
 
855
 
        This returns the entry of the last component in the path,
856
 
        which may be either a file or a directory.
857
 
 
858
 
        Returns None IFF the path is not found.
859
 
        """
860
 
        if isinstance(relpath, (str, text_type)):
861
 
            names = osutils.splitpath(relpath)
862
 
        else:
863
 
            names = relpath
864
 
 
865
 
        try:
866
 
            parent = self.root
867
 
        except errors.NoSuchId:
868
 
            # root doesn't exist yet so nothing else can
869
 
            return None
870
 
        if parent is None:
871
 
            return None
872
 
        for f in names:
873
 
            try:
874
 
                children = getattr(parent, 'children', None)
875
 
                if children is None:
876
 
                    return None
877
 
                cie = children[f]
878
 
                parent = cie
879
 
            except KeyError:
880
 
                # or raise an error?
881
 
                return None
882
 
        return parent
883
 
 
884
 
    def path2id(self, relpath):
885
 
        """Walk down through directories to return entry of last component.
886
 
 
887
 
        :param relpath: may be either a list of path components, or a single
888
 
            string, in which case it is automatically split.
889
 
 
890
 
        This returns the entry of the last component in the path,
891
 
        which may be either a file or a directory.
892
 
 
893
 
        Returns None IFF the path is not found.
894
 
        """
895
 
        ie = self.get_entry_by_path(relpath)
896
 
        if ie is None:
897
 
            return None
898
 
        return ie.file_id
899
 
 
900
 
    def filter(self, specific_fileids):
901
 
        """Get an inventory view filtered against a set of file-ids.
902
 
 
903
 
        Children of directories and parents are included.
904
 
 
905
 
        The result may or may not reference the underlying inventory
906
 
        so it should be treated as immutable.
907
 
        """
908
 
        interesting_parents = set()
909
 
        for fileid in specific_fileids:
910
 
            try:
911
 
                interesting_parents.update(self.get_idpath(fileid))
912
 
            except errors.NoSuchId:
913
 
                # This fileid is not in the inventory - that's ok
914
 
                pass
915
 
        entries = self.iter_entries()
916
 
        if self.root is None:
917
 
            return Inventory(root_id=None)
918
 
        other = Inventory(next(entries)[1].file_id)
919
 
        other.root.revision = self.root.revision
920
 
        other.revision_id = self.revision_id
921
 
        directories_to_expand = set()
922
 
        for path, entry in entries:
923
 
            file_id = entry.file_id
924
 
            if (file_id in specific_fileids
925
 
                or entry.parent_id in directories_to_expand):
926
 
                if entry.kind == 'directory':
927
 
                    directories_to_expand.add(file_id)
928
 
            elif file_id not in interesting_parents:
929
 
                continue
930
 
            other.add(entry.copy())
931
 
        return other
932
 
 
933
 
    def get_idpath(self, file_id):
934
 
        """Return a list of file_ids for the path to an entry.
935
 
 
936
 
        The list contains one element for each directory followed by
937
 
        the id of the file itself.  So the length of the returned list
938
 
        is equal to the depth of the file in the tree, counting the
939
 
        root directory as depth 1.
940
 
        """
941
 
        p = []
942
 
        for parent in self._iter_file_id_parents(file_id):
943
 
            p.insert(0, parent.file_id)
944
 
        return p
945
 
 
946
 
 
947
 
class Inventory(CommonInventory):
948
 
    """Mutable dict based in-memory inventory.
949
 
 
950
 
    We never store the full path to a file, because renaming a directory
951
 
    implicitly moves all of its contents.  This class internally maintains a
952
 
    lookup tree that allows the children under a directory to be
953
 
    returned quickly.
954
 
 
955
 
    >>> inv = Inventory()
956
 
    >>> inv.add(InventoryFile('123-123', 'hello.c', ROOT_ID))
957
 
    InventoryFile('123-123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
958
 
    >>> inv.get_entry('123-123').name
959
 
    'hello.c'
960
 
 
961
 
    Id's may be looked up from paths:
962
 
 
963
 
    >>> inv.path2id('hello.c')
964
 
    '123-123'
965
 
    >>> inv.has_id(b'123-123')
966
 
    True
967
 
 
968
 
    There are iterators over the contents:
969
 
 
970
 
    >>> [entry[0] for entry in inv.iter_entries()]
971
 
    ['', u'hello.c']
972
 
    """
973
 
 
974
 
    def __init__(self, root_id=ROOT_ID, revision_id=None):
975
 
        """Create or read an inventory.
976
 
 
977
 
        If a working directory is specified, the inventory is read
978
 
        from there.  If the file is specified, read from that. If not,
979
 
        the inventory is created empty.
980
 
 
981
 
        The inventory is created with a default root directory, with
982
 
        an id of None.
983
 
        """
984
 
        if root_id is not None:
985
 
            self._set_root(InventoryDirectory(root_id, u'', None))
986
 
        else:
987
 
            self.root = None
988
 
            self._byid = {}
989
 
        self.revision_id = revision_id
990
 
 
991
 
    def __repr__(self):
992
 
        # More than one page of ouput is not useful anymore to debug
993
 
        max_len = 2048
994
 
        closing = '...}'
995
 
        contents = repr(self._byid)
996
 
        if len(contents) > max_len:
997
 
            contents = contents[:(max_len-len(closing))] + closing
998
 
        return "<Inventory object at %x, contents=%r>" % (id(self), contents)
999
 
 
1000
 
    def apply_delta(self, delta):
1001
 
        """Apply a delta to this inventory.
1002
 
 
1003
 
        See the inventory developers documentation for the theory behind
1004
 
        inventory deltas.
1005
 
 
1006
 
        If delta application fails the inventory is left in an indeterminate
1007
 
        state and must not be used.
1008
 
 
1009
 
        :param delta: A list of changes to apply. After all the changes are
1010
 
            applied the final inventory must be internally consistent, but it
1011
 
            is ok to supply changes which, if only half-applied would have an
1012
 
            invalid result - such as supplying two changes which rename two
1013
 
            files, 'A' and 'B' with each other : [('A', 'B', b'A-id', a_entry),
1014
 
            ('B', 'A', b'B-id', b_entry)].
1015
 
 
1016
 
            Each change is a tuple, of the form (old_path, new_path, file_id,
1017
 
            new_entry).
1018
 
 
1019
 
            When new_path is None, the change indicates the removal of an entry
1020
 
            from the inventory and new_entry will be ignored (using None is
1021
 
            appropriate). If new_path is not None, then new_entry must be an
1022
 
            InventoryEntry instance, which will be incorporated into the
1023
 
            inventory (and replace any existing entry with the same file id).
1024
 
 
1025
 
            When old_path is None, the change indicates the addition of
1026
 
            a new entry to the inventory.
1027
 
 
1028
 
            When neither new_path nor old_path are None, the change is a
1029
 
            modification to an entry, such as a rename, reparent, kind change
1030
 
            etc.
1031
 
 
1032
 
            The children attribute of new_entry is ignored. This is because
1033
 
            this method preserves children automatically across alterations to
1034
 
            the parent of the children, and cases where the parent id of a
1035
 
            child is changing require the child to be passed in as a separate
1036
 
            change regardless. E.g. in the recursive deletion of a directory -
1037
 
            the directory's children must be included in the delta, or the
1038
 
            final inventory will be invalid.
1039
 
 
1040
 
            Note that a file_id must only appear once within a given delta.
1041
 
            An AssertionError is raised otherwise.
1042
 
        """
1043
 
        # Check that the delta is legal. It would be nice if this could be
1044
 
        # done within the loops below but it's safer to validate the delta
1045
 
        # before starting to mutate the inventory, as there isn't a rollback
1046
 
        # facility.
1047
 
        list(_check_delta_unique_ids(_check_delta_unique_new_paths(
1048
 
            _check_delta_unique_old_paths(_check_delta_ids_match_entry(
1049
 
            _check_delta_ids_are_valid(
1050
 
            _check_delta_new_path_entry_both_or_None(
1051
 
            delta)))))))
1052
 
 
1053
 
        children = {}
1054
 
        # Remove all affected items which were in the original inventory,
1055
 
        # starting with the longest paths, thus ensuring parents are examined
1056
 
        # after their children, which means that everything we examine has no
1057
 
        # modified children remaining by the time we examine it.
1058
 
        for old_path, file_id in sorted(((op, f) for op, np, f, e in delta
1059
 
                                        if op is not None), reverse=True):
1060
 
            # Preserve unaltered children of file_id for later reinsertion.
1061
 
            file_id_children = getattr(self.get_entry(file_id), 'children', {})
1062
 
            if len(file_id_children):
1063
 
                children[file_id] = file_id_children
1064
 
            if self.id2path(file_id) != old_path:
1065
 
                raise errors.InconsistentDelta(old_path, file_id,
1066
 
                    "Entry was at wrong other path %r." % self.id2path(file_id))
1067
 
            # Remove file_id and the unaltered children. If file_id is not
1068
 
            # being deleted it will be reinserted back later.
1069
 
            self.remove_recursive_id(file_id)
1070
 
        # Insert all affected which should be in the new inventory, reattaching
1071
 
        # their children if they had any. This is done from shortest path to
1072
 
        # longest, ensuring that items which were modified and whose parents in
1073
 
        # the resulting inventory were also modified, are inserted after their
1074
 
        # parents.
1075
 
        for new_path, f, new_entry in sorted((np, f, e) for op, np, f, e in
1076
 
                                          delta if np is not None):
1077
 
            if new_entry.kind == 'directory':
1078
 
                # Pop the child which to allow detection of children whose
1079
 
                # parents were deleted and which were not reattached to a new
1080
 
                # parent.
1081
 
                replacement = InventoryDirectory(new_entry.file_id,
1082
 
                    new_entry.name, new_entry.parent_id)
1083
 
                replacement.revision = new_entry.revision
1084
 
                replacement.children = children.pop(replacement.file_id, {})
1085
 
                new_entry = replacement
1086
 
            try:
1087
 
                self.add(new_entry)
1088
 
            except errors.DuplicateFileId:
1089
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1090
 
                    "New id is already present in target.")
1091
 
            except AttributeError:
1092
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1093
 
                    "Parent is not a directory.")
1094
 
            if self.id2path(new_entry.file_id) != new_path:
1095
 
                raise errors.InconsistentDelta(new_path, new_entry.file_id,
1096
 
                    "New path is not consistent with parent path.")
1097
 
        if len(children):
1098
 
            # Get the parent id that was deleted
1099
 
            parent_id, children = children.popitem()
1100
 
            raise errors.InconsistentDelta("<deleted>", parent_id,
1101
 
                "The file id was deleted but its children were not deleted.")
1102
 
 
1103
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1104
 
                              propagate_caches=False):
1105
 
        """See CHKInventory.create_by_apply_delta()"""
1106
 
        new_inv = self.copy()
1107
 
        new_inv.apply_delta(inventory_delta)
1108
 
        new_inv.revision_id = new_revision_id
1109
 
        return new_inv
1110
 
 
1111
 
    def _set_root(self, ie):
1112
 
        self.root = ie
1113
 
        self._byid = {self.root.file_id: self.root}
1114
 
 
1115
 
    def copy(self):
1116
 
        # TODO: jam 20051218 Should copy also copy the revision_id?
1117
 
        entries = self.iter_entries()
1118
 
        if self.root is None:
1119
 
            return Inventory(root_id=None)
1120
 
        other = Inventory(next(entries)[1].file_id)
1121
 
        other.root.revision = self.root.revision
1122
 
        # copy recursively so we know directories will be added before
1123
 
        # their children.  There are more efficient ways than this...
1124
 
        for path, entry in entries:
1125
 
            other.add(entry.copy())
1126
 
        return other
1127
 
 
1128
 
    def iter_all_ids(self):
1129
 
        """Iterate over all file-ids."""
1130
 
        return iter(self._byid)
1131
 
 
1132
 
    def iter_just_entries(self):
1133
 
        """Iterate over all entries.
 
1065
        descend(self.root, u'')
 
1066
        return accum
 
1067
 
 
1068
    def directories(self):
 
1069
        """Return (path, entry) pairs for all directories, including the root.
 
1070
        """
 
1071
        accum = []
 
1072
        def descend(parent_ie, parent_path):
 
1073
            accum.append((parent_path, parent_ie))
 
1074
            
 
1075
            kids = [(ie.name, ie) for ie in parent_ie.children.itervalues() if ie.kind == 'directory']
 
1076
            kids.sort()
 
1077
 
 
1078
            for name, child_ie in kids:
 
1079
                child_path = osutils.pathjoin(parent_path, name)
 
1080
                descend(child_ie, child_path)
 
1081
        descend(self.root, u'')
 
1082
        return accum
1134
1083
        
1135
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1136
 
        and the order of entries is undefined.
 
1084
    def __contains__(self, file_id):
 
1085
        """True if this entry contains a file with given id.
1137
1086
 
1138
 
        XXX: We may not want to merge this into bzr.dev.
 
1087
        >>> inv = Inventory()
 
1088
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
 
1089
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1090
        >>> '123' in inv
 
1091
        True
 
1092
        >>> '456' in inv
 
1093
        False
1139
1094
        """
1140
 
        if self.root is None:
1141
 
            return ()
1142
 
        return iter(viewvalues(self._byid))
1143
 
 
1144
 
    def __len__(self):
1145
 
        """Returns number of entries."""
1146
 
        return len(self._byid)
1147
 
 
1148
 
    def get_entry(self, file_id):
 
1095
        file_id = osutils.safe_file_id(file_id)
 
1096
        return (file_id in self._byid)
 
1097
 
 
1098
    def __getitem__(self, file_id):
1149
1099
        """Return the entry for given file_id.
1150
1100
 
1151
1101
        >>> inv = Inventory()
1152
1102
        >>> inv.add(InventoryFile('123123', 'hello.c', ROOT_ID))
1153
 
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1154
 
        >>> inv.get_entry('123123').name
 
1103
        InventoryFile('123123', 'hello.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1104
        >>> inv['123123'].name
1155
1105
        'hello.c'
1156
1106
        """
1157
 
        if not isinstance(file_id, bytes):
1158
 
            raise TypeError(file_id)
 
1107
        file_id = osutils.safe_file_id(file_id)
1159
1108
        try:
1160
1109
            return self._byid[file_id]
1161
1110
        except KeyError:
1163
1112
            raise errors.NoSuchId(self, file_id)
1164
1113
 
1165
1114
    def get_file_kind(self, file_id):
 
1115
        file_id = osutils.safe_file_id(file_id)
1166
1116
        return self._byid[file_id].kind
1167
1117
 
1168
1118
    def get_child(self, parent_id, filename):
1169
 
        return self.get_entry(parent_id).children.get(filename)
 
1119
        parent_id = osutils.safe_file_id(parent_id)
 
1120
        return self[parent_id].children.get(filename)
1170
1121
 
1171
1122
    def _add_child(self, entry):
1172
1123
        """Add an entry to the inventory, without adding it to its parent"""
1173
1124
        if entry.file_id in self._byid:
1174
 
            raise errors.BzrError(
1175
 
                "inventory already contains entry with id {%s}" %
1176
 
                entry.file_id)
 
1125
            raise BzrError("inventory already contains entry with id {%s}" %
 
1126
                           entry.file_id)
1177
1127
        self._byid[entry.file_id] = entry
1178
 
        children = getattr(entry, 'children', {})
1179
 
        if children is not None:
1180
 
            for child in viewvalues(children):
1181
 
                self._add_child(child)
 
1128
        for child in getattr(entry, 'children', {}).itervalues():
 
1129
            self._add_child(child)
1182
1130
        return entry
1183
1131
 
1184
1132
    def add(self, entry):
1185
1133
        """Add entry to inventory.
1186
1134
 
1187
 
        :return: entry
 
1135
        To add  a file to a branch ready to be committed, use Branch.add,
 
1136
        which calls this.
 
1137
 
 
1138
        Returns the new entry object.
1188
1139
        """
1189
1140
        if entry.file_id in self._byid:
1190
1141
            raise errors.DuplicateFileId(entry.file_id,
1191
1142
                                         self._byid[entry.file_id])
 
1143
 
1192
1144
        if entry.parent_id is None:
 
1145
            assert self.root is None and len(self._byid) == 0
1193
1146
            self.root = entry
1194
1147
        else:
1195
1148
            try:
1196
1149
                parent = self._byid[entry.parent_id]
1197
1150
            except KeyError:
1198
 
                raise errors.InconsistentDelta("<unknown>", entry.parent_id,
1199
 
                    "Parent not in inventory.")
 
1151
                raise BzrError("parent_id {%s} not in inventory" %
 
1152
                               entry.parent_id)
 
1153
 
1200
1154
            if entry.name in parent.children:
1201
 
                raise errors.InconsistentDelta(
1202
 
                    self.id2path(parent.children[entry.name].file_id),
1203
 
                    entry.file_id,
1204
 
                    "Path already versioned")
 
1155
                raise BzrError("%s is already versioned" %
 
1156
                        osutils.pathjoin(self.id2path(parent.file_id),
 
1157
                        entry.name).encode('utf-8'))
1205
1158
            parent.children[entry.name] = entry
1206
1159
        return self._add_child(entry)
1207
1160
 
1211
1164
        The immediate parent must already be versioned.
1212
1165
 
1213
1166
        Returns the new entry object."""
1214
 
 
 
1167
        
1215
1168
        parts = osutils.splitpath(relpath)
1216
1169
 
1217
1170
        if len(parts) == 0:
1218
1171
            if file_id is None:
1219
1172
                file_id = generate_ids.gen_root_id()
 
1173
            else:
 
1174
                file_id = osutils.safe_file_id(file_id)
1220
1175
            self.root = InventoryDirectory(file_id, '', None)
1221
1176
            self._byid = {self.root.file_id: self.root}
1222
1177
            return self.root
1228
1183
        ie = make_entry(kind, parts[-1], parent_id, file_id)
1229
1184
        return self.add(ie)
1230
1185
 
1231
 
    def delete(self, file_id):
 
1186
    def __delitem__(self, file_id):
1232
1187
        """Remove entry by id.
1233
1188
 
1234
1189
        >>> inv = Inventory()
1235
 
        >>> inv.add(InventoryFile(b'123', 'foo.c', ROOT_ID))
1236
 
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
1237
 
        >>> inv.has_id(b'123')
 
1190
        >>> inv.add(InventoryFile('123', 'foo.c', ROOT_ID))
 
1191
        InventoryFile('123', 'foo.c', parent_id='TREE_ROOT', sha1=None, len=None)
 
1192
        >>> '123' in inv
1238
1193
        True
1239
 
        >>> inv.delete(b'123')
1240
 
        >>> inv.has_id(b'123')
 
1194
        >>> del inv['123']
 
1195
        >>> '123' in inv
1241
1196
        False
1242
1197
        """
1243
 
        ie = self.get_entry(file_id)
 
1198
        file_id = osutils.safe_file_id(file_id)
 
1199
        ie = self[file_id]
 
1200
 
 
1201
        assert ie.parent_id is None or \
 
1202
            self[ie.parent_id].children[ie.name] == ie
 
1203
        
1244
1204
        del self._byid[file_id]
1245
1205
        if ie.parent_id is not None:
1246
 
            del self.get_entry(ie.parent_id).children[ie.name]
 
1206
            del self[ie.parent_id].children[ie.name]
1247
1207
 
1248
1208
    def __eq__(self, other):
1249
1209
        """Compare two sets by comparing their contents.
1253
1213
        >>> i1 == i2
1254
1214
        True
1255
1215
        >>> i1.add(InventoryFile('123', 'foo', ROOT_ID))
1256
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1216
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
1257
1217
        >>> i1 == i2
1258
1218
        False
1259
1219
        >>> i2.add(InventoryFile('123', 'foo', ROOT_ID))
1260
 
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None, revision=None)
 
1220
        InventoryFile('123', 'foo', parent_id='TREE_ROOT', sha1=None, len=None)
1261
1221
        >>> i1 == i2
1262
1222
        True
1263
1223
        """
1274
1234
 
1275
1235
    def _iter_file_id_parents(self, file_id):
1276
1236
        """Yield the parents of file_id up to the root."""
 
1237
        file_id = osutils.safe_file_id(file_id)
1277
1238
        while file_id is not None:
1278
1239
            try:
1279
1240
                ie = self._byid[file_id]
1282
1243
            yield ie
1283
1244
            file_id = ie.parent_id
1284
1245
 
 
1246
    def get_idpath(self, file_id):
 
1247
        """Return a list of file_ids for the path to an entry.
 
1248
 
 
1249
        The list contains one element for each directory followed by
 
1250
        the id of the file itself.  So the length of the returned list
 
1251
        is equal to the depth of the file in the tree, counting the
 
1252
        root directory as depth 1.
 
1253
        """
 
1254
        file_id = osutils.safe_file_id(file_id)
 
1255
        p = []
 
1256
        for parent in self._iter_file_id_parents(file_id):
 
1257
            p.insert(0, parent.file_id)
 
1258
        return p
 
1259
 
 
1260
    def id2path(self, file_id):
 
1261
        """Return as a string the path to file_id.
 
1262
        
 
1263
        >>> i = Inventory()
 
1264
        >>> e = i.add(InventoryDirectory('src-id', 'src', ROOT_ID))
 
1265
        >>> e = i.add(InventoryFile('foo-id', 'foo.c', parent_id='src-id'))
 
1266
        >>> print i.id2path('foo-id')
 
1267
        src/foo.c
 
1268
        """
 
1269
        file_id = osutils.safe_file_id(file_id)
 
1270
        # get all names, skipping root
 
1271
        return '/'.join(reversed(
 
1272
            [parent.name for parent in 
 
1273
             self._iter_file_id_parents(file_id)][:-1]))
 
1274
            
 
1275
    def path2id(self, name):
 
1276
        """Walk down through directories to return entry of last component.
 
1277
 
 
1278
        names may be either a list of path components, or a single
 
1279
        string, in which case it is automatically split.
 
1280
 
 
1281
        This returns the entry of the last component in the path,
 
1282
        which may be either a file or a directory.
 
1283
 
 
1284
        Returns None IFF the path is not found.
 
1285
        """
 
1286
        if isinstance(name, basestring):
 
1287
            name = osutils.splitpath(name)
 
1288
 
 
1289
        # mutter("lookup path %r" % name)
 
1290
 
 
1291
        parent = self.root
 
1292
        if parent is None:
 
1293
            return None
 
1294
        for f in name:
 
1295
            try:
 
1296
                children = getattr(parent, 'children', None)
 
1297
                if children is None:
 
1298
                    return None
 
1299
                cie = children[f]
 
1300
                assert cie.name == f
 
1301
                assert cie.parent_id == parent.file_id
 
1302
                parent = cie
 
1303
            except KeyError:
 
1304
                # or raise an error?
 
1305
                return None
 
1306
 
 
1307
        return parent.file_id
 
1308
 
 
1309
    def has_filename(self, names):
 
1310
        return bool(self.path2id(names))
 
1311
 
1285
1312
    def has_id(self, file_id):
 
1313
        file_id = osutils.safe_file_id(file_id)
1286
1314
        return (file_id in self._byid)
1287
1315
 
1288
 
    def _make_delta(self, old):
1289
 
        """Make an inventory delta from two inventories."""
1290
 
        old_getter = old.get_entry
1291
 
        new_getter = self.get_entry
1292
 
        old_ids = set(old.iter_all_ids())
1293
 
        new_ids = set(self.iter_all_ids())
1294
 
        adds = new_ids - old_ids
1295
 
        deletes = old_ids - new_ids
1296
 
        if not adds and not deletes:
1297
 
            common = new_ids
1298
 
        else:
1299
 
            common = old_ids.intersection(new_ids)
1300
 
        delta = []
1301
 
        for file_id in deletes:
1302
 
            delta.append((old.id2path(file_id), None, file_id, None))
1303
 
        for file_id in adds:
1304
 
            delta.append((None, self.id2path(file_id), file_id, self.get_entry(file_id)))
1305
 
        for file_id in common:
1306
 
            new_ie = new_getter(file_id)
1307
 
            old_ie = old_getter(file_id)
1308
 
            # If xml_serializer returns the cached InventoryEntries (rather
1309
 
            # than always doing .copy()), inlining the 'is' check saves 2.7M
1310
 
            # calls to __eq__.  Under lsprof this saves 20s => 6s.
1311
 
            # It is a minor improvement without lsprof.
1312
 
            if old_ie is new_ie or old_ie == new_ie:
1313
 
                continue
1314
 
            else:
1315
 
                delta.append((old.id2path(file_id), self.id2path(file_id),
1316
 
                              file_id, new_ie))
1317
 
        return delta
1318
 
 
1319
1316
    def remove_recursive_id(self, file_id):
1320
1317
        """Remove file_id, and children, from the inventory.
1321
 
 
 
1318
        
1322
1319
        :param file_id: A file_id to remove.
1323
1320
        """
 
1321
        file_id = osutils.safe_file_id(file_id)
1324
1322
        to_find_delete = [self._byid[file_id]]
1325
1323
        to_delete = []
1326
1324
        while to_find_delete:
1327
1325
            ie = to_find_delete.pop()
1328
1326
            to_delete.append(ie.file_id)
1329
1327
            if ie.kind == 'directory':
1330
 
                to_find_delete.extend(viewvalues(ie.children))
 
1328
                to_find_delete.extend(ie.children.values())
1331
1329
        for file_id in reversed(to_delete):
1332
 
            ie = self.get_entry(file_id)
 
1330
            ie = self[file_id]
1333
1331
            del self._byid[file_id]
1334
1332
        if ie.parent_id is not None:
1335
 
            del self.get_entry(ie.parent_id).children[ie.name]
 
1333
            del self[ie.parent_id].children[ie.name]
1336
1334
        else:
1337
1335
            self.root = None
1338
1336
 
1343
1341
 
1344
1342
        This does not move the working file.
1345
1343
        """
1346
 
        new_name = ensure_normalized_name(new_name)
 
1344
        file_id = osutils.safe_file_id(file_id)
1347
1345
        if not is_valid_name(new_name):
1348
 
            raise errors.BzrError("not an acceptable filename: %r" % new_name)
 
1346
            raise BzrError("not an acceptable filename: %r" % new_name)
1349
1347
 
1350
1348
        new_parent = self._byid[new_parent_id]
1351
1349
        if new_name in new_parent.children:
1352
 
            raise errors.BzrError("%r already exists in %r" %
1353
 
                (new_name, self.id2path(new_parent_id)))
 
1350
            raise BzrError("%r already exists in %r" % (new_name, self.id2path(new_parent_id)))
1354
1351
 
1355
1352
        new_parent_idpath = self.get_idpath(new_parent_id)
1356
1353
        if file_id in new_parent_idpath:
1357
 
            raise errors.BzrError(
1358
 
                "cannot move directory %r into a subdirectory of itself, %r"
 
1354
            raise BzrError("cannot move directory %r into a subdirectory of itself, %r"
1359
1355
                    % (self.id2path(file_id), self.id2path(new_parent_id)))
1360
1356
 
1361
1357
        file_ie = self._byid[file_id]
1365
1361
 
1366
1362
        del old_parent.children[file_ie.name]
1367
1363
        new_parent.children[new_name] = file_ie
1368
 
 
 
1364
        
1369
1365
        file_ie.name = new_name
1370
1366
        file_ie.parent_id = new_parent_id
1371
1367
 
1372
1368
    def is_root(self, file_id):
 
1369
        file_id = osutils.safe_file_id(file_id)
1373
1370
        return self.root is not None and file_id == self.root.file_id
1374
1371
 
1375
1372
 
1376
 
class CHKInventory(CommonInventory):
1377
 
    """An inventory persisted in a CHK store.
1378
 
 
1379
 
    By design, a CHKInventory is immutable so many of the methods
1380
 
    supported by Inventory - add, rename, apply_delta, etc - are *not*
1381
 
    supported. To create a new CHKInventory, use create_by_apply_delta()
1382
 
    or from_inventory(), say.
1383
 
 
1384
 
    Internally, a CHKInventory has one or two CHKMaps:
1385
 
 
1386
 
    * id_to_entry - a map from (file_id,) => InventoryEntry as bytes
1387
 
    * parent_id_basename_to_file_id - a map from (parent_id, basename_utf8)
1388
 
        => file_id as bytes
1389
 
 
1390
 
    The second map is optional and not present in early CHkRepository's.
1391
 
 
1392
 
    No caching is performed: every method call or item access will perform
1393
 
    requests to the storage layer. As such, keep references to objects you
1394
 
    want to reuse.
1395
 
    """
1396
 
 
1397
 
    def __init__(self, search_key_name):
1398
 
        CommonInventory.__init__(self)
1399
 
        self._fileid_to_entry_cache = {}
1400
 
        self._fully_cached = False
1401
 
        self._path_to_fileid_cache = {}
1402
 
        self._search_key_name = search_key_name
1403
 
        self.root_id = None
1404
 
 
1405
 
    def __eq__(self, other):
1406
 
        """Compare two sets by comparing their contents."""
1407
 
        if not isinstance(other, CHKInventory):
1408
 
            return NotImplemented
1409
 
 
1410
 
        this_key = self.id_to_entry.key()
1411
 
        other_key = other.id_to_entry.key()
1412
 
        this_pid_key = self.parent_id_basename_to_file_id.key()
1413
 
        other_pid_key = other.parent_id_basename_to_file_id.key()
1414
 
        if None in (this_key, this_pid_key, other_key, other_pid_key):
1415
 
            return False
1416
 
        return this_key == other_key and this_pid_key == other_pid_key
1417
 
 
1418
 
    def _entry_to_bytes(self, entry):
1419
 
        """Serialise entry as a single bytestring.
1420
 
 
1421
 
        :param Entry: An inventory entry.
1422
 
        :return: A bytestring for the entry.
1423
 
 
1424
 
        The BNF:
1425
 
        ENTRY ::= FILE | DIR | SYMLINK | TREE
1426
 
        FILE ::= "file: " COMMON SEP SHA SEP SIZE SEP EXECUTABLE
1427
 
        DIR ::= "dir: " COMMON
1428
 
        SYMLINK ::= "symlink: " COMMON SEP TARGET_UTF8
1429
 
        TREE ::= "tree: " COMMON REFERENCE_REVISION
1430
 
        COMMON ::= FILE_ID SEP PARENT_ID SEP NAME_UTF8 SEP REVISION
1431
 
        SEP ::= "\n"
1432
 
        """
1433
 
        if entry.parent_id is not None:
1434
 
            parent_str = entry.parent_id
1435
 
        else:
1436
 
            parent_str = b''
1437
 
        name_str = entry.name.encode("utf8")
1438
 
        if entry.kind == 'file':
1439
 
            if entry.executable:
1440
 
                exec_str = b"Y"
1441
 
            else:
1442
 
                exec_str = b"N"
1443
 
            return b"file: %s\n%s\n%s\n%s\n%s\n%d\n%s" % (
1444
 
                entry.file_id, parent_str, name_str, entry.revision,
1445
 
                entry.text_sha1, entry.text_size, exec_str)
1446
 
        elif entry.kind == 'directory':
1447
 
            return b"dir: %s\n%s\n%s\n%s" % (
1448
 
                entry.file_id, parent_str, name_str, entry.revision)
1449
 
        elif entry.kind == 'symlink':
1450
 
            return b"symlink: %s\n%s\n%s\n%s\n%s" % (
1451
 
                entry.file_id, parent_str, name_str, entry.revision,
1452
 
                entry.symlink_target.encode("utf8"))
1453
 
        elif entry.kind == 'tree-reference':
1454
 
            return b"tree: %s\n%s\n%s\n%s\n%s" % (
1455
 
                entry.file_id, parent_str, name_str, entry.revision,
1456
 
                entry.reference_revision)
1457
 
        else:
1458
 
            raise ValueError("unknown kind %r" % entry.kind)
1459
 
 
1460
 
    def _expand_fileids_to_parents_and_children(self, file_ids):
1461
 
        """Give a more wholistic view starting with the given file_ids.
1462
 
 
1463
 
        For any file_id which maps to a directory, we will include all children
1464
 
        of that directory. We will also include all directories which are
1465
 
        parents of the given file_ids, but we will not include their children.
1466
 
 
1467
 
        eg:
1468
 
          /     # TREE_ROOT
1469
 
          foo/  # foo-id
1470
 
            baz # baz-id
1471
 
            frob/ # frob-id
1472
 
              fringle # fringle-id
1473
 
          bar/  # bar-id
1474
 
            bing # bing-id
1475
 
 
1476
 
        if given [foo-id] we will include
1477
 
            TREE_ROOT as interesting parents
1478
 
        and 
1479
 
            foo-id, baz-id, frob-id, fringle-id
1480
 
        As interesting ids.
1481
 
        """
1482
 
        interesting = set()
1483
 
        # TODO: Pre-pass over the list of fileids to see if anything is already
1484
 
        #       deserialized in self._fileid_to_entry_cache
1485
 
 
1486
 
        directories_to_expand = set()
1487
 
        children_of_parent_id = {}
1488
 
        # It is okay if some of the fileids are missing
1489
 
        for entry in self._getitems(file_ids):
1490
 
            if entry.kind == 'directory':
1491
 
                directories_to_expand.add(entry.file_id)
1492
 
            interesting.add(entry.parent_id)
1493
 
            children_of_parent_id.setdefault(entry.parent_id, set()
1494
 
                                             ).add(entry.file_id)
1495
 
 
1496
 
        # Now, interesting has all of the direct parents, but not the
1497
 
        # parents of those parents. It also may have some duplicates with
1498
 
        # specific_fileids
1499
 
        remaining_parents = interesting.difference(file_ids)
1500
 
        # When we hit the TREE_ROOT, we'll get an interesting parent of None,
1501
 
        # but we don't actually want to recurse into that
1502
 
        interesting.add(None) # this will auto-filter it in the loop
1503
 
        remaining_parents.discard(None) 
1504
 
        while remaining_parents:
1505
 
            next_parents = set()
1506
 
            for entry in self._getitems(remaining_parents):
1507
 
                next_parents.add(entry.parent_id)
1508
 
                children_of_parent_id.setdefault(entry.parent_id, set()
1509
 
                                                 ).add(entry.file_id)
1510
 
            # Remove any search tips we've already processed
1511
 
            remaining_parents = next_parents.difference(interesting)
1512
 
            interesting.update(remaining_parents)
1513
 
            # We should probably also .difference(directories_to_expand)
1514
 
        interesting.update(file_ids)
1515
 
        interesting.discard(None)
1516
 
        while directories_to_expand:
1517
 
            # Expand directories by looking in the
1518
 
            # parent_id_basename_to_file_id map
1519
 
            keys = [StaticTuple(f,).intern() for f in directories_to_expand]
1520
 
            directories_to_expand = set()
1521
 
            items = self.parent_id_basename_to_file_id.iteritems(keys)
1522
 
            next_file_ids = {item[1] for item in items}
1523
 
            next_file_ids = next_file_ids.difference(interesting)
1524
 
            interesting.update(next_file_ids)
1525
 
            for entry in self._getitems(next_file_ids):
1526
 
                if entry.kind == 'directory':
1527
 
                    directories_to_expand.add(entry.file_id)
1528
 
                children_of_parent_id.setdefault(entry.parent_id, set()
1529
 
                                                 ).add(entry.file_id)
1530
 
        return interesting, children_of_parent_id
1531
 
 
1532
 
    def filter(self, specific_fileids):
1533
 
        """Get an inventory view filtered against a set of file-ids.
1534
 
 
1535
 
        Children of directories and parents are included.
1536
 
 
1537
 
        The result may or may not reference the underlying inventory
1538
 
        so it should be treated as immutable.
1539
 
        """
1540
 
        (interesting,
1541
 
         parent_to_children) = self._expand_fileids_to_parents_and_children(
1542
 
                                specific_fileids)
1543
 
        # There is some overlap here, but we assume that all interesting items
1544
 
        # are in the _fileid_to_entry_cache because we had to read them to
1545
 
        # determine if they were a dir we wanted to recurse, or just a file
1546
 
        # This should give us all the entries we'll want to add, so start
1547
 
        # adding
1548
 
        other = Inventory(self.root_id)
1549
 
        other.root.revision = self.root.revision
1550
 
        other.revision_id = self.revision_id
1551
 
        if not interesting or not parent_to_children:
1552
 
            # empty filter, or filtering entrys that don't exist
1553
 
            # (if even 1 existed, then we would have populated
1554
 
            # parent_to_children with at least the tree root.)
1555
 
            return other
1556
 
        cache = self._fileid_to_entry_cache
1557
 
        remaining_children = collections.deque(parent_to_children[self.root_id])
1558
 
        while remaining_children:
1559
 
            file_id = remaining_children.popleft()
1560
 
            ie = cache[file_id]
1561
 
            if ie.kind == 'directory':
1562
 
                ie = ie.copy() # We create a copy to depopulate the .children attribute
1563
 
            # TODO: depending on the uses of 'other' we should probably alwyas
1564
 
            #       '.copy()' to prevent someone from mutating other and
1565
 
            #       invaliding our internal cache
1566
 
            other.add(ie)
1567
 
            if file_id in parent_to_children:
1568
 
                remaining_children.extend(parent_to_children[file_id])
1569
 
        return other
1570
 
 
1571
 
    @staticmethod
1572
 
    def _bytes_to_utf8name_key(data):
1573
 
        """Get the file_id, revision_id key out of data."""
1574
 
        # We don't normally care about name, except for times when we want
1575
 
        # to filter out empty names because of non rich-root...
1576
 
        sections = data.split(b'\n')
1577
 
        kind, file_id = sections[0].split(b': ')
1578
 
        return (sections[2], bytesintern(file_id), bytesintern(sections[3]))
1579
 
 
1580
 
    def _bytes_to_entry(self, bytes):
1581
 
        """Deserialise a serialised entry."""
1582
 
        sections = bytes.split(b'\n')
1583
 
        if sections[0].startswith(b"file: "):
1584
 
            result = InventoryFile(sections[0][6:],
1585
 
                sections[2].decode('utf8'),
1586
 
                sections[1])
1587
 
            result.text_sha1 = sections[4]
1588
 
            result.text_size = int(sections[5])
1589
 
            result.executable = sections[6] == b"Y"
1590
 
        elif sections[0].startswith(b"dir: "):
1591
 
            result = CHKInventoryDirectory(sections[0][5:],
1592
 
                sections[2].decode('utf8'),
1593
 
                sections[1], self)
1594
 
        elif sections[0].startswith(b"symlink: "):
1595
 
            result = InventoryLink(sections[0][9:],
1596
 
                sections[2].decode('utf8'),
1597
 
                sections[1])
1598
 
            result.symlink_target = sections[4].decode('utf8')
1599
 
        elif sections[0].startswith(b"tree: "):
1600
 
            result = TreeReference(sections[0][6:],
1601
 
                sections[2].decode('utf8'),
1602
 
                sections[1])
1603
 
            result.reference_revision = sections[4]
1604
 
        else:
1605
 
            raise ValueError("Not a serialised entry %r" % bytes)
1606
 
        result.file_id = bytesintern(result.file_id)
1607
 
        result.revision = bytesintern(sections[3])
1608
 
        if result.parent_id == b'':
1609
 
            result.parent_id = None
1610
 
        self._fileid_to_entry_cache[result.file_id] = result
1611
 
        return result
1612
 
 
1613
 
    def create_by_apply_delta(self, inventory_delta, new_revision_id,
1614
 
        propagate_caches=False):
1615
 
        """Create a new CHKInventory by applying inventory_delta to this one.
1616
 
 
1617
 
        See the inventory developers documentation for the theory behind
1618
 
        inventory deltas.
1619
 
 
1620
 
        :param inventory_delta: The inventory delta to apply. See
1621
 
            Inventory.apply_delta for details.
1622
 
        :param new_revision_id: The revision id of the resulting CHKInventory.
1623
 
        :param propagate_caches: If True, the caches for this inventory are
1624
 
          copied to and updated for the result.
1625
 
        :return: The new CHKInventory.
1626
 
        """
1627
 
        split = osutils.split
1628
 
        result = CHKInventory(self._search_key_name)
1629
 
        if propagate_caches:
1630
 
            # Just propagate the path-to-fileid cache for now
1631
 
            result._path_to_fileid_cache = self._path_to_fileid_cache.copy()
1632
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1633
 
        self.id_to_entry._ensure_root()
1634
 
        maximum_size = self.id_to_entry._root_node.maximum_size
1635
 
        result.revision_id = new_revision_id
1636
 
        result.id_to_entry = chk_map.CHKMap(
1637
 
            self.id_to_entry._store,
1638
 
            self.id_to_entry.key(),
1639
 
            search_key_func=search_key_func)
1640
 
        result.id_to_entry._ensure_root()
1641
 
        result.id_to_entry._root_node.set_maximum_size(maximum_size)
1642
 
        # Change to apply to the parent_id_basename delta. The dict maps
1643
 
        # (parent_id, basename) -> (old_key, new_value). We use a dict because
1644
 
        # when a path has its id replaced (e.g. the root is changed, or someone
1645
 
        # does bzr mv a b, bzr mv c a, we should output a single change to this
1646
 
        # map rather than two.
1647
 
        parent_id_basename_delta = {}
1648
 
        if self.parent_id_basename_to_file_id is not None:
1649
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1650
 
                self.parent_id_basename_to_file_id._store,
1651
 
                self.parent_id_basename_to_file_id.key(),
1652
 
                search_key_func=search_key_func)
1653
 
            result.parent_id_basename_to_file_id._ensure_root()
1654
 
            self.parent_id_basename_to_file_id._ensure_root()
1655
 
            result_p_id_root = result.parent_id_basename_to_file_id._root_node
1656
 
            p_id_root = self.parent_id_basename_to_file_id._root_node
1657
 
            result_p_id_root.set_maximum_size(p_id_root.maximum_size)
1658
 
            result_p_id_root._key_width = p_id_root._key_width
1659
 
        else:
1660
 
            result.parent_id_basename_to_file_id = None
1661
 
        result.root_id = self.root_id
1662
 
        id_to_entry_delta = []
1663
 
        # inventory_delta is only traversed once, so we just update the
1664
 
        # variable.
1665
 
        # Check for repeated file ids
1666
 
        inventory_delta = _check_delta_unique_ids(inventory_delta)
1667
 
        # Repeated old paths
1668
 
        inventory_delta = _check_delta_unique_old_paths(inventory_delta)
1669
 
        # Check for repeated new paths
1670
 
        inventory_delta = _check_delta_unique_new_paths(inventory_delta)
1671
 
        # Check for entries that don't match the fileid
1672
 
        inventory_delta = _check_delta_ids_match_entry(inventory_delta)
1673
 
        # Check for nonsense fileids
1674
 
        inventory_delta = _check_delta_ids_are_valid(inventory_delta)
1675
 
        # Check for new_path <-> entry consistency
1676
 
        inventory_delta = _check_delta_new_path_entry_both_or_None(
1677
 
            inventory_delta)
1678
 
        # All changed entries need to have their parents be directories and be
1679
 
        # at the right path. This set contains (path, id) tuples.
1680
 
        parents = set()
1681
 
        # When we delete an item, all the children of it must be either deleted
1682
 
        # or altered in their own right. As we batch process the change via
1683
 
        # CHKMap.apply_delta, we build a set of things to use to validate the
1684
 
        # delta.
1685
 
        deletes = set()
1686
 
        altered = set()
1687
 
        for old_path, new_path, file_id, entry in inventory_delta:
1688
 
            # file id changes
1689
 
            if new_path == '':
1690
 
                result.root_id = file_id
1691
 
            if new_path is None:
1692
 
                # Make a delete:
1693
 
                new_key = None
1694
 
                new_value = None
1695
 
                # Update caches
1696
 
                if propagate_caches:
1697
 
                    try:
1698
 
                        del result._path_to_fileid_cache[old_path]
1699
 
                    except KeyError:
1700
 
                        pass
1701
 
                deletes.add(file_id)
1702
 
            else:
1703
 
                new_key = StaticTuple(file_id,)
1704
 
                new_value = result._entry_to_bytes(entry)
1705
 
                # Update caches. It's worth doing this whether
1706
 
                # we're propagating the old caches or not.
1707
 
                result._path_to_fileid_cache[new_path] = file_id
1708
 
                parents.add((split(new_path)[0], entry.parent_id))
1709
 
            if old_path is None:
1710
 
                old_key = None
1711
 
            else:
1712
 
                old_key = StaticTuple(file_id,)
1713
 
                if self.id2path(file_id) != old_path:
1714
 
                    raise errors.InconsistentDelta(old_path, file_id,
1715
 
                        "Entry was at wrong other path %r." %
1716
 
                        self.id2path(file_id))
1717
 
                altered.add(file_id)
1718
 
            id_to_entry_delta.append(StaticTuple(old_key, new_key, new_value))
1719
 
            if result.parent_id_basename_to_file_id is not None:
1720
 
                # parent_id, basename changes
1721
 
                if old_path is None:
1722
 
                    old_key = None
1723
 
                else:
1724
 
                    old_entry = self.get_entry(file_id)
1725
 
                    old_key = self._parent_id_basename_key(old_entry)
1726
 
                if new_path is None:
1727
 
                    new_key = None
1728
 
                    new_value = None
1729
 
                else:
1730
 
                    new_key = self._parent_id_basename_key(entry)
1731
 
                    new_value = file_id
1732
 
                # If the two keys are the same, the value will be unchanged
1733
 
                # as its always the file id for this entry.
1734
 
                if old_key != new_key:
1735
 
                    # Transform a change into explicit delete/add preserving
1736
 
                    # a possible match on the key from a different file id.
1737
 
                    if old_key is not None:
1738
 
                        parent_id_basename_delta.setdefault(
1739
 
                            old_key, [None, None])[0] = old_key
1740
 
                    if new_key is not None:
1741
 
                        parent_id_basename_delta.setdefault(
1742
 
                            new_key, [None, None])[1] = new_value
1743
 
        # validate that deletes are complete.
1744
 
        for file_id in deletes:
1745
 
            entry = self.get_entry(file_id)
1746
 
            if entry.kind != 'directory':
1747
 
                continue
1748
 
            # This loop could potentially be better by using the id_basename
1749
 
            # map to just get the child file ids.
1750
 
            for child in viewvalues(entry.children):
1751
 
                if child.file_id not in altered:
1752
 
                    raise errors.InconsistentDelta(self.id2path(child.file_id),
1753
 
                        child.file_id, "Child not deleted or reparented when "
1754
 
                        "parent deleted.")
1755
 
        result.id_to_entry.apply_delta(id_to_entry_delta)
1756
 
        if parent_id_basename_delta:
1757
 
            # Transform the parent_id_basename delta data into a linear delta
1758
 
            # with only one record for a given key. Optimally this would allow
1759
 
            # re-keying, but its simpler to just output that as a delete+add
1760
 
            # to spend less time calculating the delta.
1761
 
            delta_list = []
1762
 
            for key, (old_key, value) in viewitems(parent_id_basename_delta):
1763
 
                if value is not None:
1764
 
                    delta_list.append((old_key, key, value))
1765
 
                else:
1766
 
                    delta_list.append((old_key, None, None))
1767
 
            result.parent_id_basename_to_file_id.apply_delta(delta_list)
1768
 
        parents.discard(('', None))
1769
 
        for parent_path, parent in parents:
1770
 
            try:
1771
 
                if result.get_entry(parent).kind != 'directory':
1772
 
                    raise errors.InconsistentDelta(result.id2path(parent), parent,
1773
 
                        'Not a directory, but given children')
1774
 
            except errors.NoSuchId:
1775
 
                raise errors.InconsistentDelta("<unknown>", parent,
1776
 
                    "Parent is not present in resulting inventory.")
1777
 
            if result.path2id(parent_path) != parent:
1778
 
                raise errors.InconsistentDelta(parent_path, parent,
1779
 
                    "Parent has wrong path %r." % result.path2id(parent_path))
1780
 
        return result
1781
 
 
1782
 
    @classmethod
1783
 
    def deserialise(klass, chk_store, bytes, expected_revision_id):
1784
 
        """Deserialise a CHKInventory.
1785
 
 
1786
 
        :param chk_store: A CHK capable VersionedFiles instance.
1787
 
        :param bytes: The serialised bytes.
1788
 
        :param expected_revision_id: The revision ID we think this inventory is
1789
 
            for.
1790
 
        :return: A CHKInventory
1791
 
        """
1792
 
        lines = bytes.split(b'\n')
1793
 
        if lines[-1] != b'':
1794
 
            raise AssertionError('bytes to deserialize must end with an eol')
1795
 
        lines.pop()
1796
 
        if lines[0] != b'chkinventory:':
1797
 
            raise ValueError("not a serialised CHKInventory: %r" % bytes)
1798
 
        info = {}
1799
 
        allowed_keys = frozenset((b'root_id', b'revision_id',
1800
 
                                  b'parent_id_basename_to_file_id',
1801
 
                                  b'search_key_name', b'id_to_entry'))
1802
 
        for line in lines[1:]:
1803
 
            key, value = line.split(b': ', 1)
1804
 
            if key not in allowed_keys:
1805
 
                raise errors.BzrError('Unknown key in inventory: %r\n%r'
1806
 
                                      % (key, bytes))
1807
 
            if key in info:
1808
 
                raise errors.BzrError('Duplicate key in inventory: %r\n%r'
1809
 
                                      % (key, bytes))
1810
 
            info[key] = value
1811
 
        revision_id = bytesintern(info[b'revision_id'])
1812
 
        root_id = bytesintern(info[b'root_id'])
1813
 
        search_key_name = bytesintern(info.get(b'search_key_name', b'plain'))
1814
 
        parent_id_basename_to_file_id = bytesintern(info.get(
1815
 
            b'parent_id_basename_to_file_id', None))
1816
 
        if not parent_id_basename_to_file_id.startswith(b'sha1:'):
1817
 
            raise ValueError('parent_id_basename_to_file_id should be a sha1'
1818
 
                             ' key not %r' % (parent_id_basename_to_file_id,))
1819
 
        id_to_entry = info[b'id_to_entry']
1820
 
        if not id_to_entry.startswith(b'sha1:'):
1821
 
            raise ValueError('id_to_entry should be a sha1'
1822
 
                             ' key not %r' % (id_to_entry,))
1823
 
 
1824
 
        result = CHKInventory(search_key_name)
1825
 
        result.revision_id = revision_id
1826
 
        result.root_id = root_id
1827
 
        search_key_func = chk_map.search_key_registry.get(
1828
 
            result._search_key_name)
1829
 
        if parent_id_basename_to_file_id is not None:
1830
 
            result.parent_id_basename_to_file_id = chk_map.CHKMap(
1831
 
                chk_store, StaticTuple(parent_id_basename_to_file_id,),
1832
 
                search_key_func=search_key_func)
1833
 
        else:
1834
 
            result.parent_id_basename_to_file_id = None
1835
 
 
1836
 
        result.id_to_entry = chk_map.CHKMap(chk_store,
1837
 
                                            StaticTuple(id_to_entry,),
1838
 
                                            search_key_func=search_key_func)
1839
 
        if (result.revision_id,) != expected_revision_id:
1840
 
            raise ValueError("Mismatched revision id and expected: %r, %r" %
1841
 
                (result.revision_id, expected_revision_id))
1842
 
        return result
1843
 
 
1844
 
    @classmethod
1845
 
    def from_inventory(klass, chk_store, inventory, maximum_size=0, search_key_name=b'plain'):
1846
 
        """Create a CHKInventory from an existing inventory.
1847
 
 
1848
 
        The content of inventory is copied into the chk_store, and a
1849
 
        CHKInventory referencing that is returned.
1850
 
 
1851
 
        :param chk_store: A CHK capable VersionedFiles instance.
1852
 
        :param inventory: The inventory to copy.
1853
 
        :param maximum_size: The CHKMap node size limit.
1854
 
        :param search_key_name: The identifier for the search key function
1855
 
        """
1856
 
        result = klass(search_key_name)
1857
 
        result.revision_id = inventory.revision_id
1858
 
        result.root_id = inventory.root.file_id
1859
 
 
1860
 
        entry_to_bytes = result._entry_to_bytes
1861
 
        parent_id_basename_key = result._parent_id_basename_key
1862
 
        id_to_entry_dict = {}
1863
 
        parent_id_basename_dict = {}
1864
 
        for path, entry in inventory.iter_entries():
1865
 
            key = StaticTuple(entry.file_id,).intern()
1866
 
            id_to_entry_dict[key] = entry_to_bytes(entry)
1867
 
            p_id_key = parent_id_basename_key(entry)
1868
 
            parent_id_basename_dict[p_id_key] = entry.file_id
1869
 
 
1870
 
        result._populate_from_dicts(chk_store, id_to_entry_dict,
1871
 
            parent_id_basename_dict, maximum_size=maximum_size)
1872
 
        return result
1873
 
 
1874
 
    def _populate_from_dicts(self, chk_store, id_to_entry_dict,
1875
 
                             parent_id_basename_dict, maximum_size):
1876
 
        search_key_func = chk_map.search_key_registry.get(self._search_key_name)
1877
 
        root_key = chk_map.CHKMap.from_dict(chk_store, id_to_entry_dict,
1878
 
                   maximum_size=maximum_size, key_width=1,
1879
 
                   search_key_func=search_key_func)
1880
 
        self.id_to_entry = chk_map.CHKMap(chk_store, root_key,
1881
 
                                          search_key_func)
1882
 
        root_key = chk_map.CHKMap.from_dict(chk_store,
1883
 
                   parent_id_basename_dict,
1884
 
                   maximum_size=maximum_size, key_width=2,
1885
 
                   search_key_func=search_key_func)
1886
 
        self.parent_id_basename_to_file_id = chk_map.CHKMap(chk_store,
1887
 
                                                    root_key, search_key_func)
1888
 
 
1889
 
    def _parent_id_basename_key(self, entry):
1890
 
        """Create a key for a entry in a parent_id_basename_to_file_id index."""
1891
 
        if entry.parent_id is not None:
1892
 
            parent_id = entry.parent_id
1893
 
        else:
1894
 
            parent_id = b''
1895
 
        return StaticTuple(parent_id, entry.name.encode('utf8')).intern()
1896
 
 
1897
 
    def get_entry(self, file_id):
1898
 
        """map a single file_id -> InventoryEntry."""
1899
 
        if file_id is None:
1900
 
            raise errors.NoSuchId(self, file_id)
1901
 
        result = self._fileid_to_entry_cache.get(file_id, None)
1902
 
        if result is not None:
1903
 
            return result
1904
 
        try:
1905
 
            return self._bytes_to_entry(
1906
 
                next(self.id_to_entry.iteritems([StaticTuple(file_id,)]))[1])
1907
 
        except StopIteration:
1908
 
            # really we're passing an inventory, not a tree...
1909
 
            raise errors.NoSuchId(self, file_id)
1910
 
 
1911
 
    def _getitems(self, file_ids):
1912
 
        """Similar to get_entry, but lets you query for multiple.
1913
 
        
1914
 
        The returned order is undefined. And currently if an item doesn't
1915
 
        exist, it isn't included in the output.
1916
 
        """
1917
 
        result = []
1918
 
        remaining = []
1919
 
        for file_id in file_ids:
1920
 
            entry = self._fileid_to_entry_cache.get(file_id, None)
1921
 
            if entry is None:
1922
 
                remaining.append(file_id)
1923
 
            else:
1924
 
                result.append(entry)
1925
 
        file_keys = [StaticTuple(f,).intern() for f in remaining]
1926
 
        for file_key, value in self.id_to_entry.iteritems(file_keys):
1927
 
            entry = self._bytes_to_entry(value)
1928
 
            result.append(entry)
1929
 
            self._fileid_to_entry_cache[entry.file_id] = entry
1930
 
        return result
1931
 
 
1932
 
    def has_id(self, file_id):
1933
 
        # Perhaps have an explicit 'contains' method on CHKMap ?
1934
 
        if self._fileid_to_entry_cache.get(file_id, None) is not None:
1935
 
            return True
1936
 
        return len(list(
1937
 
            self.id_to_entry.iteritems([StaticTuple(file_id,)]))) == 1
1938
 
 
1939
 
    def is_root(self, file_id):
1940
 
        return file_id == self.root_id
1941
 
 
1942
 
    def _iter_file_id_parents(self, file_id):
1943
 
        """Yield the parents of file_id up to the root."""
1944
 
        while file_id is not None:
1945
 
            try:
1946
 
                ie = self.get_entry(file_id)
1947
 
            except KeyError:
1948
 
                raise errors.NoSuchId(tree=self, file_id=file_id)
1949
 
            yield ie
1950
 
            file_id = ie.parent_id
1951
 
 
1952
 
    def iter_all_ids(self):
1953
 
        """Iterate over all file-ids."""
1954
 
        for key, _ in self.id_to_entry.iteritems():
1955
 
            yield key[-1]
1956
 
 
1957
 
    def iter_just_entries(self):
1958
 
        """Iterate over all entries.
1959
 
 
1960
 
        Unlike iter_entries(), just the entries are returned (not (path, ie))
1961
 
        and the order of entries is undefined.
1962
 
 
1963
 
        XXX: We may not want to merge this into bzr.dev.
1964
 
        """
1965
 
        for key, entry in self.id_to_entry.iteritems():
1966
 
            file_id = key[0]
1967
 
            ie = self._fileid_to_entry_cache.get(file_id, None)
1968
 
            if ie is None:
1969
 
                ie = self._bytes_to_entry(entry)
1970
 
                self._fileid_to_entry_cache[file_id] = ie
1971
 
            yield ie
1972
 
 
1973
 
    def _preload_cache(self):
1974
 
        """Make sure all file-ids are in _fileid_to_entry_cache"""
1975
 
        if self._fully_cached:
1976
 
            return # No need to do it again
1977
 
        # The optimal sort order is to use iteritems() directly
1978
 
        cache = self._fileid_to_entry_cache
1979
 
        for key, entry in self.id_to_entry.iteritems():
1980
 
            file_id = key[0]
1981
 
            if file_id not in cache:
1982
 
                ie = self._bytes_to_entry(entry)
1983
 
                cache[file_id] = ie
1984
 
            else:
1985
 
                ie = cache[file_id]
1986
 
        last_parent_id = last_parent_ie = None
1987
 
        pid_items = self.parent_id_basename_to_file_id.iteritems()
1988
 
        for key, child_file_id in pid_items:
1989
 
            if key == (b'', b''): # This is the root
1990
 
                if child_file_id != self.root_id:
1991
 
                    raise ValueError('Data inconsistency detected.'
1992
 
                        ' We expected data with key ("","") to match'
1993
 
                        ' the root id, but %s != %s'
1994
 
                        % (child_file_id, self.root_id))
1995
 
                continue
1996
 
            parent_id, basename = key
1997
 
            ie = cache[child_file_id]
1998
 
            if parent_id == last_parent_id:
1999
 
                parent_ie = last_parent_ie
2000
 
            else:
2001
 
                parent_ie = cache[parent_id]
2002
 
            if parent_ie.kind != 'directory':
2003
 
                raise ValueError('Data inconsistency detected.'
2004
 
                    ' An entry in the parent_id_basename_to_file_id map'
2005
 
                    ' has parent_id {%s} but the kind of that object'
2006
 
                    ' is %r not "directory"' % (parent_id, parent_ie.kind))
2007
 
            if parent_ie._children is None:
2008
 
                parent_ie._children = {}
2009
 
            basename = basename.decode('utf-8')
2010
 
            if basename in parent_ie._children:
2011
 
                existing_ie = parent_ie._children[basename]
2012
 
                if existing_ie != ie:
2013
 
                    raise ValueError('Data inconsistency detected.'
2014
 
                        ' Two entries with basename %r were found'
2015
 
                        ' in the parent entry {%s}'
2016
 
                        % (basename, parent_id))
2017
 
            if basename != ie.name:
2018
 
                raise ValueError('Data inconsistency detected.'
2019
 
                    ' In the parent_id_basename_to_file_id map, file_id'
2020
 
                    ' {%s} is listed as having basename %r, but in the'
2021
 
                    ' id_to_entry map it is %r'
2022
 
                    % (child_file_id, basename, ie.name))
2023
 
            parent_ie._children[basename] = ie
2024
 
        self._fully_cached = True
2025
 
 
2026
 
    def iter_changes(self, basis):
2027
 
        """Generate a Tree.iter_changes change list between this and basis.
2028
 
 
2029
 
        :param basis: Another CHKInventory.
2030
 
        :return: An iterator over the changes between self and basis, as per
2031
 
            tree.iter_changes().
2032
 
        """
2033
 
        # We want: (file_id, (path_in_source, path_in_target),
2034
 
        # changed_content, versioned, parent, name, kind,
2035
 
        # executable)
2036
 
        for key, basis_value, self_value in \
2037
 
            self.id_to_entry.iter_changes(basis.id_to_entry):
2038
 
            file_id = key[0]
2039
 
            if basis_value is not None:
2040
 
                basis_entry = basis._bytes_to_entry(basis_value)
2041
 
                path_in_source = basis.id2path(file_id)
2042
 
                basis_parent = basis_entry.parent_id
2043
 
                basis_name = basis_entry.name
2044
 
                basis_executable = basis_entry.executable
2045
 
            else:
2046
 
                path_in_source = None
2047
 
                basis_parent = None
2048
 
                basis_name = None
2049
 
                basis_executable = None
2050
 
            if self_value is not None:
2051
 
                self_entry = self._bytes_to_entry(self_value)
2052
 
                path_in_target = self.id2path(file_id)
2053
 
                self_parent = self_entry.parent_id
2054
 
                self_name = self_entry.name
2055
 
                self_executable = self_entry.executable
2056
 
            else:
2057
 
                path_in_target = None
2058
 
                self_parent = None
2059
 
                self_name = None
2060
 
                self_executable = None
2061
 
            if basis_value is None:
2062
 
                # add
2063
 
                kind = (None, self_entry.kind)
2064
 
                versioned = (False, True)
2065
 
            elif self_value is None:
2066
 
                # delete
2067
 
                kind = (basis_entry.kind, None)
2068
 
                versioned = (True, False)
2069
 
            else:
2070
 
                kind = (basis_entry.kind, self_entry.kind)
2071
 
                versioned = (True, True)
2072
 
            changed_content = False
2073
 
            if kind[0] != kind[1]:
2074
 
                changed_content = True
2075
 
            elif kind[0] == 'file':
2076
 
                if (self_entry.text_size != basis_entry.text_size or
2077
 
                    self_entry.text_sha1 != basis_entry.text_sha1):
2078
 
                    changed_content = True
2079
 
            elif kind[0] == 'symlink':
2080
 
                if self_entry.symlink_target != basis_entry.symlink_target:
2081
 
                    changed_content = True
2082
 
            elif kind[0] == 'tree-reference':
2083
 
                if (self_entry.reference_revision !=
2084
 
                    basis_entry.reference_revision):
2085
 
                    changed_content = True
2086
 
            parent = (basis_parent, self_parent)
2087
 
            name = (basis_name, self_name)
2088
 
            executable = (basis_executable, self_executable)
2089
 
            if (not changed_content
2090
 
                and parent[0] == parent[1]
2091
 
                and name[0] == name[1]
2092
 
                and executable[0] == executable[1]):
2093
 
                # Could happen when only the revision changed for a directory
2094
 
                # for instance.
2095
 
                continue
2096
 
            yield (file_id, (path_in_source, path_in_target), changed_content,
2097
 
                versioned, parent, name, kind, executable)
2098
 
 
2099
 
    def __len__(self):
2100
 
        """Return the number of entries in the inventory."""
2101
 
        return len(self.id_to_entry)
2102
 
 
2103
 
    def _make_delta(self, old):
2104
 
        """Make an inventory delta from two inventories."""
2105
 
        if not isinstance(old, CHKInventory):
2106
 
            return CommonInventory._make_delta(self, old)
2107
 
        delta = []
2108
 
        for key, old_value, self_value in \
2109
 
            self.id_to_entry.iter_changes(old.id_to_entry):
2110
 
            file_id = key[0]
2111
 
            if old_value is not None:
2112
 
                old_path = old.id2path(file_id)
2113
 
            else:
2114
 
                old_path = None
2115
 
            if self_value is not None:
2116
 
                entry = self._bytes_to_entry(self_value)
2117
 
                self._fileid_to_entry_cache[file_id] = entry
2118
 
                new_path = self.id2path(file_id)
2119
 
            else:
2120
 
                entry = None
2121
 
                new_path = None
2122
 
            delta.append((old_path, new_path, file_id, entry))
2123
 
        return delta
2124
 
 
2125
 
    def path2id(self, relpath):
2126
 
        """See CommonInventory.path2id()."""
2127
 
        # TODO: perhaps support negative hits?
2128
 
        if isinstance(relpath, (str, text_type)):
2129
 
            names = osutils.splitpath(relpath)
2130
 
        else:
2131
 
            names = relpath
2132
 
            if relpath == []:
2133
 
                relpath = [""]
2134
 
            relpath = osutils.pathjoin(*relpath)
2135
 
        result = self._path_to_fileid_cache.get(relpath, None)
2136
 
        if result is not None:
2137
 
            return result
2138
 
        current_id = self.root_id
2139
 
        if current_id is None:
2140
 
            return None
2141
 
        parent_id_index = self.parent_id_basename_to_file_id
2142
 
        cur_path = None
2143
 
        for basename in names:
2144
 
            if cur_path is None:
2145
 
                cur_path = basename
2146
 
            else:
2147
 
                cur_path = cur_path + '/' + basename
2148
 
            basename_utf8 = basename.encode('utf8')
2149
 
            file_id = self._path_to_fileid_cache.get(cur_path, None)
2150
 
            if file_id is None:
2151
 
                key_filter = [StaticTuple(current_id, basename_utf8)]
2152
 
                items = parent_id_index.iteritems(key_filter)
2153
 
                for (parent_id, name_utf8), file_id in items:
2154
 
                    if parent_id != current_id or name_utf8 != basename_utf8:
2155
 
                        raise errors.BzrError("corrupt inventory lookup! "
2156
 
                            "%r %r %r %r" % (parent_id, current_id, name_utf8,
2157
 
                            basename_utf8))
2158
 
                if file_id is None:
2159
 
                    return None
2160
 
                else:
2161
 
                    self._path_to_fileid_cache[cur_path] = file_id
2162
 
            current_id = file_id
2163
 
        return current_id
2164
 
 
2165
 
    def to_lines(self):
2166
 
        """Serialise the inventory to lines."""
2167
 
        lines = [b"chkinventory:\n"]
2168
 
        if self._search_key_name != b'plain':
2169
 
            # custom ordering grouping things that don't change together
2170
 
            lines.append(b'search_key_name: %s\n' % (
2171
 
                self._search_key_name))
2172
 
            lines.append(b"root_id: %s\n" % self.root_id)
2173
 
            lines.append(b'parent_id_basename_to_file_id: %s\n' %
2174
 
                (self.parent_id_basename_to_file_id.key()[0],))
2175
 
            lines.append(b"revision_id: %s\n" % self.revision_id)
2176
 
            lines.append(b"id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2177
 
        else:
2178
 
            lines.append(b"revision_id: %s\n" % self.revision_id)
2179
 
            lines.append(b"root_id: %s\n" % self.root_id)
2180
 
            if self.parent_id_basename_to_file_id is not None:
2181
 
                lines.append(b'parent_id_basename_to_file_id: %s\n' %
2182
 
                    (self.parent_id_basename_to_file_id.key()[0],))
2183
 
            lines.append(b"id_to_entry: %s\n" % (self.id_to_entry.key()[0],))
2184
 
        return lines
2185
 
 
2186
 
    @property
2187
 
    def root(self):
2188
 
        """Get the root entry."""
2189
 
        return self.get_entry(self.root_id)
2190
 
 
2191
 
 
2192
 
class CHKInventoryDirectory(InventoryDirectory):
2193
 
    """A directory in an inventory."""
2194
 
 
2195
 
    __slots__ = ['_children', '_chk_inventory']
2196
 
 
2197
 
    def __init__(self, file_id, name, parent_id, chk_inventory):
2198
 
        # Don't call InventoryDirectory.__init__ - it isn't right for this
2199
 
        # class.
2200
 
        InventoryEntry.__init__(self, file_id, name, parent_id)
2201
 
        self._children = None
2202
 
        self._chk_inventory = chk_inventory
2203
 
 
2204
 
    @property
2205
 
    def children(self):
2206
 
        """Access the list of children of this directory.
2207
 
 
2208
 
        With a parent_id_basename_to_file_id index, loads all the children,
2209
 
        without loads the entire index. Without is bad. A more sophisticated
2210
 
        proxy object might be nice, to allow partial loading of children as
2211
 
        well when specific names are accessed. (So path traversal can be
2212
 
        written in the obvious way but not examine siblings.).
2213
 
        """
2214
 
        if self._children is not None:
2215
 
            return self._children
2216
 
        # No longer supported
2217
 
        if self._chk_inventory.parent_id_basename_to_file_id is None:
2218
 
            raise AssertionError("Inventories without"
2219
 
                " parent_id_basename_to_file_id are no longer supported")
2220
 
        result = {}
2221
 
        # XXX: Todo - use proxy objects for the children rather than loading
2222
 
        # all when the attribute is referenced.
2223
 
        parent_id_index = self._chk_inventory.parent_id_basename_to_file_id
2224
 
        child_keys = set()
2225
 
        for (parent_id, name_utf8), file_id in parent_id_index.iteritems(
2226
 
            key_filter=[StaticTuple(self.file_id,)]):
2227
 
            child_keys.add(StaticTuple(file_id,))
2228
 
        cached = set()
2229
 
        for file_id_key in child_keys:
2230
 
            entry = self._chk_inventory._fileid_to_entry_cache.get(
2231
 
                file_id_key[0], None)
2232
 
            if entry is not None:
2233
 
                result[entry.name] = entry
2234
 
                cached.add(file_id_key)
2235
 
        child_keys.difference_update(cached)
2236
 
        # populate; todo: do by name
2237
 
        id_to_entry = self._chk_inventory.id_to_entry
2238
 
        for file_id_key, bytes in id_to_entry.iteritems(child_keys):
2239
 
            entry = self._chk_inventory._bytes_to_entry(bytes)
2240
 
            result[entry.name] = entry
2241
 
            self._chk_inventory._fileid_to_entry_cache[file_id_key[0]] = entry
2242
 
        self._children = result
2243
 
        return result
2244
 
 
2245
1373
entry_factory = {
2246
1374
    'directory': InventoryDirectory,
2247
1375
    'file': InventoryFile,
2259
1387
    """
2260
1388
    if file_id is None:
2261
1389
        file_id = generate_ids.gen_file_id(name)
2262
 
    name = ensure_normalized_name(name)
2263
 
    try:
2264
 
        factory = entry_factory[kind]
2265
 
    except KeyError:
2266
 
        raise errors.BadFileKindError(name, kind)
2267
 
    return factory(file_id, name, parent_id)
2268
 
 
2269
 
 
2270
 
def ensure_normalized_name(name):
2271
 
    """Normalize name.
2272
 
 
2273
 
    :raises InvalidNormalization: When name is not normalized, and cannot be
2274
 
        accessed on this platform by the normalized path.
2275
 
    :return: The NFC normalised version of name.
2276
 
    """
2277
 
    #------- This has been copied to breezy.dirstate.DirState.add, please
 
1390
    else:
 
1391
        file_id = osutils.safe_file_id(file_id)
 
1392
 
 
1393
    #------- This has been copied to bzrlib.dirstate.DirState.add, please
2278
1394
    # keep them synchronised.
2279
1395
    # we dont import normalized_filename directly because we want to be
2280
1396
    # able to change the implementation at runtime for tests.
2281
1397
    norm_name, can_access = osutils.normalized_filename(name)
2282
1398
    if norm_name != name:
2283
1399
        if can_access:
2284
 
            return norm_name
 
1400
            name = norm_name
2285
1401
        else:
2286
1402
            # TODO: jam 20060701 This would probably be more useful
2287
1403
            #       if the error was raised with the full path
2288
1404
            raise errors.InvalidNormalization(name)
2289
 
    return name
2290
 
 
2291
 
 
2292
 
_NAME_RE = lazy_regex.lazy_compile(r'^[^/\\]+$')
 
1405
 
 
1406
    try:
 
1407
        factory = entry_factory[kind]
 
1408
    except KeyError:
 
1409
        raise BzrError("unknown kind %r" % kind)
 
1410
    return factory(file_id, name, parent_id)
 
1411
 
 
1412
 
 
1413
_NAME_RE = None
2293
1414
 
2294
1415
def is_valid_name(name):
 
1416
    global _NAME_RE
 
1417
    if _NAME_RE is None:
 
1418
        _NAME_RE = re.compile(r'^[^/\\]+$')
 
1419
        
2295
1420
    return bool(_NAME_RE.match(name))
2296
 
 
2297
 
 
2298
 
def _check_delta_unique_ids(delta):
2299
 
    """Decorate a delta and check that the file ids in it are unique.
2300
 
 
2301
 
    :return: A generator over delta.
2302
 
    """
2303
 
    ids = set()
2304
 
    for item in delta:
2305
 
        length = len(ids) + 1
2306
 
        ids.add(item[2])
2307
 
        if len(ids) != length:
2308
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2309
 
                "repeated file_id")
2310
 
        yield item
2311
 
 
2312
 
 
2313
 
def _check_delta_unique_new_paths(delta):
2314
 
    """Decorate a delta and check that the new paths in it are unique.
2315
 
 
2316
 
    :return: A generator over delta.
2317
 
    """
2318
 
    paths = set()
2319
 
    for item in delta:
2320
 
        length = len(paths) + 1
2321
 
        path = item[1]
2322
 
        if path is not None:
2323
 
            paths.add(path)
2324
 
            if len(paths) != length:
2325
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2326
 
        yield item
2327
 
 
2328
 
 
2329
 
def _check_delta_unique_old_paths(delta):
2330
 
    """Decorate a delta and check that the old paths in it are unique.
2331
 
 
2332
 
    :return: A generator over delta.
2333
 
    """
2334
 
    paths = set()
2335
 
    for item in delta:
2336
 
        length = len(paths) + 1
2337
 
        path = item[0]
2338
 
        if path is not None:
2339
 
            paths.add(path)
2340
 
            if len(paths) != length:
2341
 
                raise errors.InconsistentDelta(path, item[2], "repeated path")
2342
 
        yield item
2343
 
 
2344
 
 
2345
 
def _check_delta_ids_are_valid(delta):
2346
 
    """Decorate a delta and check that the ids in it are valid.
2347
 
 
2348
 
    :return: A generator over delta.
2349
 
    """
2350
 
    for item in delta:
2351
 
        entry = item[3]
2352
 
        if item[2] is None:
2353
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2354
 
                "entry with file_id None %r" % entry)
2355
 
        if not isinstance(item[2], bytes):
2356
 
            raise errors.InconsistentDelta(item[0] or item[1], item[2],
2357
 
                "entry with non bytes file_id %r" % entry)
2358
 
        yield item
2359
 
 
2360
 
 
2361
 
def _check_delta_ids_match_entry(delta):
2362
 
    """Decorate a delta and check that the ids in it match the entry.file_id.
2363
 
 
2364
 
    :return: A generator over delta.
2365
 
    """
2366
 
    for item in delta:
2367
 
        entry = item[3]
2368
 
        if entry is not None:
2369
 
            if entry.file_id != item[2]:
2370
 
                raise errors.InconsistentDelta(item[0] or item[1], item[2],
2371
 
                    "mismatched id with %r" % entry)
2372
 
        yield item
2373
 
 
2374
 
 
2375
 
def _check_delta_new_path_entry_both_or_None(delta):
2376
 
    """Decorate a delta and check that the new_path and entry are paired.
2377
 
 
2378
 
    :return: A generator over delta.
2379
 
    """
2380
 
    for item in delta:
2381
 
        new_path = item[1]
2382
 
        entry = item[3]
2383
 
        if new_path is None and entry is not None:
2384
 
            raise errors.InconsistentDelta(item[0], item[1],
2385
 
                "Entry with no new_path")
2386
 
        if new_path is not None and entry is None:
2387
 
            raise errors.InconsistentDelta(new_path, item[1],
2388
 
                "new_path with no entry")
2389
 
        yield item
2390
 
 
2391
 
 
2392
 
def mutable_inventory_from_tree(tree):
2393
 
    """Create a new inventory that has the same contents as a specified tree.
2394
 
 
2395
 
    :param tree: Revision tree to create inventory from
2396
 
    """
2397
 
    entries = tree.iter_entries_by_dir()
2398
 
    inv = Inventory(None, tree.get_revision_id())
2399
 
    for path, inv_entry in entries:
2400
 
        inv.add(inv_entry.copy())
2401
 
    return inv