/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/tree.py

  • Committer: John Arbash Meinel
  • Date: 2008-08-01 17:48:30 UTC
  • mto: This revision was merged to the branch mainline in revision 3600.
  • Revision ID: john@arbash-meinel.com-20080801174830-xyg2tor1j4zjklpj
One code path was using a tuple, another a plain path
we need to support *both*. Relatively simple fix after that.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
1
# Copyright (C) 2005 Canonical Ltd
2
 
 
 
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
 
 
7
#
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
 
 
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
18
18
"""
19
19
 
20
20
import os
 
21
from collections import deque
 
22
from cStringIO import StringIO
21
23
 
22
24
import bzrlib
 
25
from bzrlib import (
 
26
    delta,
 
27
    osutils,
 
28
    revision as _mod_revision,
 
29
    conflicts as _mod_conflicts,
 
30
    symbol_versioning,
 
31
    )
 
32
from bzrlib.decorators import needs_read_lock
 
33
from bzrlib.errors import BzrError, BzrCheckError
 
34
from bzrlib import errors
 
35
from bzrlib.inventory import Inventory, InventoryFile
 
36
from bzrlib.inter import InterObject
 
37
from bzrlib.osutils import fingerprint_file
 
38
import bzrlib.revision
23
39
from bzrlib.trace import mutter, note
24
 
from bzrlib.errors import BzrError
25
 
from bzrlib.inventory import Inventory
26
 
from bzrlib.osutils import pumpfile, appendpath, fingerprint_file
27
 
 
28
 
 
29
 
exporters = {}
 
40
 
30
41
 
31
42
class Tree(object):
32
43
    """Abstract file tree.
37
48
 
38
49
    * `RevisionTree` is a tree as recorded at some point in the past.
39
50
 
40
 
    * `EmptyTree`
41
 
 
42
51
    Trees contain an `Inventory` object, and also know how to retrieve
43
52
    file texts mentioned in the inventory, either from a working
44
53
    directory or from a store.
50
59
    trees or versioned trees.
51
60
    """
52
61
    
 
62
    def changes_from(self, other, want_unchanged=False, specific_files=None,
 
63
        extra_trees=None, require_versioned=False, include_root=False,
 
64
        want_unversioned=False):
 
65
        """Return a TreeDelta of the changes from other to this tree.
 
66
 
 
67
        :param other: A tree to compare with.
 
68
        :param specific_files: An optional list of file paths to restrict the
 
69
            comparison to. When mapping filenames to ids, all matches in all
 
70
            trees (including optional extra_trees) are used, and all children of
 
71
            matched directories are included.
 
72
        :param want_unchanged: An optional boolean requesting the inclusion of
 
73
            unchanged entries in the result.
 
74
        :param extra_trees: An optional list of additional trees to use when
 
75
            mapping the contents of specific_files (paths) to file_ids.
 
76
        :param require_versioned: An optional boolean (defaults to False). When
 
77
            supplied and True all the 'specific_files' must be versioned, or
 
78
            a PathsNotVersionedError will be thrown.
 
79
        :param want_unversioned: Scan for unversioned paths.
 
80
 
 
81
        The comparison will be performed by an InterTree object looked up on 
 
82
        self and other.
 
83
        """
 
84
        # Martin observes that Tree.changes_from returns a TreeDelta and this
 
85
        # may confuse people, because the class name of the returned object is
 
86
        # a synonym of the object referenced in the method name.
 
87
        return InterTree.get(other, self).compare(
 
88
            want_unchanged=want_unchanged,
 
89
            specific_files=specific_files,
 
90
            extra_trees=extra_trees,
 
91
            require_versioned=require_versioned,
 
92
            include_root=include_root,
 
93
            want_unversioned=want_unversioned,
 
94
            )
 
95
 
 
96
    @symbol_versioning.deprecated_method(symbol_versioning.one_three)
 
97
    def _iter_changes(self, *args, **kwargs):
 
98
        return self.iter_changes(*args, **kwargs)
 
99
 
 
100
    def iter_changes(self, from_tree, include_unchanged=False,
 
101
                     specific_files=None, pb=None, extra_trees=None,
 
102
                     require_versioned=True, want_unversioned=False):
 
103
        intertree = InterTree.get(from_tree, self)
 
104
        return intertree.iter_changes(include_unchanged, specific_files, pb,
 
105
            extra_trees, require_versioned, want_unversioned=want_unversioned)
 
106
    
 
107
    def conflicts(self):
 
108
        """Get a list of the conflicts in the tree.
 
109
 
 
110
        Each conflict is an instance of bzrlib.conflicts.Conflict.
 
111
        """
 
112
        return _mod_conflicts.ConflictList()
 
113
 
 
114
    def extras(self):
 
115
        """For trees that can have unversioned files, return all such paths."""
 
116
        return []
 
117
 
 
118
    def get_parent_ids(self):
 
119
        """Get the parent ids for this tree. 
 
120
 
 
121
        :return: a list of parent ids. [] is returned to indicate
 
122
        a tree with no parents.
 
123
        :raises: BzrError if the parents are not known.
 
124
        """
 
125
        raise NotImplementedError(self.get_parent_ids)
 
126
    
53
127
    def has_filename(self, filename):
54
128
        """True if the tree has given filename."""
55
 
        raise NotImplementedError()
 
129
        raise NotImplementedError(self.has_filename)
56
130
 
57
131
    def has_id(self, file_id):
58
132
        return self.inventory.has_id(file_id)
59
133
 
60
134
    __contains__ = has_id
61
135
 
 
136
    def has_or_had_id(self, file_id):
 
137
        if file_id == self.inventory.root.file_id:
 
138
            return True
 
139
        return self.inventory.has_id(file_id)
 
140
 
 
141
    def is_ignored(self, filename):
 
142
        """Check whether the filename is ignored by this tree.
 
143
 
 
144
        :param filename: The relative filename within the tree.
 
145
        :return: True if the filename is ignored.
 
146
        """
 
147
        return False
 
148
 
62
149
    def __iter__(self):
63
150
        return iter(self.inventory)
64
151
 
 
152
    def all_file_ids(self):
 
153
        """Iterate through all file ids, including ids for missing files."""
 
154
        return set(self.inventory)
 
155
 
65
156
    def id2path(self, file_id):
 
157
        """Return the path for a file id.
 
158
 
 
159
        :raises NoSuchId:
 
160
        """
66
161
        return self.inventory.id2path(file_id)
67
162
 
 
163
    def is_control_filename(self, filename):
 
164
        """True if filename is the name of a control file in this tree.
 
165
        
 
166
        :param filename: A filename within the tree. This is a relative path
 
167
        from the root of this tree.
 
168
 
 
169
        This is true IF and ONLY IF the filename is part of the meta data
 
170
        that bzr controls in this tree. I.E. a random .bzr directory placed
 
171
        on disk will not be a control file for this tree.
 
172
        """
 
173
        return self.bzrdir.is_control_filename(filename)
 
174
 
 
175
    @needs_read_lock
 
176
    def iter_entries_by_dir(self, specific_file_ids=None):
 
177
        """Walk the tree in 'by_dir' order.
 
178
 
 
179
        This will yield each entry in the tree as a (path, entry) tuple. The
 
180
        order that they are yielded is: the contents of a directory are 
 
181
        preceeded by the parent of a directory, and all the contents of a 
 
182
        directory are grouped together.
 
183
        """
 
184
        return self.inventory.iter_entries_by_dir(
 
185
            specific_file_ids=specific_file_ids)
 
186
 
 
187
    def iter_references(self):
 
188
        for path, entry in self.iter_entries_by_dir():
 
189
            if entry.kind == 'tree-reference':
 
190
                yield path, entry.file_id
 
191
 
 
192
    def kind(self, file_id):
 
193
        raise NotImplementedError("Tree subclass %s must implement kind"
 
194
            % self.__class__.__name__)
 
195
 
 
196
    def stored_kind(self, file_id):
 
197
        """File kind stored for this file_id.
 
198
 
 
199
        May not match kind on disk for working trees.  Always available
 
200
        for versioned files, even when the file itself is missing.
 
201
        """
 
202
        return self.kind(file_id)
 
203
 
 
204
    def path_content_summary(self, path):
 
205
        """Get a summary of the information about path.
 
206
        
 
207
        :param path: A relative path within the tree.
 
208
        :return: A tuple containing kind, size, exec, sha1-or-link.
 
209
            Kind is always present (see tree.kind()).
 
210
            size is present if kind is file, None otherwise.
 
211
            exec is None unless kind is file and the platform supports the 'x'
 
212
                bit.
 
213
            sha1-or-link is the link target if kind is symlink, or the sha1 if
 
214
                it can be obtained without reading the file.
 
215
        """
 
216
        raise NotImplementedError(self.path_content_summary)
 
217
 
 
218
    def get_reference_revision(self, file_id, path=None):
 
219
        raise NotImplementedError("Tree subclass %s must implement "
 
220
                                  "get_reference_revision"
 
221
            % self.__class__.__name__)
 
222
 
 
223
    def _comparison_data(self, entry, path):
 
224
        """Return a tuple of kind, executable, stat_value for a file.
 
225
 
 
226
        entry may be None if there is no inventory entry for the file, but
 
227
        path must always be supplied.
 
228
 
 
229
        kind is None if there is no file present (even if an inventory id is
 
230
        present).  executable is False for non-file entries.
 
231
        """
 
232
        raise NotImplementedError(self._comparison_data)
 
233
 
 
234
    def _file_size(self, entry, stat_value):
 
235
        raise NotImplementedError(self._file_size)
 
236
 
68
237
    def _get_inventory(self):
69
238
        return self._inventory
70
239
    
 
240
    def get_file(self, file_id, path=None):
 
241
        """Return a file object for the file file_id in the tree.
 
242
        
 
243
        If both file_id and path are defined, it is implementation defined as
 
244
        to which one is used.
 
245
        """
 
246
        raise NotImplementedError(self.get_file)
 
247
 
 
248
    def get_file_mtime(self, file_id, path=None):
 
249
        """Return the modification time for a file.
 
250
 
 
251
        :param file_id: The handle for this file.
 
252
        :param path: The path that this file can be found at.
 
253
            These must point to the same object.
 
254
        """
 
255
        raise NotImplementedError(self.get_file_mtime)
 
256
 
 
257
    def get_file_size(self, file_id):
 
258
        """Return the size of a file in bytes.
 
259
 
 
260
        This applies only to regular files.  If invoked on directories or
 
261
        symlinks, it will return None.
 
262
        :param file_id: The file-id of the file
 
263
        """
 
264
        raise NotImplementedError(self.get_file_size)
 
265
 
71
266
    def get_file_by_path(self, path):
72
 
        return self.get_file(self._inventory.path2id(path))
 
267
        return self.get_file(self._inventory.path2id(path), path)
 
268
 
 
269
    def iter_files_bytes(self, desired_files):
 
270
        """Iterate through file contents.
 
271
 
 
272
        Files will not necessarily be returned in the order they occur in
 
273
        desired_files.  No specific order is guaranteed.
 
274
 
 
275
        Yields pairs of identifier, bytes_iterator.  identifier is an opaque
 
276
        value supplied by the caller as part of desired_files.  It should
 
277
        uniquely identify the file version in the caller's context.  (Examples:
 
278
        an index number or a TreeTransform trans_id.)
 
279
 
 
280
        bytes_iterator is an iterable of bytestrings for the file.  The
 
281
        kind of iterable and length of the bytestrings are unspecified, but for
 
282
        this implementation, it is a tuple containing a single bytestring with
 
283
        the complete text of the file.
 
284
 
 
285
        :param desired_files: a list of (file_id, identifier) pairs
 
286
        """
 
287
        for file_id, identifier in desired_files:
 
288
            # We wrap the string in a tuple so that we can return an iterable
 
289
            # of bytestrings.  (Technically, a bytestring is also an iterable
 
290
            # of bytestrings, but iterating through each character is not
 
291
            # performant.)
 
292
            cur_file = (self.get_file_text(file_id),)
 
293
            yield identifier, cur_file
 
294
 
 
295
    def get_symlink_target(self, file_id):
 
296
        """Get the target for a given file_id.
 
297
 
 
298
        It is assumed that the caller already knows that file_id is referencing
 
299
        a symlink.
 
300
        :param file_id: Handle for the symlink entry.
 
301
        :return: The path the symlink points to.
 
302
        """
 
303
        raise NotImplementedError(self.get_symlink_target)
 
304
 
 
305
    def get_root_id(self):
 
306
        """Return the file_id for the root of this tree."""
 
307
        raise NotImplementedError(self.get_root_id)
 
308
 
 
309
    def annotate_iter(self, file_id,
 
310
                      default_revision=_mod_revision.CURRENT_REVISION):
 
311
        """Return an iterator of revision_id, line tuples.
 
312
 
 
313
        For working trees (and mutable trees in general), the special
 
314
        revision_id 'current:' will be used for lines that are new in this
 
315
        tree, e.g. uncommitted changes.
 
316
        :param file_id: The file to produce an annotated version from
 
317
        :param default_revision: For lines that don't match a basis, mark them
 
318
            with this revision id. Not all implementations will make use of
 
319
            this value.
 
320
        """
 
321
        raise NotImplementedError(self.annotate_iter)
 
322
 
 
323
    def _get_plan_merge_data(self, file_id, other, base):
 
324
        from bzrlib import merge, versionedfile
 
325
        vf = versionedfile._PlanMergeVersionedFile(file_id)
 
326
        last_revision_a = self._get_file_revision(file_id, vf, 'this:')
 
327
        last_revision_b = other._get_file_revision(file_id, vf, 'other:')
 
328
        if base is None:
 
329
            last_revision_base = None
 
330
        else:
 
331
            last_revision_base = base._get_file_revision(file_id, vf, 'base:')
 
332
        return vf, last_revision_a, last_revision_b, last_revision_base
 
333
 
 
334
    def plan_file_merge(self, file_id, other, base=None):
 
335
        """Generate a merge plan based on annotations.
 
336
 
 
337
        If the file contains uncommitted changes in this tree, they will be
 
338
        attributed to the 'current:' pseudo-revision.  If the file contains
 
339
        uncommitted changes in the other tree, they will be assigned to the
 
340
        'other:' pseudo-revision.
 
341
        """
 
342
        data = self._get_plan_merge_data(file_id, other, base)
 
343
        vf, last_revision_a, last_revision_b, last_revision_base = data
 
344
        return vf.plan_merge(last_revision_a, last_revision_b,
 
345
                             last_revision_base)
 
346
 
 
347
    def plan_file_lca_merge(self, file_id, other, base=None):
 
348
        """Generate a merge plan based lca-newness.
 
349
 
 
350
        If the file contains uncommitted changes in this tree, they will be
 
351
        attributed to the 'current:' pseudo-revision.  If the file contains
 
352
        uncommitted changes in the other tree, they will be assigned to the
 
353
        'other:' pseudo-revision.
 
354
        """
 
355
        data = self._get_plan_merge_data(file_id, other, base)
 
356
        vf, last_revision_a, last_revision_b, last_revision_base = data
 
357
        return vf.plan_lca_merge(last_revision_a, last_revision_b,
 
358
                                 last_revision_base)
 
359
 
 
360
    def _get_file_revision(self, file_id, vf, tree_revision):
 
361
        """Ensure that file_id, tree_revision is in vf to plan the merge."""
 
362
        def file_revision(revision_tree):
 
363
            revision_tree.lock_read()
 
364
            try:
 
365
                return revision_tree.inventory[file_id].revision
 
366
            finally:
 
367
                revision_tree.unlock()
 
368
 
 
369
        def iter_parent_trees():
 
370
            for revision_id in self.get_parent_ids():
 
371
                try:
 
372
                    yield self.revision_tree(revision_id)
 
373
                except:
 
374
                    yield self.repository.revision_tree(revision_id)
 
375
 
 
376
        if getattr(self, '_repository', None) is None:
 
377
            last_revision = tree_revision
 
378
            parent_keys = [(file_id, file_revision(t)) for t in
 
379
                iter_parent_trees()]
 
380
            vf.add_lines((file_id, last_revision), parent_keys,
 
381
                         self.get_file(file_id).readlines())
 
382
            repo = self.branch.repository
 
383
            base_vf = repo.texts
 
384
        else:
 
385
            last_revision = file_revision(self)
 
386
            base_vf = self._repository.texts
 
387
        if base_vf not in vf.fallback_versionedfiles:
 
388
            vf.fallback_versionedfiles.append(base_vf)
 
389
        return last_revision
73
390
 
74
391
    inventory = property(_get_inventory,
75
392
                         doc="Inventory of this Tree")
76
393
 
77
394
    def _check_retrieved(self, ie, f):
 
395
        if not __debug__:
 
396
            return  
78
397
        fp = fingerprint_file(f)
79
398
        f.seek(0)
80
399
        
81
 
        if ie.text_size != None:
 
400
        if ie.text_size is not None:
82
401
            if ie.text_size != fp['size']:
83
402
                raise BzrError("mismatched size for file %r in %r" % (ie.file_id, self._store),
84
403
                        ["inventory expects %d bytes" % ie.text_size,
91
410
                     "file is actually %s" % fp['sha1'],
92
411
                     "store is probably damaged/corrupt"])
93
412
 
94
 
 
95
 
    def print_file(self, fileid):
96
 
        """Print file with id `fileid` to stdout."""
 
413
    @needs_read_lock
 
414
    def path2id(self, path):
 
415
        """Return the id for path in this tree."""
 
416
        return self._inventory.path2id(path)
 
417
 
 
418
    def paths2ids(self, paths, trees=[], require_versioned=True):
 
419
        """Return all the ids that can be reached by walking from paths.
 
420
        
 
421
        Each path is looked up in this tree and any extras provided in
 
422
        trees, and this is repeated recursively: the children in an extra tree
 
423
        of a directory that has been renamed under a provided path in this tree
 
424
        are all returned, even if none exist under a provided path in this
 
425
        tree, and vice versa.
 
426
 
 
427
        :param paths: An iterable of paths to start converting to ids from.
 
428
            Alternatively, if paths is None, no ids should be calculated and None
 
429
            will be returned. This is offered to make calling the api unconditional
 
430
            for code that *might* take a list of files.
 
431
        :param trees: Additional trees to consider.
 
432
        :param require_versioned: If False, do not raise NotVersionedError if
 
433
            an element of paths is not versioned in this tree and all of trees.
 
434
        """
 
435
        return find_ids_across_trees(paths, [self] + list(trees), require_versioned)
 
436
 
 
437
    @symbol_versioning.deprecated_method(symbol_versioning.one_six)
 
438
    def print_file(self, file_id):
 
439
        """Print file with id `file_id` to stdout."""
97
440
        import sys
98
 
        pumpfile(self.get_file(fileid), sys.stdout)
99
 
        
100
 
        
101
 
    def export(self, dest, format='dir', root=None):
102
 
        """Export this tree."""
103
 
        try:
104
 
            exporter = exporters[format]
105
 
        except KeyError:
106
 
            from bzrlib.errors import BzrCommandError
107
 
            raise BzrCommandError("export format %r not supported" % format)
108
 
        exporter(self, dest, root)
109
 
 
110
 
 
111
 
 
112
 
class RevisionTree(Tree):
113
 
    """Tree viewing a previous revision.
114
 
 
115
 
    File text can be retrieved from the text store.
116
 
 
117
 
    TODO: Some kind of `__repr__` method, but a good one
118
 
           probably means knowing the branch and revision number,
119
 
           or at least passing a description to the constructor.
120
 
    """
121
 
    
122
 
    def __init__(self, store, inv):
123
 
        self._store = store
124
 
        self._inventory = inv
125
 
 
126
 
    def get_file(self, file_id):
127
 
        ie = self._inventory[file_id]
128
 
        f = self._store[ie.text_id]
129
 
        mutter("  get fileid{%s} from %r" % (file_id, self))
130
 
        self._check_retrieved(ie, f)
131
 
        return f
132
 
 
133
 
    def get_file_size(self, file_id):
134
 
        return self._inventory[file_id].text_size
135
 
 
136
 
    def get_file_sha1(self, file_id):
137
 
        ie = self._inventory[file_id]
138
 
        return ie.text_sha1
139
 
 
140
 
    def has_filename(self, filename):
141
 
        return bool(self.inventory.path2id(filename))
142
 
 
143
 
    def list_files(self):
144
 
        # The only files returned by this are those from the version
145
 
        for path, entry in self.inventory.iter_entries():
146
 
            yield path, 'V', entry.kind, entry.file_id
 
441
        sys.stdout.write(self.get_file_text(file_id))
 
442
 
 
443
    def lock_read(self):
 
444
        pass
 
445
 
 
446
    def revision_tree(self, revision_id):
 
447
        """Obtain a revision tree for the revision revision_id.
 
448
 
 
449
        The intention of this method is to allow access to possibly cached
 
450
        tree data. Implementors of this method should raise NoSuchRevision if
 
451
        the tree is not locally available, even if they could obtain the 
 
452
        tree via a repository or some other means. Callers are responsible 
 
453
        for finding the ultimate source for a revision tree.
 
454
 
 
455
        :param revision_id: The revision_id of the requested tree.
 
456
        :return: A Tree.
 
457
        :raises: NoSuchRevision if the tree cannot be obtained.
 
458
        """
 
459
        raise errors.NoSuchRevisionInTree(self, revision_id)
 
460
 
 
461
    def unknowns(self):
 
462
        """What files are present in this tree and unknown.
 
463
        
 
464
        :return: an iterator over the unknown files.
 
465
        """
 
466
        return iter([])
 
467
 
 
468
    def unlock(self):
 
469
        pass
 
470
 
 
471
    def filter_unversioned_files(self, paths):
 
472
        """Filter out paths that are versioned.
 
473
 
 
474
        :return: set of paths.
 
475
        """
 
476
        # NB: we specifically *don't* call self.has_filename, because for
 
477
        # WorkingTrees that can indicate files that exist on disk but that 
 
478
        # are not versioned.
 
479
        pred = self.inventory.has_filename
 
480
        return set((p for p in paths if not pred(p)))
 
481
 
 
482
    def walkdirs(self, prefix=""):
 
483
        """Walk the contents of this tree from path down.
 
484
 
 
485
        This yields all the data about the contents of a directory at a time.
 
486
        After each directory has been yielded, if the caller has mutated the
 
487
        list to exclude some directories, they are then not descended into.
 
488
        
 
489
        The data yielded is of the form:
 
490
        ((directory-relpath, directory-path-from-root, directory-fileid),
 
491
        [(relpath, basename, kind, lstat, path_from_tree_root, file_id, 
 
492
          versioned_kind), ...]),
 
493
         - directory-relpath is the containing dirs relpath from prefix
 
494
         - directory-path-from-root is the containing dirs path from /
 
495
         - directory-fileid is the id of the directory if it is versioned.
 
496
         - relpath is the relative path within the subtree being walked.
 
497
         - basename is the basename
 
498
         - kind is the kind of the file now. If unknonwn then the file is not
 
499
           present within the tree - but it may be recorded as versioned. See
 
500
           versioned_kind.
 
501
         - lstat is the stat data *if* the file was statted.
 
502
         - path_from_tree_root is the path from the root of the tree.
 
503
         - file_id is the file_id if the entry is versioned.
 
504
         - versioned_kind is the kind of the file as last recorded in the 
 
505
           versioning system. If 'unknown' the file is not versioned.
 
506
        One of 'kind' and 'versioned_kind' must not be 'unknown'.
 
507
 
 
508
        :param prefix: Start walking from prefix within the tree rather than
 
509
        at the root. This allows one to walk a subtree but get paths that are
 
510
        relative to a tree rooted higher up.
 
511
        :return: an iterator over the directory data.
 
512
        """
 
513
        raise NotImplementedError(self.walkdirs)
147
514
 
148
515
 
149
516
class EmptyTree(Tree):
 
517
 
150
518
    def __init__(self):
151
 
        self._inventory = Inventory()
 
519
        self._inventory = Inventory(root_id=None)
 
520
        symbol_versioning.warn('EmptyTree is deprecated as of bzr 0.9 please'
 
521
                               ' use repository.revision_tree instead.',
 
522
                               DeprecationWarning, stacklevel=2)
 
523
 
 
524
    def get_parent_ids(self):
 
525
        return []
 
526
 
 
527
    def get_symlink_target(self, file_id):
 
528
        return None
152
529
 
153
530
    def has_filename(self, filename):
154
531
        return False
155
532
 
156
 
    def list_files(self):
157
 
        if False:  # just to make it a generator
158
 
            yield None
 
533
    def kind(self, file_id):
 
534
        return "directory"
 
535
 
 
536
    def list_files(self, include_root=False):
 
537
        return iter([])
159
538
    
 
539
    def __contains__(self, file_id):
 
540
        return (file_id in self._inventory)
 
541
 
 
542
    def get_file_sha1(self, file_id, path=None, stat_value=None):
 
543
        return None
160
544
 
161
545
 
162
546
######################################################################
195
579
        # what happened to the file that used to have
196
580
        # this name.  There are two possibilities: either it was
197
581
        # deleted entirely, or renamed.
198
 
        assert old_id
199
582
        if new_inv.has_id(old_id):
200
583
            return 'X', old_inv.id2path(old_id), new_inv.id2path(old_id)
201
584
        else:
224
607
            yield (old_name, new_name)
225
608
            
226
609
 
227
 
 
228
 
######################################################################
229
 
# export
230
 
 
231
 
def dir_exporter(tree, dest, root):
232
 
    """Export this tree to a new directory.
233
 
 
234
 
    `dest` should not exist, and will be created holding the
235
 
    contents of this tree.
236
 
 
237
 
    TODO: To handle subdirectories we need to create the
238
 
           directories first.
239
 
 
240
 
    :note: If the export fails, the destination directory will be
241
 
           left in a half-assed state.
242
 
    """
243
 
    import os
244
 
    os.mkdir(dest)
245
 
    mutter('export version %r' % tree)
246
 
    inv = tree.inventory
247
 
    for dp, ie in inv.iter_entries():
248
 
        kind = ie.kind
249
 
        fullpath = appendpath(dest, dp)
250
 
        if kind == 'directory':
251
 
            os.mkdir(fullpath)
252
 
        elif kind == 'file':
253
 
            pumpfile(tree.get_file(ie.file_id), file(fullpath, 'wb'))
254
 
        else:
255
 
            raise BzrError("don't know how to export {%s} of kind %r" % (ie.file_id, kind))
256
 
        mutter("  export {%s} kind %s to %s" % (ie.file_id, kind, fullpath))
257
 
exporters['dir'] = dir_exporter
258
 
 
259
 
try:
260
 
    import tarfile
261
 
except ImportError:
262
 
    pass
263
 
else:
264
 
    def get_root_name(dest):
265
 
        """Get just the root name for a tarball.
266
 
 
267
 
        >>> get_root_name('mytar.tar')
268
 
        'mytar'
269
 
        >>> get_root_name('mytar.tar.bz2')
270
 
        'mytar'
271
 
        >>> get_root_name('tar.tar.tar.tgz')
272
 
        'tar.tar.tar'
273
 
        >>> get_root_name('bzr-0.0.5.tar.gz')
274
 
        'bzr-0.0.5'
275
 
        >>> get_root_name('a/long/path/mytar.tgz')
276
 
        'mytar'
277
 
        >>> get_root_name('../parent/../dir/other.tbz2')
278
 
        'other'
279
 
        """
280
 
        endings = ['.tar', '.tar.gz', '.tgz', '.tar.bz2', '.tbz2']
281
 
        dest = os.path.basename(dest)
282
 
        for end in endings:
283
 
            if dest.endswith(end):
284
 
                return dest[:-len(end)]
285
 
 
286
 
    def tar_exporter(tree, dest, root, compression=None):
287
 
        """Export this tree to a new tar file.
288
 
 
289
 
        `dest` will be created holding the contents of this tree; if it
290
 
        already exists, it will be clobbered, like with "tar -c".
291
 
        """
292
 
        from time import time
293
 
        now = time()
294
 
        compression = str(compression or '')
295
 
        if root is None:
296
 
            root = get_root_name(dest)
297
 
        try:
298
 
            ball = tarfile.open(dest, 'w:' + compression)
299
 
        except tarfile.CompressionError, e:
300
 
            raise BzrError(str(e))
301
 
        mutter('export version %r' % tree)
302
 
        inv = tree.inventory
303
 
        for dp, ie in inv.iter_entries():
304
 
            mutter("  export {%s} kind %s to %s" % (ie.file_id, ie.kind, dest))
305
 
            item = tarfile.TarInfo(os.path.join(root, dp))
306
 
            # TODO: would be cool to actually set it to the timestamp of the
307
 
            # revision it was last changed
308
 
            item.mtime = now
309
 
            if ie.kind == 'directory':
310
 
                item.type = tarfile.DIRTYPE
311
 
                fileobj = None
312
 
                item.name += '/'
313
 
                item.size = 0
314
 
                item.mode = 0755
315
 
            elif ie.kind == 'file':
316
 
                item.type = tarfile.REGTYPE
317
 
                fileobj = tree.get_file(ie.file_id)
318
 
                item.size = _find_file_size(fileobj)
319
 
                item.mode = 0644
320
 
            else:
321
 
                raise BzrError("don't know how to export {%s} of kind %r" %
322
 
                        (ie.file_id, ie.kind))
323
 
 
324
 
            ball.addfile(item, fileobj)
325
 
        ball.close()
326
 
    exporters['tar'] = tar_exporter
327
 
 
328
 
    def tgz_exporter(tree, dest, root):
329
 
        tar_exporter(tree, dest, root, compression='gz')
330
 
    exporters['tgz'] = tgz_exporter
331
 
 
332
 
    def tbz_exporter(tree, dest, root):
333
 
        tar_exporter(tree, dest, root, compression='bz2')
334
 
    exporters['tbz2'] = tbz_exporter
335
 
 
336
 
 
337
 
def _find_file_size(fileobj):
338
 
    offset = fileobj.tell()
339
 
    try:
340
 
        fileobj.seek(0, 2)
341
 
        size = fileobj.tell()
342
 
    except TypeError:
343
 
        # gzip doesn't accept second argument to seek()
344
 
        fileobj.seek(0)
345
 
        size = 0
346
 
        while True:
347
 
            nread = len(fileobj.read())
348
 
            if nread == 0:
 
610
def find_ids_across_trees(filenames, trees, require_versioned=True):
 
611
    """Find the ids corresponding to specified filenames.
 
612
    
 
613
    All matches in all trees will be used, and all children of matched
 
614
    directories will be used.
 
615
 
 
616
    :param filenames: The filenames to find file_ids for (if None, returns
 
617
        None)
 
618
    :param trees: The trees to find file_ids within
 
619
    :param require_versioned: if true, all specified filenames must occur in
 
620
    at least one tree.
 
621
    :return: a set of file ids for the specified filenames and their children.
 
622
    """
 
623
    if not filenames:
 
624
        return None
 
625
    specified_path_ids = _find_ids_across_trees(filenames, trees,
 
626
        require_versioned)
 
627
    return _find_children_across_trees(specified_path_ids, trees)
 
628
 
 
629
 
 
630
def _find_ids_across_trees(filenames, trees, require_versioned):
 
631
    """Find the ids corresponding to specified filenames.
 
632
    
 
633
    All matches in all trees will be used, but subdirectories are not scanned.
 
634
 
 
635
    :param filenames: The filenames to find file_ids for
 
636
    :param trees: The trees to find file_ids within
 
637
    :param require_versioned: if true, all specified filenames must occur in
 
638
        at least one tree.
 
639
    :return: a set of file ids for the specified filenames
 
640
    """
 
641
    not_versioned = []
 
642
    interesting_ids = set()
 
643
    for tree_path in filenames:
 
644
        not_found = True
 
645
        for tree in trees:
 
646
            file_id = tree.path2id(tree_path)
 
647
            if file_id is not None:
 
648
                interesting_ids.add(file_id)
 
649
                not_found = False
 
650
        if not_found:
 
651
            not_versioned.append(tree_path)
 
652
    if len(not_versioned) > 0 and require_versioned:
 
653
        raise errors.PathsNotVersionedError(not_versioned)
 
654
    return interesting_ids
 
655
 
 
656
 
 
657
def _find_children_across_trees(specified_ids, trees):
 
658
    """Return a set including specified ids and their children.
 
659
    
 
660
    All matches in all trees will be used.
 
661
 
 
662
    :param trees: The trees to find file_ids within
 
663
    :return: a set containing all specified ids and their children 
 
664
    """
 
665
    interesting_ids = set(specified_ids)
 
666
    pending = interesting_ids
 
667
    # now handle children of interesting ids
 
668
    # we loop so that we handle all children of each id in both trees
 
669
    while len(pending) > 0:
 
670
        new_pending = set()
 
671
        for file_id in pending:
 
672
            for tree in trees:
 
673
                if not tree.has_id(file_id):
 
674
                    continue
 
675
                entry = tree.inventory[file_id]
 
676
                for child in getattr(entry, 'children', {}).itervalues():
 
677
                    if child.file_id not in interesting_ids:
 
678
                        new_pending.add(child.file_id)
 
679
        interesting_ids.update(new_pending)
 
680
        pending = new_pending
 
681
    return interesting_ids
 
682
 
 
683
 
 
684
class InterTree(InterObject):
 
685
    """This class represents operations taking place between two Trees.
 
686
 
 
687
    Its instances have methods like 'compare' and contain references to the
 
688
    source and target trees these operations are to be carried out on.
 
689
 
 
690
    Clients of bzrlib should not need to use InterTree directly, rather they
 
691
    should use the convenience methods on Tree such as 'Tree.compare()' which
 
692
    will pass through to InterTree as appropriate.
 
693
    """
 
694
 
 
695
    _optimisers = []
 
696
 
 
697
    @needs_read_lock
 
698
    def compare(self, want_unchanged=False, specific_files=None,
 
699
        extra_trees=None, require_versioned=False, include_root=False,
 
700
        want_unversioned=False):
 
701
        """Return the changes from source to target.
 
702
 
 
703
        :return: A TreeDelta.
 
704
        :param specific_files: An optional list of file paths to restrict the
 
705
            comparison to. When mapping filenames to ids, all matches in all
 
706
            trees (including optional extra_trees) are used, and all children of
 
707
            matched directories are included.
 
708
        :param want_unchanged: An optional boolean requesting the inclusion of
 
709
            unchanged entries in the result.
 
710
        :param extra_trees: An optional list of additional trees to use when
 
711
            mapping the contents of specific_files (paths) to file_ids.
 
712
        :param require_versioned: An optional boolean (defaults to False). When
 
713
            supplied and True all the 'specific_files' must be versioned, or
 
714
            a PathsNotVersionedError will be thrown.
 
715
        :param want_unversioned: Scan for unversioned paths.
 
716
        """
 
717
        # NB: show_status depends on being able to pass in non-versioned files
 
718
        # and report them as unknown
 
719
        trees = (self.source,)
 
720
        if extra_trees is not None:
 
721
            trees = trees + tuple(extra_trees)
 
722
        # target is usually the newer tree:
 
723
        specific_file_ids = self.target.paths2ids(specific_files, trees,
 
724
            require_versioned=require_versioned)
 
725
        if specific_files and not specific_file_ids:
 
726
            # All files are unversioned, so just return an empty delta
 
727
            # _compare_trees would think we want a complete delta
 
728
            result = delta.TreeDelta()
 
729
            fake_entry = InventoryFile('unused', 'unused', 'unused')
 
730
            result.unversioned = [(path, None,
 
731
                self.target._comparison_data(fake_entry, path)[0]) for path in
 
732
                specific_files]
 
733
            return result
 
734
        return delta._compare_trees(self.source, self.target, want_unchanged,
 
735
            specific_files, include_root, extra_trees=extra_trees,
 
736
            require_versioned=require_versioned,
 
737
            want_unversioned=want_unversioned)
 
738
 
 
739
    def iter_changes(self, include_unchanged=False,
 
740
                      specific_files=None, pb=None, extra_trees=[],
 
741
                      require_versioned=True, want_unversioned=False):
 
742
        """Generate an iterator of changes between trees.
 
743
 
 
744
        A tuple is returned:
 
745
        (file_id, (path_in_source, path_in_target),
 
746
         changed_content, versioned, parent, name, kind,
 
747
         executable)
 
748
 
 
749
        Changed_content is True if the file's content has changed.  This
 
750
        includes changes to its kind, and to a symlink's target.
 
751
 
 
752
        versioned, parent, name, kind, executable are tuples of (from, to).
 
753
        If a file is missing in a tree, its kind is None.
 
754
 
 
755
        Iteration is done in parent-to-child order, relative to the target
 
756
        tree.
 
757
 
 
758
        There is no guarantee that all paths are in sorted order: the
 
759
        requirement to expand the search due to renames may result in children
 
760
        that should be found early being found late in the search, after
 
761
        lexically later results have been returned.
 
762
        :param require_versioned: Raise errors.PathsNotVersionedError if a
 
763
            path in the specific_files list is not versioned in one of
 
764
            source, target or extra_trees.
 
765
        :param want_unversioned: Should unversioned files be returned in the
 
766
            output. An unversioned file is defined as one with (False, False)
 
767
            for the versioned pair.
 
768
        """
 
769
        result = []
 
770
        lookup_trees = [self.source]
 
771
        if extra_trees:
 
772
             lookup_trees.extend(extra_trees)
 
773
        if specific_files == []:
 
774
            specific_file_ids = []
 
775
        else:
 
776
            specific_file_ids = self.target.paths2ids(specific_files,
 
777
                lookup_trees, require_versioned=require_versioned)
 
778
        if want_unversioned:
 
779
            all_unversioned = sorted([(p.split('/'), p) for p in
 
780
                                     self.target.extras()
 
781
                if specific_files is None or
 
782
                    osutils.is_inside_any(specific_files, p)])
 
783
            all_unversioned = deque(all_unversioned)
 
784
        else:
 
785
            all_unversioned = deque()
 
786
        to_paths = {}
 
787
        from_entries_by_dir = list(self.source.inventory.iter_entries_by_dir(
 
788
            specific_file_ids=specific_file_ids))
 
789
        from_data = dict((e.file_id, (p, e)) for p, e in from_entries_by_dir)
 
790
        to_entries_by_dir = list(self.target.inventory.iter_entries_by_dir(
 
791
            specific_file_ids=specific_file_ids))
 
792
        num_entries = len(from_entries_by_dir) + len(to_entries_by_dir)
 
793
        entry_count = 0
 
794
        # the unversioned path lookup only occurs on real trees - where there 
 
795
        # can be extras. So the fake_entry is solely used to look up
 
796
        # executable it values when execute is not supported.
 
797
        fake_entry = InventoryFile('unused', 'unused', 'unused')
 
798
        for to_path, to_entry in to_entries_by_dir:
 
799
            while all_unversioned and all_unversioned[0][0] < to_path.split('/'):
 
800
                unversioned_path = all_unversioned.popleft()
 
801
                to_kind, to_executable, to_stat = \
 
802
                    self.target._comparison_data(fake_entry, unversioned_path[1])
 
803
                yield (None, (None, unversioned_path[1]), True, (False, False),
 
804
                    (None, None),
 
805
                    (None, unversioned_path[0][-1]),
 
806
                    (None, to_kind),
 
807
                    (None, to_executable))
 
808
            file_id = to_entry.file_id
 
809
            to_paths[file_id] = to_path
 
810
            entry_count += 1
 
811
            changed_content = False
 
812
            from_path, from_entry = from_data.get(file_id, (None, None))
 
813
            from_versioned = (from_entry is not None)
 
814
            if from_entry is not None:
 
815
                from_versioned = True
 
816
                from_name = from_entry.name
 
817
                from_parent = from_entry.parent_id
 
818
                from_kind, from_executable, from_stat = \
 
819
                    self.source._comparison_data(from_entry, from_path)
 
820
                entry_count += 1
 
821
            else:
 
822
                from_versioned = False
 
823
                from_kind = None
 
824
                from_parent = None
 
825
                from_name = None
 
826
                from_executable = None
 
827
            versioned = (from_versioned, True)
 
828
            to_kind, to_executable, to_stat = \
 
829
                self.target._comparison_data(to_entry, to_path)
 
830
            kind = (from_kind, to_kind)
 
831
            if kind[0] != kind[1]:
 
832
                changed_content = True
 
833
            elif from_kind == 'file':
 
834
                from_size = self.source._file_size(from_entry, from_stat)
 
835
                to_size = self.target._file_size(to_entry, to_stat)
 
836
                if from_size != to_size:
 
837
                    changed_content = True
 
838
                elif (self.source.get_file_sha1(file_id, from_path, from_stat) !=
 
839
                    self.target.get_file_sha1(file_id, to_path, to_stat)):
 
840
                    changed_content = True
 
841
            elif from_kind == 'symlink':
 
842
                if (self.source.get_symlink_target(file_id) !=
 
843
                    self.target.get_symlink_target(file_id)):
 
844
                    changed_content = True
 
845
                elif from_kind == 'tree-reference':
 
846
                    if (self.source.get_reference_revision(file_id, from_path)
 
847
                        != self.target.get_reference_revision(file_id, to_path)):
 
848
                        changed_content = True 
 
849
            parent = (from_parent, to_entry.parent_id)
 
850
            name = (from_name, to_entry.name)
 
851
            executable = (from_executable, to_executable)
 
852
            if pb is not None:
 
853
                pb.update('comparing files', entry_count, num_entries)
 
854
            if (changed_content is not False or versioned[0] != versioned[1]
 
855
                or parent[0] != parent[1] or name[0] != name[1] or 
 
856
                executable[0] != executable[1] or include_unchanged):
 
857
                yield (file_id, (from_path, to_path), changed_content,
 
858
                    versioned, parent, name, kind, executable)
 
859
 
 
860
        while all_unversioned:
 
861
            # yield any trailing unversioned paths
 
862
            unversioned_path = all_unversioned.popleft()
 
863
            to_kind, to_executable, to_stat = \
 
864
                self.target._comparison_data(fake_entry, unversioned_path[1])
 
865
            yield (None, (None, unversioned_path[1]), True, (False, False),
 
866
                (None, None),
 
867
                (None, unversioned_path[0][-1]),
 
868
                (None, to_kind),
 
869
                (None, to_executable))
 
870
 
 
871
        def get_to_path(to_entry):
 
872
            if to_entry.parent_id is None:
 
873
                to_path = '' # the root
 
874
            else:
 
875
                if to_entry.parent_id not in to_paths:
 
876
                    # recurse up
 
877
                    return get_to_path(self.target.inventory[to_entry.parent_id])
 
878
                to_path = osutils.pathjoin(to_paths[to_entry.parent_id],
 
879
                                           to_entry.name)
 
880
            to_paths[to_entry.file_id] = to_path
 
881
            return to_path
 
882
 
 
883
        for path, from_entry in from_entries_by_dir:
 
884
            file_id = from_entry.file_id
 
885
            if file_id in to_paths:
 
886
                # already returned
 
887
                continue
 
888
            if not file_id in self.target.inventory:
 
889
                # common case - paths we have not emitted are not present in
 
890
                # target.
 
891
                to_path = None
 
892
            else:
 
893
                to_path = get_to_path(self.target.inventory[file_id])
 
894
            entry_count += 1
 
895
            if pb is not None:
 
896
                pb.update('comparing files', entry_count, num_entries)
 
897
            versioned = (True, False)
 
898
            parent = (from_entry.parent_id, None)
 
899
            name = (from_entry.name, None)
 
900
            from_kind, from_executable, stat_value = \
 
901
                self.source._comparison_data(from_entry, path)
 
902
            kind = (from_kind, None)
 
903
            executable = (from_executable, None)
 
904
            changed_content = True
 
905
            # the parent's path is necessarily known at this point.
 
906
            yield(file_id, (path, to_path), changed_content, versioned, parent,
 
907
                  name, kind, executable)
 
908
 
 
909
 
 
910
class MultiWalker(object):
 
911
    """Walk multiple trees simultaneously, getting combined results."""
 
912
 
 
913
    # Note: This could be written to not assume you can do out-of-order
 
914
    #       lookups. Instead any nodes that don't match in all trees could be
 
915
    #       marked as 'deferred', and then returned in the final cleanup loop.
 
916
    #       For now, I think it is "nicer" to return things as close to the
 
917
    #       "master_tree" order as we can.
 
918
 
 
919
    def __init__(self, master_tree, other_trees):
 
920
        """Create a new MultiWalker.
 
921
 
 
922
        All trees being walked must implement "iter_entries_by_dir()", such
 
923
        that they yield (path, object) tuples, where that object will have a
 
924
        '.file_id' member, that can be used to check equality.
 
925
 
 
926
        :param master_tree: All trees will be 'slaved' to the master_tree such
 
927
            that nodes in master_tree will be used as 'first-pass' sync points.
 
928
            Any nodes that aren't in master_tree will be merged in a second
 
929
            pass.
 
930
        :param other_trees: A list of other trees to walk simultaneously.
 
931
        """
 
932
        self._master_tree = master_tree
 
933
        self._other_trees = other_trees
 
934
 
 
935
        # Keep track of any nodes that were properly processed just out of
 
936
        # order, that way we don't return them at the end, we don't have to
 
937
        # track *all* processed file_ids, just the out-of-order ones
 
938
        self._out_of_order_processed = set()
 
939
 
 
940
    @staticmethod
 
941
    def _step_one(iterator):
 
942
        """Step an iter_entries_by_dir iterator.
 
943
 
 
944
        :return: (has_more, path, ie)
 
945
            If has_more is False, path and ie will be None.
 
946
        """
 
947
        try:
 
948
            path, ie = iterator.next()
 
949
        except StopIteration:
 
950
            return False, None, None
 
951
        else:
 
952
            return True, path, ie
 
953
 
 
954
    @staticmethod
 
955
    def _cmp_path_by_dirblock(path1, path2):
 
956
        """Compare two paths based on what directory they are in.
 
957
 
 
958
        This generates a sort order, such that all children of a directory are
 
959
        sorted together, and grandchildren are in the same order as the
 
960
        children appear. But all grandchildren come after all children.
 
961
 
 
962
        :param path1: first path
 
963
        :param path2: the second path
 
964
        :return: negative number if ``path1`` comes first,
 
965
            0 if paths are equal
 
966
            and a positive number if ``path2`` sorts first
 
967
        """
 
968
        # Shortcut this special case
 
969
        if path1 == path2:
 
970
            return 0
 
971
        # This is stolen from _dirstate_helpers_py.py, only switching it to
 
972
        # Unicode objects. Consider using encode_utf8() and then using the
 
973
        # optimized versions, or maybe writing optimized unicode versions.
 
974
        if not isinstance(path1, unicode):
 
975
            raise TypeError("'path1' must be a unicode string, not %s: %r"
 
976
                            % (type(path1), path1))
 
977
        if not isinstance(path2, unicode):
 
978
            raise TypeError("'path2' must be a unicode string, not %s: %r"
 
979
                            % (type(path2), path2))
 
980
        return cmp(MultiWalker._path_to_key(path1),
 
981
                   MultiWalker._path_to_key(path2))
 
982
 
 
983
    @staticmethod
 
984
    def _path_to_key(path):
 
985
        dirname, basename = osutils.split(path)
 
986
        return (dirname.split(u'/'), basename)
 
987
 
 
988
    def _lookup_by_file_id(self, extra_entries, other_tree, file_id):
 
989
        """Lookup an inventory entry by file_id.
 
990
 
 
991
        This is called when an entry is missing in the normal order.
 
992
        Generally this is because a file was either renamed, or it was
 
993
        deleted/added. If the entry was found in the inventory and not in
 
994
        extra_entries, it will be added to self._out_of_order_processed
 
995
 
 
996
        :param extra_entries: A dictionary of {file_id: (path, ie)}.  This
 
997
            should be filled with entries that were found before they were
 
998
            used. If file_id is present, it will be removed from the
 
999
            dictionary.
 
1000
        :param other_tree: The Tree to search, in case we didn't find the entry
 
1001
            yet.
 
1002
        :param file_id: The file_id to look for
 
1003
        :return: (path, ie) if found or (None, None) if not present.
 
1004
        """
 
1005
        if file_id in extra_entries:
 
1006
            return extra_entries.pop(file_id)
 
1007
        # TODO: Is id2path better as the first call, or is
 
1008
        #       inventory[file_id] better as a first check?
 
1009
        try:
 
1010
            cur_path = other_tree.id2path(file_id)
 
1011
        except errors.NoSuchId:
 
1012
            cur_path = None
 
1013
        if cur_path is None:
 
1014
            return (None, None)
 
1015
        else:
 
1016
            self._out_of_order_processed.add(file_id)
 
1017
            cur_ie = other_tree.inventory[file_id]
 
1018
            return (cur_path, cur_ie)
 
1019
 
 
1020
    def iter_all(self):
 
1021
        """Match up the values in the different trees."""
 
1022
        for result in self._walk_master_tree():
 
1023
            yield result
 
1024
        self._finish_others()
 
1025
        for result in self._walk_others():
 
1026
            yield result
 
1027
 
 
1028
    def _walk_master_tree(self):
 
1029
        """First pass, walk all trees in lock-step.
 
1030
        
 
1031
        When we are done, all nodes in the master_tree will have been
 
1032
        processed. _other_walkers, _other_entries, and _others_extra will be
 
1033
        set on 'self' for future processing.
 
1034
        """
 
1035
        # This iterator has the most "inlining" done, because it tends to touch
 
1036
        # every file in the tree, while the others only hit nodes that don't
 
1037
        # match.
 
1038
        master_iterator = self._master_tree.iter_entries_by_dir()
 
1039
 
 
1040
        other_walkers = [other.iter_entries_by_dir()
 
1041
                         for other in self._other_trees]
 
1042
        other_entries = [self._step_one(walker) for walker in other_walkers]
 
1043
        # Track extra nodes in the other trees
 
1044
        others_extra = [{} for i in xrange(len(self._other_trees))]
 
1045
 
 
1046
        master_has_more = True
 
1047
        step_one = self._step_one
 
1048
        lookup_by_file_id = self._lookup_by_file_id
 
1049
        out_of_order_processed = self._out_of_order_processed
 
1050
 
 
1051
        while master_has_more:
 
1052
            (master_has_more, path, master_ie) = step_one(master_iterator)
 
1053
            if not master_has_more:
349
1054
                break
350
 
            size += nread
351
 
    fileobj.seek(offset)
352
 
    return size
 
1055
 
 
1056
            file_id = master_ie.file_id
 
1057
            other_values = []
 
1058
            other_values_append = other_values.append
 
1059
            next_other_entries = []
 
1060
            next_other_entries_append = next_other_entries.append
 
1061
            for idx, (other_has_more, other_path, other_ie) in enumerate(other_entries):
 
1062
                if not other_has_more:
 
1063
                    other_values_append(lookup_by_file_id(
 
1064
                        others_extra[idx], self._other_trees[idx], file_id))
 
1065
                    next_other_entries_append((False, None, None))
 
1066
                elif file_id == other_ie.file_id:
 
1067
                    # This is the critical code path, as most of the entries
 
1068
                    # should match between most trees.
 
1069
                    other_values_append((other_path, other_ie))
 
1070
                    next_other_entries_append(step_one(other_walkers[idx]))
 
1071
                else:
 
1072
                    # This walker did not match, step it until it either
 
1073
                    # matches, or we know we are past the current walker.
 
1074
                    other_walker = other_walkers[idx]
 
1075
                    other_extra = others_extra[idx]
 
1076
                    while (other_has_more and
 
1077
                           self._cmp_path_by_dirblock(other_path, path) < 0):
 
1078
                        other_file_id = other_ie.file_id
 
1079
                        if other_file_id not in out_of_order_processed:
 
1080
                            other_extra[other_file_id] = (other_path, other_ie)
 
1081
                        other_has_more, other_path, other_ie = \
 
1082
                            step_one(other_walker)
 
1083
                    if other_has_more and other_ie.file_id == file_id:
 
1084
                        # We ended up walking to this point, match and step
 
1085
                        # again
 
1086
                        other_values_append((other_path, other_ie))
 
1087
                        other_has_more, other_path, other_ie = \
 
1088
                            step_one(other_walker)
 
1089
                    else:
 
1090
                        # This record isn't in the normal order, see if it
 
1091
                        # exists at all.
 
1092
                        other_values_append(lookup_by_file_id(
 
1093
                            other_extra, self._other_trees[idx], file_id))
 
1094
                    next_other_entries_append((other_has_more, other_path,
 
1095
                                               other_ie))
 
1096
            other_entries = next_other_entries
 
1097
 
 
1098
            # We've matched all the walkers, yield this datapoint
 
1099
            yield path, file_id, master_ie, other_values
 
1100
        self._other_walkers = other_walkers
 
1101
        self._other_entries = other_entries
 
1102
        self._others_extra = others_extra
 
1103
 
 
1104
    def _finish_others(self):
 
1105
        """Finish walking the other iterators, so we get all entries."""
 
1106
        for idx, info in enumerate(self._other_entries):
 
1107
            other_extra = self._others_extra[idx]
 
1108
            (other_has_more, other_path, other_ie) = info
 
1109
            while other_has_more:
 
1110
                other_file_id = other_ie.file_id
 
1111
                if other_file_id not in self._out_of_order_processed:
 
1112
                    other_extra[other_file_id] = (other_path, other_ie)
 
1113
                other_has_more, other_path, other_ie = \
 
1114
                    self._step_one(self._other_walkers[idx])
 
1115
        del self._other_entries
 
1116
 
 
1117
    def _walk_others(self):
 
1118
        """Finish up by walking all the 'deferred' nodes."""
 
1119
        # TODO: One alternative would be to grab all possible unprocessed
 
1120
        #       file_ids, and then sort by path, and then yield them. That
 
1121
        #       might ensure better ordering, in case a caller strictly
 
1122
        #       requires parents before children.
 
1123
        for idx, other_extra in enumerate(self._others_extra):
 
1124
            others = sorted(other_extra.itervalues(),
 
1125
                            key=lambda x: self._path_to_key(x[0]))
 
1126
            for other_path, other_ie in others:
 
1127
                file_id = other_ie.file_id
 
1128
                # We don't need to check out_of_order_processed here, because
 
1129
                # the lookup_by_file_id will be removing anything processed
 
1130
                # from the extras cache
 
1131
                other_extra.pop(file_id)
 
1132
                other_values = [(None, None) for i in xrange(idx)]
 
1133
                other_values.append((other_path, other_ie))
 
1134
                for alt_idx, alt_extra in enumerate(self._others_extra[idx+1:]):
 
1135
                    alt_idx = alt_idx + idx + 1
 
1136
                    alt_extra = self._others_extra[alt_idx]
 
1137
                    alt_tree = self._other_trees[alt_idx]
 
1138
                    other_values.append(self._lookup_by_file_id(
 
1139
                                            alt_extra, alt_tree, file_id))
 
1140
                yield other_path, file_id, None, other_values