/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: John Arbash Meinel
  • Date: 2006-09-13 02:09:37 UTC
  • mto: This revision was merged to the branch mainline in revision 2004.
  • Revision ID: john@arbash-meinel.com-20060913020937-2df2f49f9a28ec43
Update HACKING and docstrings

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2005, 2006 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
 
32
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
 
33
CONFLICT_HEADER_1 = "BZR conflict list format 1"
 
34
 
32
35
# TODO: Give the workingtree sole responsibility for the working inventory;
33
36
# remove the variable and references to it from the branch.  This may require
34
37
# updating the commit code so as to update the inventory within the working
36
39
# At the moment they may alias the inventory and have old copies of it in
37
40
# memory.  (Now done? -- mbp 20060309)
38
41
 
39
 
from cStringIO import StringIO
40
 
import os
41
 
 
42
 
from bzrlib.lazy_import import lazy_import
43
 
lazy_import(globals(), """
44
 
from bisect import bisect_left
 
42
from binascii import hexlify
45
43
import collections
46
44
from copy import deepcopy
 
45
from cStringIO import StringIO
47
46
import errno
48
 
import itertools
49
 
import operator
 
47
import fnmatch
 
48
import os
 
49
import re
50
50
import stat
51
51
from time import time
52
52
import warnings
53
 
import re
54
53
 
55
54
import bzrlib
56
 
from bzrlib import (
57
 
    branch,
58
 
    bzrdir,
59
 
    conflicts as _mod_conflicts,
60
 
    dirstate,
61
 
    errors,
62
 
    generate_ids,
63
 
    globbing,
64
 
    hashcache,
65
 
    ignores,
66
 
    merge,
67
 
    osutils,
68
 
    revisiontree,
69
 
    repository,
70
 
    textui,
71
 
    trace,
72
 
    transform,
73
 
    ui,
74
 
    urlutils,
75
 
    xml5,
76
 
    xml6,
77
 
    xml7,
78
 
    )
 
55
from bzrlib import bzrdir, errors, ignores, osutils, urlutils
 
56
from bzrlib.atomicfile import AtomicFile
79
57
import bzrlib.branch
80
 
from bzrlib.transport import get_transport
81
 
import bzrlib.ui
82
 
from bzrlib.workingtree_4 import WorkingTreeFormat4
83
 
""")
84
 
 
85
 
from bzrlib import symbol_versioning
 
58
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
86
59
from bzrlib.decorators import needs_read_lock, needs_write_lock
87
 
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
 
60
from bzrlib.errors import (BzrCheckError,
 
61
                           BzrError,
 
62
                           ConflictFormatError,
 
63
                           WeaveRevisionNotPresent,
 
64
                           NotBranchError,
 
65
                           NoSuchFile,
 
66
                           NotVersionedError,
 
67
                           MergeModifiedFormatError,
 
68
                           UnsupportedOperation,
 
69
                           )
 
70
from bzrlib.inventory import InventoryEntry, Inventory
88
71
from bzrlib.lockable_files import LockableFiles, TransportLock
89
72
from bzrlib.lockdir import LockDir
90
 
import bzrlib.mutabletree
91
 
from bzrlib.mutabletree import needs_tree_write_lock
 
73
from bzrlib.merge import merge_inner, transform_tree
92
74
from bzrlib.osutils import (
93
 
    compact_date,
94
 
    file_kind,
95
 
    isdir,
96
 
    normpath,
97
 
    pathjoin,
98
 
    rand_chars,
99
 
    realpath,
100
 
    safe_unicode,
101
 
    splitpath,
102
 
    supports_executable,
103
 
    )
104
 
from bzrlib.trace import mutter, note
105
 
from bzrlib.transport.local import LocalTransport
 
75
                            abspath,
 
76
                            compact_date,
 
77
                            file_kind,
 
78
                            isdir,
 
79
                            getcwd,
 
80
                            pathjoin,
 
81
                            pumpfile,
 
82
                            safe_unicode,
 
83
                            splitpath,
 
84
                            rand_chars,
 
85
                            normpath,
 
86
                            realpath,
 
87
                            relpath,
 
88
                            rename,
 
89
                            supports_executable,
 
90
                            )
106
91
from bzrlib.progress import DummyProgress, ProgressPhase
107
 
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
 
92
from bzrlib.revision import NULL_REVISION
108
93
from bzrlib.rio import RioReader, rio_file, Stanza
109
94
from bzrlib.symbol_versioning import (deprecated_passed,
110
95
        deprecated_method,
112
97
        DEPRECATED_PARAMETER,
113
98
        zero_eight,
114
99
        zero_eleven,
115
 
        zero_thirteen,
116
100
        )
117
 
 
118
 
 
119
 
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
120
 
CONFLICT_HEADER_1 = "BZR conflict list format 1"
121
 
 
122
 
 
123
 
@deprecated_function(zero_thirteen)
 
101
from bzrlib.trace import mutter, note
 
102
from bzrlib.transform import build_tree
 
103
from bzrlib.transport import get_transport
 
104
from bzrlib.transport.local import LocalTransport
 
105
from bzrlib.textui import show_status
 
106
import bzrlib.tree
 
107
import bzrlib.ui
 
108
import bzrlib.xml5
 
109
 
 
110
 
 
111
# the regex removes any weird characters; we don't escape them 
 
112
# but rather just pull them out
 
113
_gen_file_id_re = re.compile(r'[^\w.]')
 
114
_gen_id_suffix = None
 
115
_gen_id_serial = 0
 
116
 
 
117
 
 
118
def _next_id_suffix():
 
119
    """Create a new file id suffix that is reasonably unique.
 
120
    
 
121
    On the first call we combine the current time with 64 bits of randomness
 
122
    to give a highly probably globally unique number. Then each call in the same
 
123
    process adds 1 to a serial number we append to that unique value.
 
124
    """
 
125
    # XXX TODO: change bzrlib.add.smart_add to call workingtree.add() rather 
 
126
    # than having to move the id randomness out of the inner loop like this.
 
127
    # XXX TODO: for the global randomness this uses we should add the thread-id
 
128
    # before the serial #.
 
129
    global _gen_id_suffix, _gen_id_serial
 
130
    if _gen_id_suffix is None:
 
131
        _gen_id_suffix = "-%s-%s-" % (compact_date(time()), rand_chars(16))
 
132
    _gen_id_serial += 1
 
133
    return _gen_id_suffix + str(_gen_id_serial)
 
134
 
 
135
 
124
136
def gen_file_id(name):
125
137
    """Return new file id for the basename 'name'.
126
138
 
127
 
    Use bzrlib.generate_ids.gen_file_id() instead
 
139
    The uniqueness is supplied from _next_id_suffix.
128
140
    """
129
 
    return generate_ids.gen_file_id(name)
130
 
 
131
 
 
132
 
@deprecated_function(zero_thirteen)
 
141
    # The real randomness is in the _next_id_suffix, the
 
142
    # rest of the identifier is just to be nice.
 
143
    # So we:
 
144
    # 1) Remove non-ascii word characters to keep the ids portable
 
145
    # 2) squash to lowercase, so the file id doesn't have to
 
146
    #    be escaped (case insensitive filesystems would bork for ids
 
147
    #    that only differred in case without escaping).
 
148
    # 3) truncate the filename to 20 chars. Long filenames also bork on some
 
149
    #    filesystems
 
150
    # 4) Removing starting '.' characters to prevent the file ids from
 
151
    #    being considered hidden.
 
152
    ascii_word_only = _gen_file_id_re.sub('', name.lower())
 
153
    short_no_dots = ascii_word_only.lstrip('.')[:20]
 
154
    return short_no_dots + _next_id_suffix()
 
155
 
 
156
 
133
157
def gen_root_id():
134
 
    """Return a new tree-root file id.
135
 
 
136
 
    This has been deprecated in favor of bzrlib.generate_ids.gen_root_id()
137
 
    """
138
 
    return generate_ids.gen_root_id()
 
158
    """Return a new tree-root file id."""
 
159
    return gen_file_id('TREE_ROOT')
 
160
 
 
161
 
 
162
def needs_tree_write_lock(unbound):
 
163
    """Decorate unbound to take out and release a tree_write lock."""
 
164
    def tree_write_locked(self, *args, **kwargs):
 
165
        self.lock_tree_write()
 
166
        try:
 
167
            return unbound(self, *args, **kwargs)
 
168
        finally:
 
169
            self.unlock()
 
170
    tree_write_locked.__doc__ = unbound.__doc__
 
171
    tree_write_locked.__name__ = unbound.__name__
 
172
    return tree_write_locked
139
173
 
140
174
 
141
175
class TreeEntry(object):
193
227
        return ''
194
228
 
195
229
 
196
 
class WorkingTree(bzrlib.mutabletree.MutableTree):
 
230
class WorkingTree(bzrlib.tree.Tree):
197
231
    """Working copy tree.
198
232
 
199
233
    The inventory is held in the `Branch` working-inventory, and the
210
244
                 _internal=False,
211
245
                 _format=None,
212
246
                 _bzrdir=None):
213
 
        """Construct a WorkingTree instance. This is not a public API.
 
247
        """Construct a WorkingTree for basedir.
214
248
 
215
 
        :param branch: A branch to override probing for the branch.
 
249
        If the branch is not supplied, it is opened automatically.
 
250
        If the branch is supplied, it must be the branch for this basedir.
 
251
        (branch.base is not cross checked, because for remote branches that
 
252
        would be meaningless).
216
253
        """
217
254
        self._format = _format
218
255
        self.bzrdir = _bzrdir
219
256
        if not _internal:
220
 
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
221
 
                "WorkingTree.open() to obtain a WorkingTree.")
 
257
            # not created via open etc.
 
258
            warnings.warn("WorkingTree() is deprecated as of bzr version 0.8. "
 
259
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
 
260
                 DeprecationWarning,
 
261
                 stacklevel=2)
 
262
            wt = WorkingTree.open(basedir)
 
263
            self._branch = wt.branch
 
264
            self.basedir = wt.basedir
 
265
            self._control_files = wt._control_files
 
266
            self._hashcache = wt._hashcache
 
267
            self._set_inventory(wt._inventory)
 
268
            self._format = wt._format
 
269
            self.bzrdir = wt.bzrdir
 
270
        from bzrlib.hashcache import HashCache
 
271
        from bzrlib.trace import note, mutter
222
272
        assert isinstance(basedir, basestring), \
223
273
            "base directory %r is not a string" % basedir
224
274
        basedir = safe_unicode(basedir)
225
275
        mutter("opening working tree %r", basedir)
226
276
        if deprecated_passed(branch):
 
277
            if not _internal:
 
278
                warnings.warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
 
279
                     " Please use bzrdir.open_workingtree() or"
 
280
                     " WorkingTree.open().",
 
281
                     DeprecationWarning,
 
282
                     stacklevel=2
 
283
                     )
227
284
            self._branch = branch
228
285
        else:
229
286
            self._branch = self.bzrdir.open_branch()
244
301
        # if needed, or, when the cache sees a change, append it to the hash
245
302
        # cache file, and have the parser take the most recent entry for a
246
303
        # given path only.
247
 
        wt_trans = self.bzrdir.get_workingtree_transport(None)
248
 
        cache_filename = wt_trans.local_abspath('stat-cache')
249
 
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
250
 
                                              self._control_files._file_mode)
251
 
        hc = self._hashcache
 
304
        cache_filename = self.bzrdir.get_workingtree_transport(None).local_abspath('stat-cache')
 
305
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
252
306
        hc.read()
253
307
        # is this scan needed ? it makes things kinda slow.
254
308
        #hc.scan()
258
312
            hc.write()
259
313
 
260
314
        if _inventory is None:
261
 
            # This will be acquired on lock_read() or lock_write()
262
 
            self._inventory_is_modified = False
263
 
            self._inventory = None
 
315
            self._set_inventory(self.read_working_inventory())
264
316
        else:
265
 
            # the caller of __init__ has provided an inventory,
266
 
            # we assume they know what they are doing - as its only
267
 
            # the Format factory and creation methods that are
268
 
            # permitted to do this.
269
 
            self._set_inventory(_inventory, dirty=False)
 
317
            self._set_inventory(_inventory)
270
318
 
271
319
    branch = property(
272
320
        fget=lambda self: self._branch,
287
335
        self._control_files.break_lock()
288
336
        self.branch.break_lock()
289
337
 
290
 
    def requires_rich_root(self):
291
 
        return self._format.requires_rich_root
292
 
 
293
 
    def supports_tree_reference(self):
294
 
        return False
295
 
 
296
 
    def _set_inventory(self, inv, dirty):
297
 
        """Set the internal cached inventory.
298
 
 
299
 
        :param inv: The inventory to set.
300
 
        :param dirty: A boolean indicating whether the inventory is the same
301
 
            logical inventory as whats on disk. If True the inventory is not
302
 
            the same and should be written to disk or data will be lost, if
303
 
            False then the inventory is the same as that on disk and any
304
 
            serialisation would be unneeded overhead.
305
 
        """
 
338
    def _set_inventory(self, inv):
306
339
        assert inv.root is not None
307
340
        self._inventory = inv
308
 
        self._inventory_is_modified = dirty
 
341
        self.path2id = self._inventory.path2id
 
342
 
 
343
    def is_control_filename(self, filename):
 
344
        """True if filename is the name of a control file in this tree.
 
345
        
 
346
        :param filename: A filename within the tree. This is a relative path
 
347
        from the root of this tree.
 
348
 
 
349
        This is true IF and ONLY IF the filename is part of the meta data
 
350
        that bzr controls in this tree. I.E. a random .bzr directory placed
 
351
        on disk will not be a control file for this tree.
 
352
        """
 
353
        return self.bzrdir.is_control_filename(filename)
309
354
 
310
355
    @staticmethod
311
356
    def open(path=None, _unsupported=False):
344
389
        """
345
390
        return WorkingTree.open(path, _unsupported=True)
346
391
 
347
 
    # should be deprecated - this is slow and in any case treating them as a
348
 
    # container is (we now know) bad style -- mbp 20070302
349
 
    ## @deprecated_method(zero_fifteen)
350
392
    def __iter__(self):
351
393
        """Iterate through file_ids for this tree.
352
394
 
378
420
            # in the future this should return the tree for
379
421
            # 'empty:' - the implicit root empty tree.
380
422
            return self.branch.repository.revision_tree(None)
381
 
        try:
382
 
            return self.revision_tree(revision_id)
383
 
        except errors.NoSuchRevision:
384
 
            pass
 
423
        else:
 
424
            try:
 
425
                xml = self.read_basis_inventory()
 
426
                inv = bzrlib.xml6.serializer_v6.read_inventory_from_string(xml)
 
427
                if inv is not None and inv.revision_id == revision_id:
 
428
                    return bzrlib.tree.RevisionTree(self.branch.repository, 
 
429
                                                    inv, revision_id)
 
430
            except (NoSuchFile, errors.BadInventoryFormat):
 
431
                pass
385
432
        # No cached copy available, retrieve from the repository.
386
433
        # FIXME? RBC 20060403 should we cache the inventory locally
387
434
        # at this point ?
440
487
        The path may be absolute or relative. If its a relative path it is 
441
488
        interpreted relative to the python current working directory.
442
489
        """
443
 
        return osutils.relpath(self.basedir, path)
 
490
        return relpath(self.basedir, path)
444
491
 
445
492
    def has_filename(self, filename):
446
493
        return osutils.lexists(self.abspath(filename))
447
494
 
448
495
    def get_file(self, file_id):
449
 
        file_id = osutils.safe_file_id(file_id)
450
496
        return self.get_file_byname(self.id2path(file_id))
451
497
 
452
498
    def get_file_text(self, file_id):
453
 
        file_id = osutils.safe_file_id(file_id)
454
499
        return self.get_file(file_id).read()
455
500
 
456
501
    def get_file_byname(self, filename):
457
502
        return file(self.abspath(filename), 'rb')
458
503
 
459
 
    @needs_read_lock
460
 
    def annotate_iter(self, file_id):
461
 
        """See Tree.annotate_iter
462
 
 
463
 
        This implementation will use the basis tree implementation if possible.
464
 
        Lines not in the basis are attributed to CURRENT_REVISION
465
 
 
466
 
        If there are pending merges, lines added by those merges will be
467
 
        incorrectly attributed to CURRENT_REVISION (but after committing, the
468
 
        attribution will be correct).
469
 
        """
470
 
        file_id = osutils.safe_file_id(file_id)
471
 
        basis = self.basis_tree()
472
 
        basis.lock_read()
473
 
        try:
474
 
            changes = self._iter_changes(basis, True, [self.id2path(file_id)],
475
 
                require_versioned=True).next()
476
 
            changed_content, kind = changes[2], changes[6]
477
 
            if not changed_content:
478
 
                return basis.annotate_iter(file_id)
479
 
            if kind[1] is None:
480
 
                return None
481
 
            import annotate
482
 
            if kind[0] != 'file':
483
 
                old_lines = []
484
 
            else:
485
 
                old_lines = list(basis.annotate_iter(file_id))
486
 
            old = [old_lines]
487
 
            for tree in self.branch.repository.revision_trees(
488
 
                self.get_parent_ids()[1:]):
489
 
                if file_id not in tree:
490
 
                    continue
491
 
                old.append(list(tree.annotate_iter(file_id)))
492
 
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
493
 
                                       CURRENT_REVISION)
494
 
        finally:
495
 
            basis.unlock()
496
 
 
497
504
    def get_parent_ids(self):
498
505
        """See Tree.get_parent_ids.
499
506
        
506
513
        else:
507
514
            parents = [last_rev]
508
515
        try:
509
 
            merges_file = self._control_files.get('pending-merges')
510
 
        except errors.NoSuchFile:
 
516
            merges_file = self._control_files.get_utf8('pending-merges')
 
517
        except NoSuchFile:
511
518
            pass
512
519
        else:
513
520
            for l in merges_file.readlines():
514
 
                revision_id = osutils.safe_revision_id(l.rstrip('\n'))
515
 
                parents.append(revision_id)
 
521
                parents.append(l.rstrip('\n'))
516
522
        return parents
517
523
 
518
 
    @needs_read_lock
519
524
    def get_root_id(self):
520
525
        """Return the id of this trees root"""
521
 
        return self._inventory.root.file_id
 
526
        inv = self.read_working_inventory()
 
527
        return inv.root.file_id
522
528
        
523
529
    def _get_store_filename(self, file_id):
524
530
        ## XXX: badly named; this is not in the store at all
525
 
        file_id = osutils.safe_file_id(file_id)
526
531
        return self.abspath(self.id2path(file_id))
527
532
 
528
533
    @needs_read_lock
529
 
    def clone(self, to_bzrdir, revision_id=None):
 
534
    def clone(self, to_bzrdir, revision_id=None, basis=None):
530
535
        """Duplicate this working tree into to_bzr, including all state.
531
536
        
532
537
        Specifically modified files are kept as modified, but
538
543
            If not None, the cloned tree will have its last revision set to 
539
544
            revision, and and difference between the source trees last revision
540
545
            and this one merged in.
 
546
 
 
547
        basis
 
548
            If not None, a closer copy of a tree which may have some files in
 
549
            common, and which file content should be preferentially copied from.
541
550
        """
542
551
        # assumes the target bzr dir format is compatible.
543
552
        result = self._format.initialize(to_bzrdir)
547
556
    @needs_read_lock
548
557
    def copy_content_into(self, tree, revision_id=None):
549
558
        """Copy the current content and user files of this tree into tree."""
550
 
        tree.set_root_id(self.get_root_id())
551
559
        if revision_id is None:
552
 
            merge.transform_tree(tree, self)
 
560
            transform_tree(tree, self)
553
561
        else:
554
562
            # TODO now merge from tree.last_revision to revision (to preserve
555
563
            # user local changes)
556
 
            merge.transform_tree(tree, self)
 
564
            transform_tree(tree, self)
557
565
            tree.set_parent_ids([revision_id])
558
566
 
 
567
    @needs_write_lock
 
568
    def commit(self, message=None, revprops=None, *args, **kwargs):
 
569
        # avoid circular imports
 
570
        from bzrlib.commit import Commit
 
571
        if revprops is None:
 
572
            revprops = {}
 
573
        if not 'branch-nick' in revprops:
 
574
            revprops['branch-nick'] = self.branch.nick
 
575
        # args for wt.commit start at message from the Commit.commit method,
 
576
        # but with branch a kwarg now, passing in args as is results in the
 
577
        #message being used for the branch
 
578
        args = (DEPRECATED_PARAMETER, message, ) + args
 
579
        committed_id = Commit().commit( working_tree=self, revprops=revprops,
 
580
            *args, **kwargs)
 
581
        return committed_id
 
582
 
559
583
    def id2abspath(self, file_id):
560
 
        file_id = osutils.safe_file_id(file_id)
561
584
        return self.abspath(self.id2path(file_id))
562
585
 
563
586
    def has_id(self, file_id):
564
587
        # files that have been deleted are excluded
565
 
        file_id = osutils.safe_file_id(file_id)
566
 
        inv = self.inventory
 
588
        inv = self._inventory
567
589
        if not inv.has_id(file_id):
568
590
            return False
569
591
        path = inv.id2path(file_id)
570
592
        return osutils.lexists(self.abspath(path))
571
593
 
572
594
    def has_or_had_id(self, file_id):
573
 
        file_id = osutils.safe_file_id(file_id)
574
595
        if file_id == self.inventory.root.file_id:
575
596
            return True
576
597
        return self.inventory.has_id(file_id)
578
599
    __contains__ = has_id
579
600
 
580
601
    def get_file_size(self, file_id):
581
 
        file_id = osutils.safe_file_id(file_id)
582
602
        return os.path.getsize(self.id2abspath(file_id))
583
603
 
584
604
    @needs_read_lock
585
 
    def get_file_sha1(self, file_id, path=None, stat_value=None):
586
 
        file_id = osutils.safe_file_id(file_id)
 
605
    def get_file_sha1(self, file_id, path=None):
587
606
        if not path:
588
607
            path = self._inventory.id2path(file_id)
589
 
        return self._hashcache.get_sha1(path, stat_value)
 
608
        return self._hashcache.get_sha1(path)
590
609
 
591
610
    def get_file_mtime(self, file_id, path=None):
592
 
        file_id = osutils.safe_file_id(file_id)
593
611
        if not path:
594
 
            path = self.inventory.id2path(file_id)
 
612
            path = self._inventory.id2path(file_id)
595
613
        return os.lstat(self.abspath(path)).st_mtime
596
614
 
597
615
    if not supports_executable():
598
616
        def is_executable(self, file_id, path=None):
599
 
            file_id = osutils.safe_file_id(file_id)
600
617
            return self._inventory[file_id].executable
601
618
    else:
602
619
        def is_executable(self, file_id, path=None):
603
620
            if not path:
604
 
                file_id = osutils.safe_file_id(file_id)
605
 
                path = self.id2path(file_id)
 
621
                path = self._inventory.id2path(file_id)
606
622
            mode = os.lstat(self.abspath(path)).st_mode
607
623
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
608
624
 
609
625
    @needs_tree_write_lock
610
 
    def _add(self, files, ids, kinds):
611
 
        """See MutableTree._add."""
 
626
    def add(self, files, ids=None):
 
627
        """Make files versioned.
 
628
 
 
629
        Note that the command line normally calls smart_add instead,
 
630
        which can automatically recurse.
 
631
 
 
632
        This adds the files to the inventory, so that they will be
 
633
        recorded by the next commit.
 
634
 
 
635
        files
 
636
            List of paths to add, relative to the base of the tree.
 
637
 
 
638
        ids
 
639
            If set, use these instead of automatically generated ids.
 
640
            Must be the same length as the list of files, but may
 
641
            contain None for ids that are to be autogenerated.
 
642
 
 
643
        TODO: Perhaps have an option to add the ids even if the files do
 
644
              not (yet) exist.
 
645
 
 
646
        TODO: Perhaps callback with the ids and paths as they're added.
 
647
        """
612
648
        # TODO: Re-adding a file that is removed in the working copy
613
649
        # should probably put it back with the previous ID.
614
 
        # the read and write working inventory should not occur in this 
615
 
        # function - they should be part of lock_write and unlock.
 
650
        if isinstance(files, basestring):
 
651
            assert(ids is None or isinstance(ids, basestring))
 
652
            files = [files]
 
653
            if ids is not None:
 
654
                ids = [ids]
 
655
 
 
656
        if ids is None:
 
657
            ids = [None] * len(files)
 
658
        else:
 
659
            assert(len(ids) == len(files))
 
660
 
616
661
        inv = self.read_working_inventory()
617
 
        for f, file_id, kind in zip(files, ids, kinds):
618
 
            assert kind is not None
 
662
        for f,file_id in zip(files, ids):
 
663
            if self.is_control_filename(f):
 
664
                raise errors.ForbiddenControlFileError(filename=f)
 
665
 
 
666
            fp = splitpath(f)
 
667
 
 
668
            if len(fp) == 0:
 
669
                raise BzrError("cannot add top-level %r" % f)
 
670
 
 
671
            fullpath = normpath(self.abspath(f))
 
672
            try:
 
673
                kind = file_kind(fullpath)
 
674
            except OSError, e:
 
675
                if e.errno == errno.ENOENT:
 
676
                    raise NoSuchFile(fullpath)
 
677
            if not InventoryEntry.versionable_kind(kind):
 
678
                raise errors.BadFileKindError(filename=f, kind=kind)
619
679
            if file_id is None:
620
680
                inv.add_path(f, kind=kind)
621
681
            else:
622
 
                file_id = osutils.safe_file_id(file_id)
623
682
                inv.add_path(f, kind=kind, file_id=file_id)
 
683
 
624
684
        self._write_inventory(inv)
625
685
 
626
686
    @needs_tree_write_lock
627
 
    def _gather_kinds(self, files, kinds):
628
 
        """See MutableTree._gather_kinds."""
629
 
        for pos, f in enumerate(files):
630
 
            if kinds[pos] is None:
631
 
                fullpath = normpath(self.abspath(f))
632
 
                try:
633
 
                    kinds[pos] = file_kind(fullpath)
634
 
                except OSError, e:
635
 
                    if e.errno == errno.ENOENT:
636
 
                        raise errors.NoSuchFile(fullpath)
637
 
 
638
 
    @needs_write_lock
639
687
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
640
688
        """Add revision_id as a parent.
641
689
 
648
696
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
649
697
        """
650
698
        parents = self.get_parent_ids() + [revision_id]
651
 
        self.set_parent_ids(parents, allow_leftmost_as_ghost=len(parents) > 1
652
 
            or allow_leftmost_as_ghost)
 
699
        self.set_parent_ids(parents,
 
700
            allow_leftmost_as_ghost=len(parents) > 1 or allow_leftmost_as_ghost)
653
701
 
654
702
    @needs_tree_write_lock
655
703
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
700
748
        """
701
749
        return self.get_parent_ids()[1:]
702
750
 
703
 
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
704
 
        """Common ghost checking functionality from set_parent_*.
705
 
 
706
 
        This checks that the left hand-parent exists if there are any
707
 
        revisions present.
708
 
        """
709
 
        if len(revision_ids) > 0:
710
 
            leftmost_id = revision_ids[0]
711
 
            if (not allow_leftmost_as_ghost and not
712
 
                self.branch.repository.has_revision(leftmost_id)):
713
 
                raise errors.GhostRevisionUnusableHere(leftmost_id)
714
 
 
715
 
    def _set_merges_from_parent_ids(self, parent_ids):
716
 
        merges = parent_ids[1:]
717
 
        self._control_files.put_bytes('pending-merges', '\n'.join(merges))
718
 
 
719
751
    @needs_tree_write_lock
720
752
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
721
753
        """Set the parent ids to revision_ids.
729
761
        :param revision_ids: The revision_ids to set as the parent ids of this
730
762
            working tree. Any of these may be ghosts.
731
763
        """
732
 
        revision_ids = [osutils.safe_revision_id(r) for r in revision_ids]
733
 
        self._check_parents_for_ghosts(revision_ids,
734
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
735
 
 
736
764
        if len(revision_ids) > 0:
737
 
            self.set_last_revision(revision_ids[0])
 
765
            leftmost_id = revision_ids[0]
 
766
            if (not allow_leftmost_as_ghost and not
 
767
                self.branch.repository.has_revision(leftmost_id)):
 
768
                raise errors.GhostRevisionUnusableHere(leftmost_id)
 
769
            self.set_last_revision(leftmost_id)
738
770
        else:
739
771
            self.set_last_revision(None)
740
 
 
741
 
        self._set_merges_from_parent_ids(revision_ids)
 
772
        merges = revision_ids[1:]
 
773
        self._control_files.put_utf8('pending-merges', '\n'.join(merges))
742
774
 
743
775
    @needs_tree_write_lock
744
776
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
745
 
        """See MutableTree.set_parent_trees."""
746
 
        parent_ids = [osutils.safe_revision_id(rev) for (rev, tree) in parents_list]
 
777
        """Set the parents of the working tree.
747
778
 
748
 
        self._check_parents_for_ghosts(parent_ids,
 
779
        :param parents_list: A list of (revision_id, tree) tuples. 
 
780
            If tree is None, then that element is treated as an unreachable
 
781
            parent tree - i.e. a ghost.
 
782
        """
 
783
        # parent trees are not used in current format trees, delegate to
 
784
        # set_parent_ids
 
785
        self.set_parent_ids([rev for (rev, tree) in parents_list],
749
786
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
750
787
 
751
 
        if len(parent_ids) == 0:
752
 
            leftmost_parent_id = None
753
 
            leftmost_parent_tree = None
754
 
        else:
755
 
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
756
 
 
757
 
        if self._change_last_revision(leftmost_parent_id):
758
 
            if leftmost_parent_tree is None:
759
 
                # If we don't have a tree, fall back to reading the
760
 
                # parent tree from the repository.
761
 
                self._cache_basis_inventory(leftmost_parent_id)
762
 
            else:
763
 
                inv = leftmost_parent_tree.inventory
764
 
                xml = self._create_basis_xml_from_inventory(
765
 
                                        leftmost_parent_id, inv)
766
 
                self._write_basis_inventory(xml)
767
 
        self._set_merges_from_parent_ids(parent_ids)
768
 
 
769
788
    @needs_tree_write_lock
770
789
    def set_pending_merges(self, rev_list):
771
790
        parents = self.get_parent_ids()
777
796
    def set_merge_modified(self, modified_hashes):
778
797
        def iter_stanzas():
779
798
            for file_id, hash in modified_hashes.iteritems():
780
 
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
 
799
                yield Stanza(file_id=file_id, hash=hash)
781
800
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
782
801
 
 
802
    @needs_tree_write_lock
783
803
    def _put_rio(self, filename, stanzas, header):
784
 
        self._must_be_locked()
785
804
        my_file = rio_file(stanzas, header)
786
805
        self._control_files.put(filename, my_file)
787
806
 
790
809
        """Merge from a branch into this working tree.
791
810
 
792
811
        :param branch: The branch to merge from.
793
 
        :param to_revision: If non-None, the merge will merge to to_revision,
794
 
            but not beyond it. to_revision does not need to be in the history
795
 
            of the branch when it is supplied. If None, to_revision defaults to
 
812
        :param to_revision: If non-None, the merge will merge to to_revision, but 
 
813
            not beyond it. to_revision does not need to be in the history of
 
814
            the branch when it is supplied. If None, to_revision defaults to
796
815
            branch.last_revision().
797
816
        """
798
817
        from bzrlib.merge import Merger, Merge3Merger
806
825
            merger.check_basis(check_clean=True, require_commits=False)
807
826
            if to_revision is None:
808
827
                to_revision = branch.last_revision()
809
 
            else:
810
 
                to_revision = osutils.safe_revision_id(to_revision)
811
828
            merger.other_rev_id = to_revision
812
829
            if merger.other_rev_id is None:
813
830
                raise error.NoCommits(branch)
815
832
            merger.other_basis = merger.other_rev_id
816
833
            merger.other_tree = self.branch.repository.revision_tree(
817
834
                merger.other_rev_id)
818
 
            merger.other_branch = branch
819
835
            merger.pp.next_phase()
820
836
            merger.find_base()
821
837
            if merger.base_rev_id == merger.other_rev_id:
833
849
 
834
850
    @needs_read_lock
835
851
    def merge_modified(self):
836
 
        """Return a dictionary of files modified by a merge.
837
 
 
838
 
        The list is initialized by WorkingTree.set_merge_modified, which is 
839
 
        typically called after we make some automatic updates to the tree
840
 
        because of a merge.
841
 
 
842
 
        This returns a map of file_id->sha1, containing only files which are
843
 
        still in the working inventory and have that text hash.
844
 
        """
845
852
        try:
846
853
            hashfile = self._control_files.get('merge-hashes')
847
 
        except errors.NoSuchFile:
 
854
        except NoSuchFile:
848
855
            return {}
849
856
        merge_hashes = {}
850
857
        try:
851
858
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
852
 
                raise errors.MergeModifiedFormatError()
 
859
                raise MergeModifiedFormatError()
853
860
        except StopIteration:
854
 
            raise errors.MergeModifiedFormatError()
 
861
            raise MergeModifiedFormatError()
855
862
        for s in RioReader(hashfile):
856
 
            # RioReader reads in Unicode, so convert file_ids back to utf8
857
 
            file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
 
863
            file_id = s.get("file_id")
858
864
            if file_id not in self.inventory:
859
865
                continue
860
 
            text_hash = s.get("hash")
861
 
            if text_hash == self.get_file_sha1(file_id):
862
 
                merge_hashes[file_id] = text_hash
 
866
            hash = s.get("hash")
 
867
            if hash == self.get_file_sha1(file_id):
 
868
                merge_hashes[file_id] = hash
863
869
        return merge_hashes
864
870
 
865
 
    @needs_write_lock
866
 
    def mkdir(self, path, file_id=None):
867
 
        """See MutableTree.mkdir()."""
868
 
        if file_id is None:
869
 
            file_id = generate_ids.gen_file_id(os.path.basename(path))
870
 
        os.mkdir(self.abspath(path))
871
 
        self.add(path, file_id, 'directory')
872
 
        return file_id
873
 
 
874
871
    def get_symlink_target(self, file_id):
875
 
        file_id = osutils.safe_file_id(file_id)
876
872
        return os.readlink(self.id2abspath(file_id))
877
873
 
878
 
    @needs_write_lock
879
 
    def subsume(self, other_tree):
880
 
        def add_children(inventory, entry):
881
 
            for child_entry in entry.children.values():
882
 
                inventory._byid[child_entry.file_id] = child_entry
883
 
                if child_entry.kind == 'directory':
884
 
                    add_children(inventory, child_entry)
885
 
        if other_tree.get_root_id() == self.get_root_id():
886
 
            raise errors.BadSubsumeSource(self, other_tree,
887
 
                                          'Trees have the same root')
888
 
        try:
889
 
            other_tree_path = self.relpath(other_tree.basedir)
890
 
        except errors.PathNotChild:
891
 
            raise errors.BadSubsumeSource(self, other_tree,
892
 
                'Tree is not contained by the other')
893
 
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
894
 
        if new_root_parent is None:
895
 
            raise errors.BadSubsumeSource(self, other_tree,
896
 
                'Parent directory is not versioned.')
897
 
        # We need to ensure that the result of a fetch will have a
898
 
        # versionedfile for the other_tree root, and only fetching into
899
 
        # RepositoryKnit2 guarantees that.
900
 
        if not self.branch.repository.supports_rich_root():
901
 
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
902
 
        other_tree.lock_tree_write()
903
 
        try:
904
 
            new_parents = other_tree.get_parent_ids()
905
 
            other_root = other_tree.inventory.root
906
 
            other_root.parent_id = new_root_parent
907
 
            other_root.name = osutils.basename(other_tree_path)
908
 
            self.inventory.add(other_root)
909
 
            add_children(self.inventory, other_root)
910
 
            self._write_inventory(self.inventory)
911
 
            # normally we don't want to fetch whole repositories, but i think
912
 
            # here we really do want to consolidate the whole thing.
913
 
            for parent_id in other_tree.get_parent_ids():
914
 
                self.branch.fetch(other_tree.branch, parent_id)
915
 
                self.add_parent_tree_id(parent_id)
916
 
        finally:
917
 
            other_tree.unlock()
918
 
        other_tree.bzrdir.retire_bzrdir()
919
 
 
920
 
    @needs_tree_write_lock
921
 
    def extract(self, file_id, format=None):
922
 
        """Extract a subtree from this tree.
923
 
        
924
 
        A new branch will be created, relative to the path for this tree.
925
 
        """
926
 
        self.flush()
927
 
        def mkdirs(path):
928
 
            segments = osutils.splitpath(path)
929
 
            transport = self.branch.bzrdir.root_transport
930
 
            for name in segments:
931
 
                transport = transport.clone(name)
932
 
                try:
933
 
                    transport.mkdir('.')
934
 
                except errors.FileExists:
935
 
                    pass
936
 
            return transport
937
 
            
938
 
        sub_path = self.id2path(file_id)
939
 
        branch_transport = mkdirs(sub_path)
940
 
        if format is None:
941
 
            format = bzrdir.format_registry.make_bzrdir('dirstate-with-subtree')
942
 
        try:
943
 
            branch_transport.mkdir('.')
944
 
        except errors.FileExists:
945
 
            pass
946
 
        branch_bzrdir = format.initialize_on_transport(branch_transport)
947
 
        try:
948
 
            repo = branch_bzrdir.find_repository()
949
 
        except errors.NoRepositoryPresent:
950
 
            repo = branch_bzrdir.create_repository()
951
 
            assert repo.supports_rich_root()
952
 
        else:
953
 
            if not repo.supports_rich_root():
954
 
                raise errors.RootNotRich()
955
 
        new_branch = branch_bzrdir.create_branch()
956
 
        new_branch.pull(self.branch)
957
 
        for parent_id in self.get_parent_ids():
958
 
            new_branch.fetch(self.branch, parent_id)
959
 
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
960
 
        if tree_transport.base != branch_transport.base:
961
 
            tree_bzrdir = format.initialize_on_transport(tree_transport)
962
 
            branch.BranchReferenceFormat().initialize(tree_bzrdir, new_branch)
963
 
        else:
964
 
            tree_bzrdir = branch_bzrdir
965
 
        wt = tree_bzrdir.create_workingtree(NULL_REVISION)
966
 
        wt.set_parent_ids(self.get_parent_ids())
967
 
        my_inv = self.inventory
968
 
        child_inv = Inventory(root_id=None)
969
 
        new_root = my_inv[file_id]
970
 
        my_inv.remove_recursive_id(file_id)
971
 
        new_root.parent_id = None
972
 
        child_inv.add(new_root)
973
 
        self._write_inventory(my_inv)
974
 
        wt._write_inventory(child_inv)
975
 
        return wt
976
 
 
977
 
    def _serialize(self, inventory, out_file):
978
 
        xml5.serializer_v5.write_inventory(self._inventory, out_file)
979
 
 
980
 
    def _deserialize(selt, in_file):
981
 
        return xml5.serializer_v5.read_inventory(in_file)
982
 
 
983
 
    def flush(self):
984
 
        """Write the in memory inventory to disk."""
985
 
        # TODO: Maybe this should only write on dirty ?
986
 
        if self._control_files._lock_mode != 'w':
987
 
            raise errors.NotWriteLocked(self)
988
 
        sio = StringIO()
989
 
        self._serialize(self._inventory, sio)
990
 
        sio.seek(0)
991
 
        self._control_files.put('inventory', sio)
992
 
        self._inventory_is_modified = False
993
 
 
994
 
    def _kind(self, relpath):
995
 
        return osutils.file_kind(self.abspath(relpath))
996
 
 
997
 
    def list_files(self, include_root=False):
 
874
    def file_class(self, filename):
 
875
        if self.path2id(filename):
 
876
            return 'V'
 
877
        elif self.is_ignored(filename):
 
878
            return 'I'
 
879
        else:
 
880
            return '?'
 
881
 
 
882
    def list_files(self):
998
883
        """Recursively list all files as (path, class, kind, id, entry).
999
884
 
1000
885
        Lists, but does not descend into unversioned directories.
1004
889
 
1005
890
        Skips the control directory.
1006
891
        """
1007
 
        # list_files is an iterator, so @needs_read_lock doesn't work properly
1008
 
        # with it. So callers should be careful to always read_lock the tree.
1009
 
        if not self.is_locked():
1010
 
            raise errors.ObjectNotLocked(self)
1011
 
 
1012
 
        inv = self.inventory
1013
 
        if include_root is True:
1014
 
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
 
892
        inv = self._inventory
1015
893
        # Convert these into local objects to save lookup times
1016
894
        pathjoin = osutils.pathjoin
1017
 
        file_kind = self._kind
 
895
        file_kind = osutils.file_kind
1018
896
 
1019
897
        # transport.base ends in a slash, we want the piece
1020
898
        # between the last two slashes
1080
958
 
1081
959
                fk = file_kind(fap)
1082
960
 
 
961
                if f_ie:
 
962
                    if f_ie.kind != fk:
 
963
                        raise BzrCheckError("file %r entered as kind %r id %r, "
 
964
                                            "now of kind %r"
 
965
                                            % (fap, f_ie.kind, f_ie.file_id, fk))
 
966
 
1083
967
                # make a last minute entry
1084
968
                if f_ie:
1085
969
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
1098
982
                new_children.sort()
1099
983
                new_children = collections.deque(new_children)
1100
984
                stack.append((f_ie.file_id, fp, fap, new_children))
1101
 
                # Break out of inner loop,
1102
 
                # so that we start outer loop with child
 
985
                # Break out of inner loop, so that we start outer loop with child
1103
986
                break
1104
987
            else:
1105
988
                # if we finished all children, pop it off the stack
1106
989
                stack.pop()
1107
990
 
1108
991
    @needs_tree_write_lock
1109
 
    def move(self, from_paths, to_dir=None, after=False, **kwargs):
 
992
    def move(self, from_paths, to_name):
1110
993
        """Rename files.
1111
994
 
1112
 
        to_dir must exist in the inventory.
 
995
        to_name must exist in the inventory.
1113
996
 
1114
 
        If to_dir exists and is a directory, the files are moved into
 
997
        If to_name exists and is a directory, the files are moved into
1115
998
        it, keeping their old names.  
1116
999
 
1117
 
        Note that to_dir is only the last component of the new name;
 
1000
        Note that to_name is only the last component of the new name;
1118
1001
        this doesn't change the directory.
1119
1002
 
1120
 
        For each entry in from_paths the move mode will be determined
1121
 
        independently.
1122
 
 
1123
 
        The first mode moves the file in the filesystem and updates the
1124
 
        inventory. The second mode only updates the inventory without
1125
 
        touching the file on the filesystem. This is the new mode introduced
1126
 
        in version 0.15.
1127
 
 
1128
 
        move uses the second mode if 'after == True' and the target is not
1129
 
        versioned but present in the working tree.
1130
 
 
1131
 
        move uses the second mode if 'after == False' and the source is
1132
 
        versioned but no longer in the working tree, and the target is not
1133
 
        versioned but present in the working tree.
1134
 
 
1135
 
        move uses the first mode if 'after == False' and the source is
1136
 
        versioned and present in the working tree, and the target is not
1137
 
        versioned and not present in the working tree.
1138
 
 
1139
 
        Everything else results in an error.
1140
 
 
1141
1003
        This returns a list of (from_path, to_path) pairs for each
1142
1004
        entry that is moved.
1143
1005
        """
1144
 
        rename_entries = []
1145
 
        rename_tuples = []
1146
 
 
1147
 
        # check for deprecated use of signature
1148
 
        if to_dir is None:
1149
 
            to_dir = kwargs.get('to_name', None)
1150
 
            if to_dir is None:
1151
 
                raise TypeError('You must supply a target directory')
1152
 
            else:
1153
 
                symbol_versioning.warn('The parameter to_name was deprecated'
1154
 
                                       ' in version 0.13. Use to_dir instead',
1155
 
                                       DeprecationWarning)
1156
 
 
1157
 
        # check destination directory
 
1006
        result = []
 
1007
        ## TODO: Option to move IDs only
1158
1008
        assert not isinstance(from_paths, basestring)
1159
1009
        inv = self.inventory
1160
 
        to_abs = self.abspath(to_dir)
 
1010
        to_abs = self.abspath(to_name)
1161
1011
        if not isdir(to_abs):
1162
 
            raise errors.BzrMoveFailedError('',to_dir,
1163
 
                errors.NotADirectory(to_abs))
1164
 
        if not self.has_filename(to_dir):
1165
 
            raise errors.BzrMoveFailedError('',to_dir,
1166
 
                errors.NotInWorkingDirectory(to_dir))
1167
 
        to_dir_id = inv.path2id(to_dir)
1168
 
        if to_dir_id is None:
1169
 
            raise errors.BzrMoveFailedError('',to_dir,
1170
 
                errors.NotVersionedError(path=str(to_dir)))
1171
 
 
 
1012
            raise BzrError("destination %r is not a directory" % to_abs)
 
1013
        if not self.has_filename(to_name):
 
1014
            raise BzrError("destination %r not in working directory" % to_abs)
 
1015
        to_dir_id = inv.path2id(to_name)
 
1016
        if to_dir_id is None and to_name != '':
 
1017
            raise BzrError("destination %r is not a versioned directory" % to_name)
1172
1018
        to_dir_ie = inv[to_dir_id]
1173
1019
        if to_dir_ie.kind != 'directory':
1174
 
            raise errors.BzrMoveFailedError('',to_dir,
1175
 
                errors.NotADirectory(to_abs))
1176
 
 
1177
 
        # create rename entries and tuples
1178
 
        for from_rel in from_paths:
1179
 
            from_tail = splitpath(from_rel)[-1]
1180
 
            from_id = inv.path2id(from_rel)
1181
 
            if from_id is None:
1182
 
                raise errors.BzrMoveFailedError(from_rel,to_dir,
1183
 
                    errors.NotVersionedError(path=str(from_rel)))
1184
 
 
1185
 
            from_entry = inv[from_id]
1186
 
            from_parent_id = from_entry.parent_id
1187
 
            to_rel = pathjoin(to_dir, from_tail)
1188
 
            rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
1189
 
                                         from_id=from_id,
1190
 
                                         from_tail=from_tail,
1191
 
                                         from_parent_id=from_parent_id,
1192
 
                                         to_rel=to_rel, to_tail=from_tail,
1193
 
                                         to_parent_id=to_dir_id)
1194
 
            rename_entries.append(rename_entry)
1195
 
            rename_tuples.append((from_rel, to_rel))
1196
 
 
1197
 
        # determine which move mode to use. checks also for movability
1198
 
        rename_entries = self._determine_mv_mode(rename_entries, after)
1199
 
 
1200
 
        original_modified = self._inventory_is_modified
 
1020
            raise BzrError("destination %r is not a directory" % to_abs)
 
1021
 
 
1022
        to_idpath = inv.get_idpath(to_dir_id)
 
1023
 
 
1024
        for f in from_paths:
 
1025
            if not self.has_filename(f):
 
1026
                raise BzrError("%r does not exist in working tree" % f)
 
1027
            f_id = inv.path2id(f)
 
1028
            if f_id is None:
 
1029
                raise BzrError("%r is not versioned" % f)
 
1030
            name_tail = splitpath(f)[-1]
 
1031
            dest_path = pathjoin(to_name, name_tail)
 
1032
            if self.has_filename(dest_path):
 
1033
                raise BzrError("destination %r already exists" % dest_path)
 
1034
            if f_id in to_idpath:
 
1035
                raise BzrError("can't move %r to a subdirectory of itself" % f)
 
1036
 
 
1037
        # OK, so there's a race here, it's possible that someone will
 
1038
        # create a file in this interval and then the rename might be
 
1039
        # left half-done.  But we should have caught most problems.
 
1040
        orig_inv = deepcopy(self.inventory)
1201
1041
        try:
1202
 
            if len(from_paths):
1203
 
                self._inventory_is_modified = True
1204
 
            self._move(rename_entries)
 
1042
            for f in from_paths:
 
1043
                name_tail = splitpath(f)[-1]
 
1044
                dest_path = pathjoin(to_name, name_tail)
 
1045
                result.append((f, dest_path))
 
1046
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
 
1047
                try:
 
1048
                    rename(self.abspath(f), self.abspath(dest_path))
 
1049
                except OSError, e:
 
1050
                    raise BzrError("failed to rename %r to %r: %s" %
 
1051
                                   (f, dest_path, e[1]),
 
1052
                            ["rename rolled back"])
1205
1053
        except:
1206
1054
            # restore the inventory on error
1207
 
            self._inventory_is_modified = original_modified
 
1055
            self._set_inventory(orig_inv)
1208
1056
            raise
1209
1057
        self._write_inventory(inv)
1210
 
        return rename_tuples
1211
 
 
1212
 
    def _determine_mv_mode(self, rename_entries, after=False):
1213
 
        """Determines for each from-to pair if both inventory and working tree
1214
 
        or only the inventory has to be changed.
1215
 
 
1216
 
        Also does basic plausability tests.
1217
 
        """
1218
 
        inv = self.inventory
1219
 
 
1220
 
        for rename_entry in rename_entries:
1221
 
            # store to local variables for easier reference
1222
 
            from_rel = rename_entry.from_rel
1223
 
            from_id = rename_entry.from_id
1224
 
            to_rel = rename_entry.to_rel
1225
 
            to_id = inv.path2id(to_rel)
1226
 
            only_change_inv = False
1227
 
 
1228
 
            # check the inventory for source and destination
1229
 
            if from_id is None:
1230
 
                raise errors.BzrMoveFailedError(from_rel,to_rel,
1231
 
                    errors.NotVersionedError(path=str(from_rel)))
1232
 
            if to_id is not None:
1233
 
                raise errors.BzrMoveFailedError(from_rel,to_rel,
1234
 
                    errors.AlreadyVersionedError(path=str(to_rel)))
1235
 
 
1236
 
            # try to determine the mode for rename (only change inv or change
1237
 
            # inv and file system)
1238
 
            if after:
1239
 
                if not self.has_filename(to_rel):
1240
 
                    raise errors.BzrMoveFailedError(from_id,to_rel,
1241
 
                        errors.NoSuchFile(path=str(to_rel),
1242
 
                        extra="New file has not been created yet"))
1243
 
                only_change_inv = True
1244
 
            elif not self.has_filename(from_rel) and self.has_filename(to_rel):
1245
 
                only_change_inv = True
1246
 
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
1247
 
                only_change_inv = False
1248
 
            else:
1249
 
                # something is wrong, so lets determine what exactly
1250
 
                if not self.has_filename(from_rel) and \
1251
 
                   not self.has_filename(to_rel):
1252
 
                    raise errors.BzrRenameFailedError(from_rel,to_rel,
1253
 
                        errors.PathsDoNotExist(paths=(str(from_rel),
1254
 
                        str(to_rel))))
1255
 
                else:
1256
 
                    raise errors.RenameFailedFilesExist(from_rel, to_rel,
1257
 
                        extra="(Use --after to update the Bazaar id)")
1258
 
            rename_entry.only_change_inv = only_change_inv
1259
 
        return rename_entries
1260
 
 
1261
 
    def _move(self, rename_entries):
1262
 
        """Moves a list of files.
1263
 
 
1264
 
        Depending on the value of the flag 'only_change_inv', the
1265
 
        file will be moved on the file system or not.
1266
 
        """
1267
 
        inv = self.inventory
1268
 
        moved = []
1269
 
 
1270
 
        for entry in rename_entries:
1271
 
            try:
1272
 
                self._move_entry(entry)
1273
 
            except:
1274
 
                self._rollback_move(moved)
1275
 
                raise
1276
 
            moved.append(entry)
1277
 
 
1278
 
    def _rollback_move(self, moved):
1279
 
        """Try to rollback a previous move in case of an filesystem error."""
1280
 
        inv = self.inventory
1281
 
        for entry in moved:
1282
 
            try:
1283
 
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
1284
 
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
1285
 
                    entry.from_tail, entry.from_parent_id,
1286
 
                    entry.only_change_inv))
1287
 
            except errors.BzrMoveFailedError, e:
1288
 
                raise errors.BzrMoveFailedError( '', '', "Rollback failed."
1289
 
                        " The working tree is in an inconsistent state."
1290
 
                        " Please consider doing a 'bzr revert'."
1291
 
                        " Error message is: %s" % e)
1292
 
 
1293
 
    def _move_entry(self, entry):
1294
 
        inv = self.inventory
1295
 
        from_rel_abs = self.abspath(entry.from_rel)
1296
 
        to_rel_abs = self.abspath(entry.to_rel)
1297
 
        if from_rel_abs == to_rel_abs:
1298
 
            raise errors.BzrMoveFailedError(entry.from_rel, entry.to_rel,
1299
 
                "Source and target are identical.")
1300
 
 
1301
 
        if not entry.only_change_inv:
1302
 
            try:
1303
 
                osutils.rename(from_rel_abs, to_rel_abs)
1304
 
            except OSError, e:
1305
 
                raise errors.BzrMoveFailedError(entry.from_rel,
1306
 
                    entry.to_rel, e[1])
1307
 
        inv.rename(entry.from_id, entry.to_parent_id, entry.to_tail)
 
1058
        return result
1308
1059
 
1309
1060
    @needs_tree_write_lock
1310
 
    def rename_one(self, from_rel, to_rel, after=False):
 
1061
    def rename_one(self, from_rel, to_rel):
1311
1062
        """Rename one file.
1312
1063
 
1313
1064
        This can change the directory or the filename or both.
1314
 
 
1315
 
        rename_one has several 'modes' to work. First, it can rename a physical
1316
 
        file and change the file_id. That is the normal mode. Second, it can
1317
 
        only change the file_id without touching any physical file. This is
1318
 
        the new mode introduced in version 0.15.
1319
 
 
1320
 
        rename_one uses the second mode if 'after == True' and 'to_rel' is not
1321
 
        versioned but present in the working tree.
1322
 
 
1323
 
        rename_one uses the second mode if 'after == False' and 'from_rel' is
1324
 
        versioned but no longer in the working tree, and 'to_rel' is not
1325
 
        versioned but present in the working tree.
1326
 
 
1327
 
        rename_one uses the first mode if 'after == False' and 'from_rel' is
1328
 
        versioned and present in the working tree, and 'to_rel' is not
1329
 
        versioned and not present in the working tree.
1330
 
 
1331
 
        Everything else results in an error.
1332
1065
        """
1333
1066
        inv = self.inventory
1334
 
        rename_entries = []
1335
 
 
1336
 
        # create rename entries and tuples
1337
 
        from_tail = splitpath(from_rel)[-1]
1338
 
        from_id = inv.path2id(from_rel)
1339
 
        if from_id is None:
1340
 
            raise errors.BzrRenameFailedError(from_rel,to_rel,
1341
 
                errors.NotVersionedError(path=str(from_rel)))
1342
 
        from_entry = inv[from_id]
1343
 
        from_parent_id = from_entry.parent_id
 
1067
        if not self.has_filename(from_rel):
 
1068
            raise BzrError("can't rename: old working file %r does not exist" % from_rel)
 
1069
        if self.has_filename(to_rel):
 
1070
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
 
1071
 
 
1072
        file_id = inv.path2id(from_rel)
 
1073
        if file_id is None:
 
1074
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
 
1075
 
 
1076
        entry = inv[file_id]
 
1077
        from_parent = entry.parent_id
 
1078
        from_name = entry.name
 
1079
        
 
1080
        if inv.path2id(to_rel):
 
1081
            raise BzrError("can't rename: new name %r is already versioned" % to_rel)
 
1082
 
1344
1083
        to_dir, to_tail = os.path.split(to_rel)
1345
1084
        to_dir_id = inv.path2id(to_dir)
1346
 
        rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
1347
 
                                     from_id=from_id,
1348
 
                                     from_tail=from_tail,
1349
 
                                     from_parent_id=from_parent_id,
1350
 
                                     to_rel=to_rel, to_tail=to_tail,
1351
 
                                     to_parent_id=to_dir_id)
1352
 
        rename_entries.append(rename_entry)
1353
 
 
1354
 
        # determine which move mode to use. checks also for movability
1355
 
        rename_entries = self._determine_mv_mode(rename_entries, after)
1356
 
 
1357
 
        # check if the target changed directory and if the target directory is
1358
 
        # versioned
1359
 
        if to_dir_id is None:
1360
 
            raise errors.BzrMoveFailedError(from_rel,to_rel,
1361
 
                errors.NotVersionedError(path=str(to_dir)))
1362
 
 
1363
 
        # all checks done. now we can continue with our actual work
1364
 
        mutter('rename_one:\n'
1365
 
               '  from_id   {%s}\n'
1366
 
               '  from_rel: %r\n'
1367
 
               '  to_rel:   %r\n'
1368
 
               '  to_dir    %r\n'
1369
 
               '  to_dir_id {%s}\n',
1370
 
               from_id, from_rel, to_rel, to_dir, to_dir_id)
1371
 
 
1372
 
        self._move(rename_entries)
 
1085
        if to_dir_id is None and to_dir != '':
 
1086
            raise BzrError("can't determine destination directory id for %r" % to_dir)
 
1087
 
 
1088
        mutter("rename_one:")
 
1089
        mutter("  file_id    {%s}" % file_id)
 
1090
        mutter("  from_rel   %r" % from_rel)
 
1091
        mutter("  to_rel     %r" % to_rel)
 
1092
        mutter("  to_dir     %r" % to_dir)
 
1093
        mutter("  to_dir_id  {%s}" % to_dir_id)
 
1094
 
 
1095
        inv.rename(file_id, to_dir_id, to_tail)
 
1096
 
 
1097
        from_abs = self.abspath(from_rel)
 
1098
        to_abs = self.abspath(to_rel)
 
1099
        try:
 
1100
            rename(from_abs, to_abs)
 
1101
        except OSError, e:
 
1102
            inv.rename(file_id, from_parent, from_name)
 
1103
            raise BzrError("failed to rename %r to %r: %s"
 
1104
                    % (from_abs, to_abs, e[1]),
 
1105
                    ["rename rolled back"])
1373
1106
        self._write_inventory(inv)
1374
1107
 
1375
 
    class _RenameEntry(object):
1376
 
        def __init__(self, from_rel, from_id, from_tail, from_parent_id,
1377
 
                     to_rel, to_tail, to_parent_id, only_change_inv=False):
1378
 
            self.from_rel = from_rel
1379
 
            self.from_id = from_id
1380
 
            self.from_tail = from_tail
1381
 
            self.from_parent_id = from_parent_id
1382
 
            self.to_rel = to_rel
1383
 
            self.to_tail = to_tail
1384
 
            self.to_parent_id = to_parent_id
1385
 
            self.only_change_inv = only_change_inv
1386
 
 
1387
1108
    @needs_read_lock
1388
1109
    def unknowns(self):
1389
1110
        """Return all unknown files.
1391
1112
        These are files in the working directory that are not versioned or
1392
1113
        control files or ignored.
1393
1114
        """
1394
 
        # force the extras method to be fully executed before returning, to 
1395
 
        # prevent race conditions with the lock
1396
 
        return iter(
1397
 
            [subp for subp in self.extras() if not self.is_ignored(subp)])
1398
 
 
 
1115
        for subp in self.extras():
 
1116
            if not self.is_ignored(subp):
 
1117
                yield subp
 
1118
    
1399
1119
    @needs_tree_write_lock
1400
1120
    def unversion(self, file_ids):
1401
1121
        """Remove the file ids in file_ids from the current versioned set.
1407
1127
        :raises: NoSuchId if any fileid is not currently versioned.
1408
1128
        """
1409
1129
        for file_id in file_ids:
1410
 
            file_id = osutils.safe_file_id(file_id)
1411
1130
            if self._inventory.has_id(file_id):
1412
1131
                self._inventory.remove_recursive_id(file_id)
1413
1132
            else:
1441
1160
                yield stem
1442
1161
 
1443
1162
    @needs_write_lock
1444
 
    def pull(self, source, overwrite=False, stop_revision=None,
1445
 
             change_reporter=None):
 
1163
    def pull(self, source, overwrite=False, stop_revision=None):
1446
1164
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
1447
1165
        source.lock_read()
1448
1166
        try:
1449
1167
            pp = ProgressPhase("Pull phase", 2, top_pb)
1450
1168
            pp.next_phase()
1451
 
            old_revision_info = self.branch.last_revision_info()
 
1169
            old_revision_history = self.branch.revision_history()
1452
1170
            basis_tree = self.basis_tree()
1453
1171
            count = self.branch.pull(source, overwrite, stop_revision)
1454
 
            new_revision_info = self.branch.last_revision_info()
1455
 
            if new_revision_info != old_revision_info:
 
1172
            new_revision_history = self.branch.revision_history()
 
1173
            if new_revision_history != old_revision_history:
1456
1174
                pp.next_phase()
 
1175
                if len(old_revision_history):
 
1176
                    other_revision = old_revision_history[-1]
 
1177
                else:
 
1178
                    other_revision = None
1457
1179
                repository = self.branch.repository
1458
1180
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
1459
 
                basis_tree.lock_read()
1460
1181
                try:
1461
1182
                    new_basis_tree = self.branch.basis_tree()
1462
 
                    merge.merge_inner(
1463
 
                                self.branch,
 
1183
                    merge_inner(self.branch,
1464
1184
                                new_basis_tree,
1465
1185
                                basis_tree,
1466
1186
                                this_tree=self,
1467
 
                                pb=pb,
1468
 
                                change_reporter=change_reporter)
1469
 
                    if (basis_tree.inventory.root is None and
1470
 
                        new_basis_tree.inventory.root is not None):
1471
 
                        self.set_root_id(new_basis_tree.inventory.root.file_id)
 
1187
                                pb=pb)
1472
1188
                finally:
1473
1189
                    pb.finished()
1474
 
                    basis_tree.unlock()
1475
1190
                # TODO - dedup parents list with things merged by pull ?
1476
1191
                # reuse the revisiontree we merged against to set the new
1477
1192
                # tree data.
1479
1194
                # we have to pull the merge trees out again, because 
1480
1195
                # merge_inner has set the ids. - this corner is not yet 
1481
1196
                # layered well enough to prevent double handling.
1482
 
                # XXX TODO: Fix the double handling: telling the tree about
1483
 
                # the already known parent data is wasteful.
1484
1197
                merges = self.get_parent_ids()[1:]
1485
1198
                parent_trees.extend([
1486
1199
                    (parent, repository.revision_tree(parent)) for
1491
1204
            source.unlock()
1492
1205
            top_pb.finished()
1493
1206
 
1494
 
    @needs_write_lock
1495
 
    def put_file_bytes_non_atomic(self, file_id, bytes):
1496
 
        """See MutableTree.put_file_bytes_non_atomic."""
1497
 
        file_id = osutils.safe_file_id(file_id)
1498
 
        stream = file(self.id2abspath(file_id), 'wb')
1499
 
        try:
1500
 
            stream.write(bytes)
1501
 
        finally:
1502
 
            stream.close()
1503
 
        # TODO: update the hashcache here ?
1504
 
 
1505
1207
    def extras(self):
1506
 
        """Yield all unversioned files in this WorkingTree.
 
1208
        """Yield all unknown files in this WorkingTree.
1507
1209
 
1508
 
        If there are any unversioned directories then only the directory is
1509
 
        returned, not all its children.  But if there are unversioned files
 
1210
        If there are any unknown directories then only the directory is
 
1211
        returned, not all its children.  But if there are unknown files
1510
1212
        under a versioned subdirectory, they are returned.
1511
1213
 
1512
1214
        Currently returned depth-first, sorted by name within directories.
1513
 
        This is the same order used by 'osutils.walkdirs'.
1514
1215
        """
1515
1216
        ## TODO: Work from given directory downwards
1516
1217
        for path, dir_entry in self.inventory.directories():
1537
1238
                subp = pathjoin(path, subf)
1538
1239
                yield subp
1539
1240
 
 
1241
    def _translate_ignore_rule(self, rule):
 
1242
        """Translate a single ignore rule to a regex.
 
1243
 
 
1244
        There are two types of ignore rules.  Those that do not contain a / are
 
1245
        matched against the tail of the filename (that is, they do not care
 
1246
        what directory the file is in.)  Rules which do contain a slash must
 
1247
        match the entire path.  As a special case, './' at the start of the
 
1248
        string counts as a slash in the string but is removed before matching
 
1249
        (e.g. ./foo.c, ./src/foo.c)
 
1250
 
 
1251
        :return: The translated regex.
 
1252
        """
 
1253
        if rule[:2] in ('./', '.\\'):
 
1254
            # rootdir rule
 
1255
            result = fnmatch.translate(rule[2:])
 
1256
        elif '/' in rule or '\\' in rule:
 
1257
            # path prefix 
 
1258
            result = fnmatch.translate(rule)
 
1259
        else:
 
1260
            # default rule style.
 
1261
            result = "(?:.*/)?(?!.*/)" + fnmatch.translate(rule)
 
1262
        assert result[-1] == '$', "fnmatch.translate did not add the expected $"
 
1263
        return "(" + result + ")"
 
1264
 
 
1265
    def _combine_ignore_rules(self, rules):
 
1266
        """Combine a list of ignore rules into a single regex object.
 
1267
 
 
1268
        Each individual rule is combined with | to form a big regex, which then
 
1269
        has $ added to it to form something like ()|()|()$. The group index for
 
1270
        each subregex's outermost group is placed in a dictionary mapping back 
 
1271
        to the rule. This allows quick identification of the matching rule that
 
1272
        triggered a match.
 
1273
        :return: a list of the compiled regex and the matching-group index 
 
1274
        dictionaries. We return a list because python complains if you try to 
 
1275
        combine more than 100 regexes.
 
1276
        """
 
1277
        result = []
 
1278
        groups = {}
 
1279
        next_group = 0
 
1280
        translated_rules = []
 
1281
        for rule in rules:
 
1282
            translated_rule = self._translate_ignore_rule(rule)
 
1283
            compiled_rule = re.compile(translated_rule)
 
1284
            groups[next_group] = rule
 
1285
            next_group += compiled_rule.groups
 
1286
            translated_rules.append(translated_rule)
 
1287
            if next_group == 99:
 
1288
                result.append((re.compile("|".join(translated_rules)), groups))
 
1289
                groups = {}
 
1290
                next_group = 0
 
1291
                translated_rules = []
 
1292
        if len(translated_rules):
 
1293
            result.append((re.compile("|".join(translated_rules)), groups))
 
1294
        return result
 
1295
 
1540
1296
    def ignored_files(self):
1541
1297
        """Yield list of PATH, IGNORE_PATTERN"""
1542
1298
        for subp in self.extras():
1555
1311
 
1556
1312
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
1557
1313
        ignore_globs.update(ignores.get_runtime_ignores())
 
1314
 
1558
1315
        ignore_globs.update(ignores.get_user_ignores())
 
1316
 
1559
1317
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1560
1318
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
1561
1319
            try:
1562
1320
                ignore_globs.update(ignores.parse_ignore_file(f))
1563
1321
            finally:
1564
1322
                f.close()
 
1323
 
1565
1324
        self._ignoreset = ignore_globs
 
1325
        self._ignore_regex = self._combine_ignore_rules(ignore_globs)
1566
1326
        return ignore_globs
1567
1327
 
1568
 
    def _flush_ignore_list_cache(self):
1569
 
        """Resets the cached ignore list to force a cache rebuild."""
1570
 
        self._ignoreset = None
1571
 
        self._ignoreglobster = None
 
1328
    def _get_ignore_rules_as_regex(self):
 
1329
        """Return a regex of the ignore rules and a mapping dict.
 
1330
 
 
1331
        :return: (ignore rules compiled regex, dictionary mapping rule group 
 
1332
        indices to original rule.)
 
1333
        """
 
1334
        if getattr(self, '_ignoreset', None) is None:
 
1335
            self.get_ignore_list()
 
1336
        return self._ignore_regex
1572
1337
 
1573
1338
    def is_ignored(self, filename):
1574
1339
        r"""Check whether the filename matches an ignore pattern.
1579
1344
        If the file is ignored, returns the pattern which caused it to
1580
1345
        be ignored, otherwise None.  So this can simply be used as a
1581
1346
        boolean if desired."""
1582
 
        if getattr(self, '_ignoreglobster', None) is None:
1583
 
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
1584
 
        return self._ignoreglobster.match(filename)
 
1347
 
 
1348
        # TODO: Use '**' to match directories, and other extended
 
1349
        # globbing stuff from cvs/rsync.
 
1350
 
 
1351
        # XXX: fnmatch is actually not quite what we want: it's only
 
1352
        # approximately the same as real Unix fnmatch, and doesn't
 
1353
        # treat dotfiles correctly and allows * to match /.
 
1354
        # Eventually it should be replaced with something more
 
1355
        # accurate.
 
1356
    
 
1357
        rules = self._get_ignore_rules_as_regex()
 
1358
        for regex, mapping in rules:
 
1359
            match = regex.match(filename)
 
1360
            if match is not None:
 
1361
                # one or more of the groups in mapping will have a non-None
 
1362
                # group match.
 
1363
                groups = match.groups()
 
1364
                rules = [mapping[group] for group in 
 
1365
                    mapping if groups[group] is not None]
 
1366
                return rules[0]
 
1367
        return None
1585
1368
 
1586
1369
    def kind(self, file_id):
1587
1370
        return file_kind(self.id2abspath(file_id))
1588
1371
 
1589
 
    def _comparison_data(self, entry, path):
1590
 
        abspath = self.abspath(path)
1591
 
        try:
1592
 
            stat_value = os.lstat(abspath)
1593
 
        except OSError, e:
1594
 
            if getattr(e, 'errno', None) == errno.ENOENT:
1595
 
                stat_value = None
1596
 
                kind = None
1597
 
                executable = False
1598
 
            else:
1599
 
                raise
1600
 
        else:
1601
 
            mode = stat_value.st_mode
1602
 
            kind = osutils.file_kind_from_stat_mode(mode)
1603
 
            if not supports_executable():
1604
 
                executable = entry is not None and entry.executable
1605
 
            else:
1606
 
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
1607
 
        return kind, executable, stat_value
1608
 
 
1609
 
    def _file_size(self, entry, stat_value):
1610
 
        return stat_value.st_size
1611
 
 
1612
1372
    def last_revision(self):
1613
 
        """Return the last revision of the branch for this tree.
1614
 
 
1615
 
        This format tree does not support a separate marker for last-revision
1616
 
        compared to the branch.
1617
 
 
1618
 
        See MutableTree.last_revision
 
1373
        """Return the last revision id of this working tree.
 
1374
 
 
1375
        In early branch formats this was the same as the branch last_revision,
 
1376
        but that cannot be relied upon - for working tree operations,
 
1377
        always use tree.last_revision(). This returns the left most parent id,
 
1378
        or None if there are no parents.
 
1379
 
 
1380
        This was deprecated as of 0.11. Please use get_parent_ids instead.
1619
1381
        """
1620
1382
        return self._last_revision()
1621
1383
 
1627
1389
    def is_locked(self):
1628
1390
        return self._control_files.is_locked()
1629
1391
 
1630
 
    def _must_be_locked(self):
1631
 
        if not self.is_locked():
1632
 
            raise errors.ObjectNotLocked(self)
1633
 
 
1634
1392
    def lock_read(self):
1635
1393
        """See Branch.lock_read, and WorkingTree.unlock."""
1636
 
        if not self.is_locked():
1637
 
            self._reset_data()
1638
1394
        self.branch.lock_read()
1639
1395
        try:
1640
1396
            return self._control_files.lock_read()
1643
1399
            raise
1644
1400
 
1645
1401
    def lock_tree_write(self):
1646
 
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
1647
 
        if not self.is_locked():
1648
 
            self._reset_data()
 
1402
        """Lock the working tree for write, and the branch for read.
 
1403
 
 
1404
        This is useful for operations which only need to mutate the working
 
1405
        tree. Taking out branch write locks is a relatively expensive process
 
1406
        and may fail if the branch is on read only media. So branch write locks
 
1407
        should only be taken out when we are modifying branch data - such as in
 
1408
        operations like commit, pull, uncommit and update.
 
1409
        """
1649
1410
        self.branch.lock_read()
1650
1411
        try:
1651
1412
            return self._control_files.lock_write()
1654
1415
            raise
1655
1416
 
1656
1417
    def lock_write(self):
1657
 
        """See MutableTree.lock_write, and WorkingTree.unlock."""
1658
 
        if not self.is_locked():
1659
 
            self._reset_data()
 
1418
        """See Branch.lock_write, and WorkingTree.unlock."""
1660
1419
        self.branch.lock_write()
1661
1420
        try:
1662
1421
            return self._control_files.lock_write()
1670
1429
    def _basis_inventory_name(self):
1671
1430
        return 'basis-inventory-cache'
1672
1431
 
1673
 
    def _reset_data(self):
1674
 
        """Reset transient data that cannot be revalidated."""
1675
 
        self._inventory_is_modified = False
1676
 
        result = self._deserialize(self._control_files.get('inventory'))
1677
 
        self._set_inventory(result, dirty=False)
1678
 
 
1679
1432
    @needs_tree_write_lock
1680
1433
    def set_last_revision(self, new_revision):
1681
1434
        """Change the last revision in the working tree."""
1682
 
        new_revision = osutils.safe_revision_id(new_revision)
1683
1435
        if self._change_last_revision(new_revision):
1684
1436
            self._cache_basis_inventory(new_revision)
1685
1437
 
1699
1451
            self.branch.set_revision_history([new_revision])
1700
1452
        return True
1701
1453
 
1702
 
    def _write_basis_inventory(self, xml):
1703
 
        """Write the basis inventory XML to the basis-inventory file"""
1704
 
        assert isinstance(xml, str), 'serialised xml must be bytestring.'
1705
 
        path = self._basis_inventory_name()
1706
 
        sio = StringIO(xml)
1707
 
        self._control_files.put(path, sio)
1708
 
 
1709
 
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
1710
 
        """Create the text that will be saved in basis-inventory"""
1711
 
        # TODO: jam 20070209 This should be redundant, as the revision_id
1712
 
        #       as all callers should have already converted the revision_id to
1713
 
        #       utf8
1714
 
        inventory.revision_id = osutils.safe_revision_id(revision_id)
1715
 
        return xml7.serializer_v7.write_inventory_to_string(inventory)
1716
 
 
1717
1454
    def _cache_basis_inventory(self, new_revision):
1718
1455
        """Cache new_revision as the basis inventory."""
1719
1456
        # TODO: this should allow the ready-to-use inventory to be passed in,
1733
1470
            xml = self.branch.repository.get_inventory_xml(new_revision)
1734
1471
            firstline = xml.split('\n', 1)[0]
1735
1472
            if (not 'revision_id="' in firstline or 
1736
 
                'format="7"' not in firstline):
 
1473
                'format="6"' not in firstline):
1737
1474
                inv = self.branch.repository.deserialise_inventory(
1738
1475
                    new_revision, xml)
1739
 
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
1740
 
            self._write_basis_inventory(xml)
 
1476
                inv.revision_id = new_revision
 
1477
                xml = bzrlib.xml6.serializer_v6.write_inventory_to_string(inv)
 
1478
            assert isinstance(xml, str), 'serialised xml must be bytestring.'
 
1479
            path = self._basis_inventory_name()
 
1480
            sio = StringIO(xml)
 
1481
            self._control_files.put(path, sio)
1741
1482
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1742
1483
            pass
1743
1484
 
1748
1489
        
1749
1490
    @needs_read_lock
1750
1491
    def read_working_inventory(self):
1751
 
        """Read the working inventory.
1752
 
        
1753
 
        :raises errors.InventoryModified: read_working_inventory will fail
1754
 
            when the current in memory inventory has been modified.
1755
 
        """
1756
 
        # conceptually this should be an implementation detail of the tree. 
1757
 
        # XXX: Deprecate this.
 
1492
        """Read the working inventory."""
1758
1493
        # ElementTree does its own conversion from UTF-8, so open in
1759
1494
        # binary.
1760
 
        if self._inventory_is_modified:
1761
 
            raise errors.InventoryModified(self)
1762
 
        result = self._deserialize(self._control_files.get('inventory'))
1763
 
        self._set_inventory(result, dirty=False)
 
1495
        result = bzrlib.xml5.serializer_v5.read_inventory(
 
1496
            self._control_files.get('inventory'))
 
1497
        self._set_inventory(result)
1764
1498
        return result
1765
1499
 
1766
1500
    @needs_tree_write_lock
1789
1523
        for f in files:
1790
1524
            fid = inv.path2id(f)
1791
1525
            if not fid:
1792
 
                note("%s is not versioned."%f)
1793
 
            else:
1794
 
                if verbose:
1795
 
                    # having remove it, it must be either ignored or unknown
1796
 
                    if self.is_ignored(f):
1797
 
                        new_status = 'I'
1798
 
                    else:
1799
 
                        new_status = '?'
1800
 
                    textui.show_status(new_status, inv[fid].kind, f,
1801
 
                                       to_file=to_file)
1802
 
                del inv[fid]
 
1526
                # TODO: Perhaps make this just a warning, and continue?
 
1527
                # This tends to happen when 
 
1528
                raise NotVersionedError(path=f)
 
1529
            if verbose:
 
1530
                # having remove it, it must be either ignored or unknown
 
1531
                if self.is_ignored(f):
 
1532
                    new_status = 'I'
 
1533
                else:
 
1534
                    new_status = '?'
 
1535
                show_status(new_status, inv[fid].kind, f, to_file=to_file)
 
1536
            del inv[fid]
1803
1537
 
1804
1538
        self._write_inventory(inv)
1805
1539
 
1806
1540
    @needs_tree_write_lock
1807
1541
    def revert(self, filenames, old_tree=None, backups=True, 
1808
 
               pb=DummyProgress(), report_changes=False):
1809
 
        from bzrlib.conflicts import resolve
 
1542
               pb=DummyProgress()):
 
1543
        from transform import revert
 
1544
        from conflicts import resolve
1810
1545
        if old_tree is None:
1811
1546
            old_tree = self.basis_tree()
1812
 
        conflicts = transform.revert(self, old_tree, filenames, backups, pb,
1813
 
                                     report_changes)
 
1547
        conflicts = revert(self, old_tree, filenames, backups, pb)
1814
1548
        if not len(filenames):
1815
1549
            self.set_parent_ids(self.get_parent_ids()[:1])
1816
1550
            resolve(self)
1818
1552
            resolve(self, filenames, ignore_misses=True)
1819
1553
        return conflicts
1820
1554
 
1821
 
    def revision_tree(self, revision_id):
1822
 
        """See Tree.revision_tree.
1823
 
 
1824
 
        WorkingTree can supply revision_trees for the basis revision only
1825
 
        because there is only one cached inventory in the bzr directory.
1826
 
        """
1827
 
        if revision_id == self.last_revision():
1828
 
            try:
1829
 
                xml = self.read_basis_inventory()
1830
 
            except errors.NoSuchFile:
1831
 
                pass
1832
 
            else:
1833
 
                try:
1834
 
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
1835
 
                    # dont use the repository revision_tree api because we want
1836
 
                    # to supply the inventory.
1837
 
                    if inv.revision_id == revision_id:
1838
 
                        return revisiontree.RevisionTree(self.branch.repository,
1839
 
                            inv, revision_id)
1840
 
                except errors.BadInventoryFormat:
1841
 
                    pass
1842
 
        # raise if there was no inventory, or if we read the wrong inventory.
1843
 
        raise errors.NoSuchRevisionInTree(self, revision_id)
1844
 
 
1845
1555
    # XXX: This method should be deprecated in favour of taking in a proper
1846
1556
    # new Inventory object.
1847
1557
    @needs_tree_write_lock
1864
1574
            elif kind == 'symlink':
1865
1575
                inv.add(InventoryLink(file_id, name, parent))
1866
1576
            else:
1867
 
                raise errors.BzrError("unknown kind %r" % kind)
 
1577
                raise BzrError("unknown kind %r" % kind)
1868
1578
        self._write_inventory(inv)
1869
1579
 
1870
1580
    @needs_tree_write_lock
1871
1581
    def set_root_id(self, file_id):
1872
1582
        """Set the root id for this tree."""
1873
 
        # for compatability 
1874
 
        if file_id is None:
1875
 
            symbol_versioning.warn(symbol_versioning.zero_twelve
1876
 
                % 'WorkingTree.set_root_id with fileid=None',
1877
 
                DeprecationWarning,
1878
 
                stacklevel=3)
1879
 
            file_id = ROOT_ID
1880
 
        else:
1881
 
            file_id = osutils.safe_file_id(file_id)
1882
 
        self._set_root_id(file_id)
1883
 
 
1884
 
    def _set_root_id(self, file_id):
1885
 
        """Set the root id for this tree, in a format specific manner.
1886
 
 
1887
 
        :param file_id: The file id to assign to the root. It must not be 
1888
 
            present in the current inventory or an error will occur. It must
1889
 
            not be None, but rather a valid file id.
1890
 
        """
1891
 
        inv = self._inventory
 
1583
        inv = self.read_working_inventory()
1892
1584
        orig_root_id = inv.root.file_id
1893
 
        # TODO: it might be nice to exit early if there was nothing
1894
 
        # to do, saving us from trigger a sync on unlock.
1895
 
        self._inventory_is_modified = True
1896
 
        # we preserve the root inventory entry object, but
1897
 
        # unlinkit from the byid index
1898
1585
        del inv._byid[inv.root.file_id]
1899
1586
        inv.root.file_id = file_id
1900
 
        # and link it into the index with the new changed id.
1901
1587
        inv._byid[inv.root.file_id] = inv.root
1902
 
        # and finally update all children to reference the new id.
1903
 
        # XXX: this should be safe to just look at the root.children
1904
 
        # list, not the WHOLE INVENTORY.
1905
1588
        for fid in inv:
1906
1589
            entry = inv[fid]
1907
1590
            if entry.parent_id == orig_root_id:
1908
1591
                entry.parent_id = inv.root.file_id
 
1592
        self._write_inventory(inv)
1909
1593
 
1910
1594
    def unlock(self):
1911
1595
        """See Branch.unlock.
1918
1602
        """
1919
1603
        raise NotImplementedError(self.unlock)
1920
1604
 
 
1605
    @needs_write_lock
1921
1606
    def update(self):
1922
1607
        """Update a working tree along its branch.
1923
1608
 
1924
 
        This will update the branch if its bound too, which means we have
1925
 
        multiple trees involved:
1926
 
 
1927
 
        - The new basis tree of the master.
1928
 
        - The old basis tree of the branch.
1929
 
        - The old basis tree of the working tree.
1930
 
        - The current working tree state.
1931
 
 
1932
 
        Pathologically, all three may be different, and non-ancestors of each
1933
 
        other.  Conceptually we want to:
1934
 
 
1935
 
        - Preserve the wt.basis->wt.state changes
1936
 
        - Transform the wt.basis to the new master basis.
1937
 
        - Apply a merge of the old branch basis to get any 'local' changes from
1938
 
          it into the tree.
1939
 
        - Restore the wt.basis->wt.state changes.
 
1609
        This will update the branch if its bound too, which means we have multiple trees involved:
 
1610
        The new basis tree of the master.
 
1611
        The old basis tree of the branch.
 
1612
        The old basis tree of the working tree.
 
1613
        The current working tree state.
 
1614
        pathologically all three may be different, and non ancestors of each other.
 
1615
        Conceptually we want to:
 
1616
        Preserve the wt.basis->wt.state changes
 
1617
        Transform the wt.basis to the new master basis.
 
1618
        Apply a merge of the old branch basis to get any 'local' changes from it into the tree.
 
1619
        Restore the wt.basis->wt.state changes.
1940
1620
 
1941
1621
        There isn't a single operation at the moment to do that, so we:
1942
 
        - Merge current state -> basis tree of the master w.r.t. the old tree
1943
 
          basis.
1944
 
        - Do a 'normal' merge of the old branch basis if it is relevant.
1945
 
        """
1946
 
        if self.branch.get_master_branch() is not None:
1947
 
            self.lock_write()
1948
 
            update_branch = True
1949
 
        else:
1950
 
            self.lock_tree_write()
1951
 
            update_branch = False
1952
 
        try:
1953
 
            if update_branch:
1954
 
                old_tip = self.branch.update()
1955
 
            else:
1956
 
                old_tip = None
1957
 
            return self._update_tree(old_tip)
1958
 
        finally:
1959
 
            self.unlock()
1960
 
 
1961
 
    @needs_tree_write_lock
1962
 
    def _update_tree(self, old_tip=None):
1963
 
        """Update a tree to the master branch.
1964
 
 
1965
 
        :param old_tip: if supplied, the previous tip revision the branch,
1966
 
            before it was changed to the master branch's tip.
1967
 
        """
 
1622
        Merge current state -> basis tree of the master w.r.t. the old tree basis.
 
1623
        Do a 'normal' merge of the old branch basis if it is relevant.
 
1624
        """
 
1625
        old_tip = self.branch.update()
1968
1626
        # here if old_tip is not None, it is the old tip of the branch before
1969
1627
        # it was updated from the master branch. This should become a pending
1970
1628
        # merge in the working tree to preserve the user existing work.  we
1983
1641
        if last_rev != self.branch.last_revision():
1984
1642
            # merge tree state up to new branch tip.
1985
1643
            basis = self.basis_tree()
1986
 
            basis.lock_read()
1987
 
            try:
1988
 
                to_tree = self.branch.basis_tree()
1989
 
                if basis.inventory.root is None:
1990
 
                    self.set_root_id(to_tree.inventory.root.file_id)
1991
 
                    self.flush()
1992
 
                result += merge.merge_inner(
1993
 
                                      self.branch,
1994
 
                                      to_tree,
1995
 
                                      basis,
1996
 
                                      this_tree=self)
1997
 
            finally:
1998
 
                basis.unlock()
 
1644
            to_tree = self.branch.basis_tree()
 
1645
            result += merge_inner(self.branch,
 
1646
                                  to_tree,
 
1647
                                  basis,
 
1648
                                  this_tree=self)
1999
1649
            # TODO - dedup parents list with things merged by pull ?
2000
1650
            # reuse the tree we've updated to to set the basis:
2001
1651
            parent_trees = [(self.branch.last_revision(), to_tree)]
2024
1674
            # and we have converted that last revision to a pending merge.
2025
1675
            # base is somewhere between the branch tip now
2026
1676
            # and the now pending merge
2027
 
 
2028
 
            # Since we just modified the working tree and inventory, flush out
2029
 
            # the current state, before we modify it again.
2030
 
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
2031
 
            #       requires it only because TreeTransform directly munges the
2032
 
            #       inventory and calls tree._write_inventory(). Ultimately we
2033
 
            #       should be able to remove this extra flush.
2034
 
            self.flush()
2035
1677
            from bzrlib.revision import common_ancestor
2036
1678
            try:
2037
1679
                base_rev_id = common_ancestor(self.branch.last_revision(),
2041
1683
                base_rev_id = None
2042
1684
            base_tree = self.branch.repository.revision_tree(base_rev_id)
2043
1685
            other_tree = self.branch.repository.revision_tree(old_tip)
2044
 
            result += merge.merge_inner(
2045
 
                                  self.branch,
 
1686
            result += merge_inner(self.branch,
2046
1687
                                  other_tree,
2047
1688
                                  base_tree,
2048
1689
                                  this_tree=self)
2049
1690
        return result
2050
1691
 
2051
 
    def _write_hashcache_if_dirty(self):
2052
 
        """Write out the hashcache if it is dirty."""
2053
 
        if self._hashcache.needs_write:
2054
 
            try:
2055
 
                self._hashcache.write()
2056
 
            except OSError, e:
2057
 
                if e.errno not in (errno.EPERM, errno.EACCES):
2058
 
                    raise
2059
 
                # TODO: jam 20061219 Should this be a warning? A single line
2060
 
                #       warning might be sufficient to let the user know what
2061
 
                #       is going on.
2062
 
                mutter('Could not write hashcache for %s\nError: %s',
2063
 
                       self._hashcache.cache_file_name(), e)
2064
 
 
2065
1692
    @needs_tree_write_lock
2066
1693
    def _write_inventory(self, inv):
2067
1694
        """Write inventory as the current inventory."""
2068
 
        self._set_inventory(inv, dirty=True)
2069
 
        self.flush()
 
1695
        sio = StringIO()
 
1696
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
 
1697
        sio.seek(0)
 
1698
        self._control_files.put('inventory', sio)
 
1699
        self._set_inventory(inv)
 
1700
        mutter('wrote working inventory')
2070
1701
 
2071
1702
    def set_conflicts(self, arg):
2072
 
        raise errors.UnsupportedOperation(self.set_conflicts, self)
 
1703
        raise UnsupportedOperation(self.set_conflicts, self)
2073
1704
 
2074
1705
    def add_conflicts(self, arg):
2075
 
        raise errors.UnsupportedOperation(self.add_conflicts, self)
 
1706
        raise UnsupportedOperation(self.add_conflicts, self)
2076
1707
 
2077
1708
    @needs_read_lock
2078
1709
    def conflicts(self):
2079
 
        conflicts = _mod_conflicts.ConflictList()
 
1710
        conflicts = ConflictList()
2080
1711
        for conflicted in self._iter_conflicts():
2081
1712
            text = True
2082
1713
            try:
2095
1726
                    if text == False:
2096
1727
                        break
2097
1728
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
2098
 
            conflicts.append(_mod_conflicts.Conflict.factory(ctype,
2099
 
                             path=conflicted,
 
1729
            conflicts.append(Conflict.factory(ctype, path=conflicted,
2100
1730
                             file_id=self.path2id(conflicted)))
2101
1731
        return conflicts
2102
1732
 
2103
 
    def walkdirs(self, prefix=""):
2104
 
        """Walk the directories of this tree.
2105
 
 
2106
 
        This API returns a generator, which is only valid during the current
2107
 
        tree transaction - within a single lock_read or lock_write duration.
2108
 
 
2109
 
        If the tree is not locked, it may cause an error to be raised, depending
2110
 
        on the tree implementation.
2111
 
        """
2112
 
        disk_top = self.abspath(prefix)
2113
 
        if disk_top.endswith('/'):
2114
 
            disk_top = disk_top[:-1]
2115
 
        top_strip_len = len(disk_top) + 1
2116
 
        inventory_iterator = self._walkdirs(prefix)
2117
 
        disk_iterator = osutils.walkdirs(disk_top, prefix)
2118
 
        try:
2119
 
            current_disk = disk_iterator.next()
2120
 
            disk_finished = False
2121
 
        except OSError, e:
2122
 
            if e.errno != errno.ENOENT:
2123
 
                raise
2124
 
            current_disk = None
2125
 
            disk_finished = True
2126
 
        try:
2127
 
            current_inv = inventory_iterator.next()
2128
 
            inv_finished = False
2129
 
        except StopIteration:
2130
 
            current_inv = None
2131
 
            inv_finished = True
2132
 
        while not inv_finished or not disk_finished:
2133
 
            if not disk_finished:
2134
 
                # strip out .bzr dirs
2135
 
                if current_disk[0][1][top_strip_len:] == '':
2136
 
                    # osutils.walkdirs can be made nicer - 
2137
 
                    # yield the path-from-prefix rather than the pathjoined
2138
 
                    # value.
2139
 
                    bzrdir_loc = bisect_left(current_disk[1], ('.bzr', '.bzr'))
2140
 
                    if current_disk[1][bzrdir_loc][0] == '.bzr':
2141
 
                        # we dont yield the contents of, or, .bzr itself.
2142
 
                        del current_disk[1][bzrdir_loc]
2143
 
            if inv_finished:
2144
 
                # everything is unknown
2145
 
                direction = 1
2146
 
            elif disk_finished:
2147
 
                # everything is missing
2148
 
                direction = -1
2149
 
            else:
2150
 
                direction = cmp(current_inv[0][0], current_disk[0][0])
2151
 
            if direction > 0:
2152
 
                # disk is before inventory - unknown
2153
 
                dirblock = [(relpath, basename, kind, stat, None, None) for
2154
 
                    relpath, basename, kind, stat, top_path in current_disk[1]]
2155
 
                yield (current_disk[0][0], None), dirblock
2156
 
                try:
2157
 
                    current_disk = disk_iterator.next()
2158
 
                except StopIteration:
2159
 
                    disk_finished = True
2160
 
            elif direction < 0:
2161
 
                # inventory is before disk - missing.
2162
 
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
2163
 
                    for relpath, basename, dkind, stat, fileid, kind in 
2164
 
                    current_inv[1]]
2165
 
                yield (current_inv[0][0], current_inv[0][1]), dirblock
2166
 
                try:
2167
 
                    current_inv = inventory_iterator.next()
2168
 
                except StopIteration:
2169
 
                    inv_finished = True
2170
 
            else:
2171
 
                # versioned present directory
2172
 
                # merge the inventory and disk data together
2173
 
                dirblock = []
2174
 
                for relpath, subiterator in itertools.groupby(sorted(
2175
 
                    current_inv[1] + current_disk[1], key=operator.itemgetter(0)), operator.itemgetter(1)):
2176
 
                    path_elements = list(subiterator)
2177
 
                    if len(path_elements) == 2:
2178
 
                        inv_row, disk_row = path_elements
2179
 
                        # versioned, present file
2180
 
                        dirblock.append((inv_row[0],
2181
 
                            inv_row[1], disk_row[2],
2182
 
                            disk_row[3], inv_row[4],
2183
 
                            inv_row[5]))
2184
 
                    elif len(path_elements[0]) == 5:
2185
 
                        # unknown disk file
2186
 
                        dirblock.append((path_elements[0][0],
2187
 
                            path_elements[0][1], path_elements[0][2],
2188
 
                            path_elements[0][3], None, None))
2189
 
                    elif len(path_elements[0]) == 6:
2190
 
                        # versioned, absent file.
2191
 
                        dirblock.append((path_elements[0][0],
2192
 
                            path_elements[0][1], 'unknown', None,
2193
 
                            path_elements[0][4], path_elements[0][5]))
2194
 
                    else:
2195
 
                        raise NotImplementedError('unreachable code')
2196
 
                yield current_inv[0], dirblock
2197
 
                try:
2198
 
                    current_inv = inventory_iterator.next()
2199
 
                except StopIteration:
2200
 
                    inv_finished = True
2201
 
                try:
2202
 
                    current_disk = disk_iterator.next()
2203
 
                except StopIteration:
2204
 
                    disk_finished = True
2205
 
 
2206
 
    def _walkdirs(self, prefix=""):
2207
 
        _directory = 'directory'
2208
 
        # get the root in the inventory
2209
 
        inv = self.inventory
2210
 
        top_id = inv.path2id(prefix)
2211
 
        if top_id is None:
2212
 
            pending = []
2213
 
        else:
2214
 
            pending = [(prefix, '', _directory, None, top_id, None)]
2215
 
        while pending:
2216
 
            dirblock = []
2217
 
            currentdir = pending.pop()
2218
 
            # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-id, 5-kind
2219
 
            top_id = currentdir[4]
2220
 
            if currentdir[0]:
2221
 
                relroot = currentdir[0] + '/'
2222
 
            else:
2223
 
                relroot = ""
2224
 
            # FIXME: stash the node in pending
2225
 
            entry = inv[top_id]
2226
 
            for name, child in entry.sorted_children():
2227
 
                dirblock.append((relroot + name, name, child.kind, None,
2228
 
                    child.file_id, child.kind
2229
 
                    ))
2230
 
            yield (currentdir[0], entry.file_id), dirblock
2231
 
            # push the user specified dirs from dirblock
2232
 
            for dir in reversed(dirblock):
2233
 
                if dir[2] == _directory:
2234
 
                    pending.append(dir)
2235
 
 
2236
 
    @needs_tree_write_lock
2237
 
    def auto_resolve(self):
2238
 
        """Automatically resolve text conflicts according to contents.
2239
 
 
2240
 
        Only text conflicts are auto_resolvable. Files with no conflict markers
2241
 
        are considered 'resolved', because bzr always puts conflict markers
2242
 
        into files that have text conflicts.  The corresponding .THIS .BASE and
2243
 
        .OTHER files are deleted, as per 'resolve'.
2244
 
        :return: a tuple of ConflictLists: (un_resolved, resolved).
2245
 
        """
2246
 
        un_resolved = _mod_conflicts.ConflictList()
2247
 
        resolved = _mod_conflicts.ConflictList()
2248
 
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
2249
 
        for conflict in self.conflicts():
2250
 
            if (conflict.typestring != 'text conflict' or
2251
 
                self.kind(conflict.file_id) != 'file'):
2252
 
                un_resolved.append(conflict)
2253
 
                continue
2254
 
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
2255
 
            try:
2256
 
                for line in my_file:
2257
 
                    if conflict_re.search(line):
2258
 
                        un_resolved.append(conflict)
2259
 
                        break
2260
 
                else:
2261
 
                    resolved.append(conflict)
2262
 
            finally:
2263
 
                my_file.close()
2264
 
        resolved.remove_files(self)
2265
 
        self.set_conflicts(un_resolved)
2266
 
        return un_resolved, resolved
2267
 
 
2268
 
    def _validate(self):
2269
 
        """Validate internal structures.
2270
 
 
2271
 
        This is meant mostly for the test suite. To give it a chance to detect
2272
 
        corruption after actions have occurred. The default implementation is a
2273
 
        just a no-op.
2274
 
 
2275
 
        :return: None. An exception should be raised if there is an error.
2276
 
        """
2277
 
        return
2278
 
 
2279
1733
 
2280
1734
class WorkingTree2(WorkingTree):
2281
1735
    """This is the Format 2 working tree.
2285
1739
     - uses the branch last-revision.
2286
1740
    """
2287
1741
 
2288
 
    def __init__(self, *args, **kwargs):
2289
 
        super(WorkingTree2, self).__init__(*args, **kwargs)
2290
 
        # WorkingTree2 has more of a constraint that self._inventory must
2291
 
        # exist. Because this is an older format, we don't mind the overhead
2292
 
        # caused by the extra computation here.
2293
 
 
2294
 
        # Newer WorkingTree's should only have self._inventory set when they
2295
 
        # have a read lock.
2296
 
        if self._inventory is None:
2297
 
            self.read_working_inventory()
2298
 
 
2299
1742
    def lock_tree_write(self):
2300
1743
        """See WorkingTree.lock_tree_write().
2301
1744
 
2311
1754
 
2312
1755
    def unlock(self):
2313
1756
        # we share control files:
2314
 
        if self._control_files._lock_count == 3:
2315
 
            # _inventory_is_modified is always False during a read lock.
2316
 
            if self._inventory_is_modified:
2317
 
                self.flush()
2318
 
            self._write_hashcache_if_dirty()
2319
 
                    
 
1757
        if self._hashcache.needs_write and self._control_files._lock_count==3:
 
1758
            self._hashcache.write()
2320
1759
        # reverse order of locking.
2321
1760
        try:
2322
1761
            return self._control_files.unlock()
2336
1775
 
2337
1776
    @needs_read_lock
2338
1777
    def _last_revision(self):
2339
 
        """See Mutable.last_revision."""
 
1778
        """See WorkingTree._last_revision."""
2340
1779
        try:
2341
 
            return osutils.safe_revision_id(
2342
 
                        self._control_files.get('last-revision').read())
2343
 
        except errors.NoSuchFile:
 
1780
            return self._control_files.get_utf8('last-revision').read()
 
1781
        except NoSuchFile:
2344
1782
            return None
2345
1783
 
2346
1784
    def _change_last_revision(self, revision_id):
2352
1790
                pass
2353
1791
            return False
2354
1792
        else:
2355
 
            self._control_files.put_bytes('last-revision', revision_id)
 
1793
            self._control_files.put_utf8('last-revision', revision_id)
2356
1794
            return True
2357
1795
 
2358
1796
    @needs_tree_write_lock
2364
1802
    def add_conflicts(self, new_conflicts):
2365
1803
        conflict_set = set(self.conflicts())
2366
1804
        conflict_set.update(set(list(new_conflicts)))
2367
 
        self.set_conflicts(_mod_conflicts.ConflictList(sorted(conflict_set,
2368
 
                                       key=_mod_conflicts.Conflict.sort_key)))
 
1805
        self.set_conflicts(ConflictList(sorted(conflict_set,
 
1806
                                               key=Conflict.sort_key)))
2369
1807
 
2370
1808
    @needs_read_lock
2371
1809
    def conflicts(self):
2372
1810
        try:
2373
1811
            confile = self._control_files.get('conflicts')
2374
 
        except errors.NoSuchFile:
2375
 
            return _mod_conflicts.ConflictList()
 
1812
        except NoSuchFile:
 
1813
            return ConflictList()
2376
1814
        try:
2377
1815
            if confile.next() != CONFLICT_HEADER_1 + '\n':
2378
 
                raise errors.ConflictFormatError()
 
1816
                raise ConflictFormatError()
2379
1817
        except StopIteration:
2380
 
            raise errors.ConflictFormatError()
2381
 
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
 
1818
            raise ConflictFormatError()
 
1819
        return ConflictList.from_stanzas(RioReader(confile))
2382
1820
 
2383
1821
    def unlock(self):
2384
 
        if self._control_files._lock_count == 1:
2385
 
            # _inventory_is_modified is always False during a read lock.
2386
 
            if self._inventory_is_modified:
2387
 
                self.flush()
2388
 
            self._write_hashcache_if_dirty()
 
1822
        if self._hashcache.needs_write and self._control_files._lock_count==1:
 
1823
            self._hashcache.write()
2389
1824
        # reverse order of locking.
2390
1825
        try:
2391
1826
            return self._control_files.unlock()
2394
1829
 
2395
1830
 
2396
1831
def get_conflicted_stem(path):
2397
 
    for suffix in _mod_conflicts.CONFLICT_SUFFIXES:
 
1832
    for suffix in CONFLICT_SUFFIXES:
2398
1833
        if path.endswith(suffix):
2399
1834
            return path[:-len(suffix)]
2400
1835
 
2401
 
 
2402
1836
@deprecated_function(zero_eight)
2403
1837
def is_control_file(filename):
2404
1838
    """See WorkingTree.is_control_filename(filename)."""
2439
1873
    _formats = {}
2440
1874
    """The known formats."""
2441
1875
 
2442
 
    requires_rich_root = False
2443
 
 
2444
 
    upgrade_recommended = False
2445
 
 
2446
1876
    @classmethod
2447
1877
    def find_format(klass, a_bzrdir):
2448
1878
        """Return the format for the working tree object in a_bzrdir."""
2450
1880
            transport = a_bzrdir.get_workingtree_transport(None)
2451
1881
            format_string = transport.get("format").read()
2452
1882
            return klass._formats[format_string]
2453
 
        except errors.NoSuchFile:
 
1883
        except NoSuchFile:
2454
1884
            raise errors.NoWorkingTree(base=transport.base)
2455
1885
        except KeyError:
2456
1886
            raise errors.UnknownFormatError(format=format_string)
2457
1887
 
2458
 
    def __eq__(self, other):
2459
 
        return self.__class__ is other.__class__
2460
 
 
2461
 
    def __ne__(self, other):
2462
 
        return not (self == other)
2463
 
 
2464
1888
    @classmethod
2465
1889
    def get_default_format(klass):
2466
1890
        """Return the current default format."""
2497
1921
        del klass._formats[format.get_format_string()]
2498
1922
 
2499
1923
 
 
1924
 
2500
1925
class WorkingTreeFormat2(WorkingTreeFormat):
2501
1926
    """The second working tree format. 
2502
1927
 
2503
1928
    This format modified the hash cache from the format 1 hash cache.
2504
1929
    """
2505
1930
 
2506
 
    upgrade_recommended = True
2507
 
 
2508
1931
    def get_format_description(self):
2509
1932
        """See WorkingTreeFormat.get_format_description()."""
2510
1933
        return "Working tree format 2"
2518
1941
        """
2519
1942
        sio = StringIO()
2520
1943
        inv = Inventory()
2521
 
        xml5.serializer_v5.write_inventory(inv, sio)
 
1944
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
2522
1945
        sio.seek(0)
2523
1946
        control_files.put('inventory', sio)
2524
1947
 
2525
 
        control_files.put_bytes('pending-merges', '')
 
1948
        control_files.put_utf8('pending-merges', '')
2526
1949
        
2527
1950
 
2528
1951
    def initialize(self, a_bzrdir, revision_id=None):
2531
1954
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2532
1955
        branch = a_bzrdir.open_branch()
2533
1956
        if revision_id is not None:
2534
 
            revision_id = osutils.safe_revision_id(revision_id)
2535
1957
            branch.lock_write()
2536
1958
            try:
2537
1959
                revision_history = branch.revision_history()
2550
1972
                         _internal=True,
2551
1973
                         _format=self,
2552
1974
                         _bzrdir=a_bzrdir)
 
1975
        wt._write_inventory(inv)
 
1976
        wt.set_root_id(inv.root.file_id)
2553
1977
        basis_tree = branch.repository.revision_tree(revision)
2554
 
        if basis_tree.inventory.root is not None:
2555
 
            wt.set_root_id(basis_tree.inventory.root.file_id)
2556
 
        # set the parent list and cache the basis tree.
2557
1978
        wt.set_parent_trees([(revision, basis_tree)])
2558
 
        transform.build_tree(basis_tree, wt)
 
1979
        build_tree(basis_tree, wt)
2559
1980
        return wt
2560
1981
 
2561
1982
    def __init__(self):
2573
1994
            raise NotImplementedError
2574
1995
        if not isinstance(a_bzrdir.transport, LocalTransport):
2575
1996
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2576
 
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
 
1997
        return WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2577
1998
                           _internal=True,
2578
1999
                           _format=self,
2579
2000
                           _bzrdir=a_bzrdir)
2580
 
        return wt
 
2001
 
2581
2002
 
2582
2003
class WorkingTreeFormat3(WorkingTreeFormat):
2583
2004
    """The second working tree format updated to record a format marker.
2590
2011
        - is new in bzr 0.8
2591
2012
        - uses a LockDir to guard access for writes.
2592
2013
    """
2593
 
    
2594
 
    upgrade_recommended = True
2595
2014
 
2596
2015
    def get_format_string(self):
2597
2016
        """See WorkingTreeFormat.get_format_string()."""
2604
2023
    _lock_file_name = 'lock'
2605
2024
    _lock_class = LockDir
2606
2025
 
2607
 
    _tree_class = WorkingTree3
2608
 
 
2609
 
    def __get_matchingbzrdir(self):
2610
 
        return bzrdir.BzrDirMetaFormat1()
2611
 
 
2612
 
    _matchingbzrdir = property(__get_matchingbzrdir)
2613
 
 
2614
2026
    def _open_control_files(self, a_bzrdir):
2615
2027
        transport = a_bzrdir.get_workingtree_transport(None)
2616
2028
        return LockableFiles(transport, self._lock_file_name, 
2632
2044
        branch = a_bzrdir.open_branch()
2633
2045
        if revision_id is None:
2634
2046
            revision_id = branch.last_revision()
2635
 
        else:
2636
 
            revision_id = osutils.safe_revision_id(revision_id)
2637
 
        # WorkingTree3 can handle an inventory which has a unique root id.
2638
 
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
2639
 
        # those trees. And because there isn't a format bump inbetween, we
2640
 
        # are maintaining compatibility with older clients.
2641
 
        # inv = Inventory(root_id=gen_root_id())
2642
 
        inv = self._initial_inventory()
2643
 
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
2047
        inv = Inventory() 
 
2048
        wt = WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
2644
2049
                         branch,
2645
2050
                         inv,
2646
2051
                         _internal=True,
2649
2054
                         _control_files=control_files)
2650
2055
        wt.lock_tree_write()
2651
2056
        try:
 
2057
            wt._write_inventory(inv)
 
2058
            wt.set_root_id(inv.root.file_id)
2652
2059
            basis_tree = branch.repository.revision_tree(revision_id)
2653
 
            # only set an explicit root id if there is one to set.
2654
 
            if basis_tree.inventory.root is not None:
2655
 
                wt.set_root_id(basis_tree.inventory.root.file_id)
2656
 
            if revision_id == NULL_REVISION:
 
2060
            if revision_id == bzrlib.revision.NULL_REVISION:
2657
2061
                wt.set_parent_trees([])
2658
2062
            else:
2659
2063
                wt.set_parent_trees([(revision_id, basis_tree)])
2660
 
            transform.build_tree(basis_tree, wt)
 
2064
            build_tree(basis_tree, wt)
2661
2065
        finally:
2662
 
            # Unlock in this order so that the unlock-triggers-flush in
2663
 
            # WorkingTree is given a chance to fire.
 
2066
            wt.unlock()
2664
2067
            control_files.unlock()
2665
 
            wt.unlock()
2666
2068
        return wt
2667
2069
 
2668
 
    def _initial_inventory(self):
2669
 
        return Inventory()
2670
 
 
2671
2070
    def __init__(self):
2672
2071
        super(WorkingTreeFormat3, self).__init__()
 
2072
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
2673
2073
 
2674
2074
    def open(self, a_bzrdir, _found=False):
2675
2075
        """Return the WorkingTree object for a_bzrdir
2682
2082
            raise NotImplementedError
2683
2083
        if not isinstance(a_bzrdir.transport, LocalTransport):
2684
2084
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2685
 
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
2686
 
        return wt
 
2085
        return self._open(a_bzrdir, self._open_control_files(a_bzrdir))
2687
2086
 
2688
2087
    def _open(self, a_bzrdir, control_files):
2689
2088
        """Open the tree itself.
2691
2090
        :param a_bzrdir: the dir for the tree.
2692
2091
        :param control_files: the control files for the tree.
2693
2092
        """
2694
 
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
2695
 
                                _internal=True,
2696
 
                                _format=self,
2697
 
                                _bzrdir=a_bzrdir,
2698
 
                                _control_files=control_files)
 
2093
        return WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
 
2094
                           _internal=True,
 
2095
                           _format=self,
 
2096
                           _bzrdir=a_bzrdir,
 
2097
                           _control_files=control_files)
2699
2098
 
2700
2099
    def __str__(self):
2701
2100
        return self.get_format_string()
2702
2101
 
2703
2102
 
2704
 
__default_format = WorkingTreeFormat4()
 
2103
# formats which have no format string are not discoverable
 
2104
# and not independently creatable, so are not registered.
 
2105
__default_format = WorkingTreeFormat3()
2705
2106
WorkingTreeFormat.register_format(__default_format)
2706
 
WorkingTreeFormat.register_format(WorkingTreeFormat3())
2707
2107
WorkingTreeFormat.set_default_format(__default_format)
2708
 
# formats which have no format string are not discoverable
2709
 
# and not independently creatable, so are not registered.
2710
2108
_legacy_formats = [WorkingTreeFormat2(),
2711
2109
                   ]
2712
2110