/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Alexander Belchenko
  • Date: 2007-06-05 08:02:04 UTC
  • mto: This revision was merged to the branch mainline in revision 2512.
  • Revision ID: bialix@ukr.net-20070605080204-hvhqw69njlpxcscb
sanitizeĀ developersĀ docs

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006 Canonical Ltd
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
32
 
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
33
 
CONFLICT_HEADER_1 = "BZR conflict list format 1"
34
 
 
35
32
# TODO: Give the workingtree sole responsibility for the working inventory;
36
33
# remove the variable and references to it from the branch.  This may require
37
34
# updating the commit code so as to update the inventory within the working
39
36
# At the moment they may alias the inventory and have old copies of it in
40
37
# memory.  (Now done? -- mbp 20060309)
41
38
 
42
 
from binascii import hexlify
 
39
from cStringIO import StringIO
 
40
import os
 
41
import sys
 
42
 
 
43
from bzrlib.lazy_import import lazy_import
 
44
lazy_import(globals(), """
 
45
from bisect import bisect_left
43
46
import collections
44
47
from copy import deepcopy
45
 
from cStringIO import StringIO
46
48
import errno
47
 
import fnmatch
48
 
import os
49
 
import re
 
49
import itertools
 
50
import operator
50
51
import stat
51
52
from time import time
52
53
import warnings
 
54
import re
53
55
 
54
56
import bzrlib
55
 
from bzrlib import bzrdir, errors, ignores, osutils, urlutils
56
 
from bzrlib.atomicfile import AtomicFile
 
57
from bzrlib import (
 
58
    branch,
 
59
    bzrdir,
 
60
    conflicts as _mod_conflicts,
 
61
    dirstate,
 
62
    errors,
 
63
    generate_ids,
 
64
    globbing,
 
65
    hashcache,
 
66
    ignores,
 
67
    merge,
 
68
    osutils,
 
69
    revisiontree,
 
70
    repository,
 
71
    textui,
 
72
    trace,
 
73
    transform,
 
74
    ui,
 
75
    urlutils,
 
76
    xml5,
 
77
    xml6,
 
78
    xml7,
 
79
    )
57
80
import bzrlib.branch
58
 
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
 
81
from bzrlib.transport import get_transport
 
82
import bzrlib.ui
 
83
from bzrlib.workingtree_4 import WorkingTreeFormat4
 
84
""")
 
85
 
 
86
from bzrlib import symbol_versioning
59
87
from bzrlib.decorators import needs_read_lock, needs_write_lock
60
 
from bzrlib.errors import (BzrCheckError,
61
 
                           BzrError,
62
 
                           ConflictFormatError,
63
 
                           WeaveRevisionNotPresent,
64
 
                           NotBranchError,
65
 
                           NoSuchFile,
66
 
                           NotVersionedError,
67
 
                           MergeModifiedFormatError,
68
 
                           UnsupportedOperation,
69
 
                           )
70
 
from bzrlib.inventory import InventoryEntry, Inventory
 
88
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
71
89
from bzrlib.lockable_files import LockableFiles, TransportLock
72
90
from bzrlib.lockdir import LockDir
73
 
from bzrlib.merge import merge_inner, transform_tree
 
91
import bzrlib.mutabletree
 
92
from bzrlib.mutabletree import needs_tree_write_lock
74
93
from bzrlib.osutils import (
75
 
                            abspath,
76
 
                            compact_date,
77
 
                            file_kind,
78
 
                            isdir,
79
 
                            getcwd,
80
 
                            pathjoin,
81
 
                            pumpfile,
82
 
                            safe_unicode,
83
 
                            splitpath,
84
 
                            rand_chars,
85
 
                            normpath,
86
 
                            realpath,
87
 
                            relpath,
88
 
                            rename,
89
 
                            supports_executable,
90
 
                            )
 
94
    compact_date,
 
95
    file_kind,
 
96
    isdir,
 
97
    normpath,
 
98
    pathjoin,
 
99
    rand_chars,
 
100
    realpath,
 
101
    safe_unicode,
 
102
    splitpath,
 
103
    supports_executable,
 
104
    )
 
105
from bzrlib.trace import mutter, note
 
106
from bzrlib.transport.local import LocalTransport
91
107
from bzrlib.progress import DummyProgress, ProgressPhase
92
 
from bzrlib.revision import NULL_REVISION
 
108
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
93
109
from bzrlib.rio import RioReader, rio_file, Stanza
94
110
from bzrlib.symbol_versioning import (deprecated_passed,
95
111
        deprecated_method,
97
113
        DEPRECATED_PARAMETER,
98
114
        zero_eight,
99
115
        zero_eleven,
 
116
        zero_thirteen,
100
117
        )
101
 
from bzrlib.trace import mutter, note
102
 
from bzrlib.transform import build_tree
103
 
from bzrlib.transport import get_transport
104
 
from bzrlib.transport.local import LocalTransport
105
 
from bzrlib.textui import show_status
106
 
import bzrlib.tree
107
 
import bzrlib.ui
108
 
import bzrlib.xml5
109
 
 
110
 
 
111
 
# the regex removes any weird characters; we don't escape them 
112
 
# but rather just pull them out
113
 
_gen_file_id_re = re.compile(r'[^\w.]')
114
 
_gen_id_suffix = None
115
 
_gen_id_serial = 0
116
 
 
117
 
 
118
 
def _next_id_suffix():
119
 
    """Create a new file id suffix that is reasonably unique.
120
 
    
121
 
    On the first call we combine the current time with 64 bits of randomness
122
 
    to give a highly probably globally unique number. Then each call in the same
123
 
    process adds 1 to a serial number we append to that unique value.
124
 
    """
125
 
    # XXX TODO: change bzrlib.add.smart_add to call workingtree.add() rather 
126
 
    # than having to move the id randomness out of the inner loop like this.
127
 
    # XXX TODO: for the global randomness this uses we should add the thread-id
128
 
    # before the serial #.
129
 
    global _gen_id_suffix, _gen_id_serial
130
 
    if _gen_id_suffix is None:
131
 
        _gen_id_suffix = "-%s-%s-" % (compact_date(time()), rand_chars(16))
132
 
    _gen_id_serial += 1
133
 
    return _gen_id_suffix + str(_gen_id_serial)
134
 
 
135
 
 
 
118
 
 
119
 
 
120
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
 
121
CONFLICT_HEADER_1 = "BZR conflict list format 1"
 
122
 
 
123
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
 
124
 
 
125
 
 
126
@deprecated_function(zero_thirteen)
136
127
def gen_file_id(name):
137
128
    """Return new file id for the basename 'name'.
138
129
 
139
 
    The uniqueness is supplied from _next_id_suffix.
 
130
    Use bzrlib.generate_ids.gen_file_id() instead
140
131
    """
141
 
    # The real randomness is in the _next_id_suffix, the
142
 
    # rest of the identifier is just to be nice.
143
 
    # So we:
144
 
    # 1) Remove non-ascii word characters to keep the ids portable
145
 
    # 2) squash to lowercase, so the file id doesn't have to
146
 
    #    be escaped (case insensitive filesystems would bork for ids
147
 
    #    that only differred in case without escaping).
148
 
    # 3) truncate the filename to 20 chars. Long filenames also bork on some
149
 
    #    filesystems
150
 
    # 4) Removing starting '.' characters to prevent the file ids from
151
 
    #    being considered hidden.
152
 
    ascii_word_only = _gen_file_id_re.sub('', name.lower())
153
 
    short_no_dots = ascii_word_only.lstrip('.')[:20]
154
 
    return short_no_dots + _next_id_suffix()
155
 
 
156
 
 
 
132
    return generate_ids.gen_file_id(name)
 
133
 
 
134
 
 
135
@deprecated_function(zero_thirteen)
157
136
def gen_root_id():
158
 
    """Return a new tree-root file id."""
159
 
    return gen_file_id('TREE_ROOT')
160
 
 
161
 
 
162
 
def needs_tree_write_lock(unbound):
163
 
    """Decorate unbound to take out and release a tree_write lock."""
164
 
    def tree_write_locked(self, *args, **kwargs):
165
 
        self.lock_tree_write()
166
 
        try:
167
 
            return unbound(self, *args, **kwargs)
168
 
        finally:
169
 
            self.unlock()
170
 
    tree_write_locked.__doc__ = unbound.__doc__
171
 
    tree_write_locked.__name__ = unbound.__name__
172
 
    return tree_write_locked
 
137
    """Return a new tree-root file id.
 
138
 
 
139
    This has been deprecated in favor of bzrlib.generate_ids.gen_root_id()
 
140
    """
 
141
    return generate_ids.gen_root_id()
173
142
 
174
143
 
175
144
class TreeEntry(object):
227
196
        return ''
228
197
 
229
198
 
230
 
class WorkingTree(bzrlib.tree.Tree):
 
199
class WorkingTree(bzrlib.mutabletree.MutableTree):
231
200
    """Working copy tree.
232
201
 
233
202
    The inventory is held in the `Branch` working-inventory, and the
244
213
                 _internal=False,
245
214
                 _format=None,
246
215
                 _bzrdir=None):
247
 
        """Construct a WorkingTree for basedir.
 
216
        """Construct a WorkingTree instance. This is not a public API.
248
217
 
249
 
        If the branch is not supplied, it is opened automatically.
250
 
        If the branch is supplied, it must be the branch for this basedir.
251
 
        (branch.base is not cross checked, because for remote branches that
252
 
        would be meaningless).
 
218
        :param branch: A branch to override probing for the branch.
253
219
        """
254
220
        self._format = _format
255
221
        self.bzrdir = _bzrdir
256
222
        if not _internal:
257
 
            # not created via open etc.
258
 
            warnings.warn("WorkingTree() is deprecated as of bzr version 0.8. "
259
 
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
260
 
                 DeprecationWarning,
261
 
                 stacklevel=2)
262
 
            wt = WorkingTree.open(basedir)
263
 
            self._branch = wt.branch
264
 
            self.basedir = wt.basedir
265
 
            self._control_files = wt._control_files
266
 
            self._hashcache = wt._hashcache
267
 
            self._set_inventory(wt._inventory)
268
 
            self._format = wt._format
269
 
            self.bzrdir = wt.bzrdir
270
 
        from bzrlib.hashcache import HashCache
271
 
        from bzrlib.trace import note, mutter
 
223
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
 
224
                "WorkingTree.open() to obtain a WorkingTree.")
272
225
        assert isinstance(basedir, basestring), \
273
226
            "base directory %r is not a string" % basedir
274
227
        basedir = safe_unicode(basedir)
275
228
        mutter("opening working tree %r", basedir)
276
229
        if deprecated_passed(branch):
277
 
            if not _internal:
278
 
                warnings.warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
279
 
                     " Please use bzrdir.open_workingtree() or"
280
 
                     " WorkingTree.open().",
281
 
                     DeprecationWarning,
282
 
                     stacklevel=2
283
 
                     )
284
230
            self._branch = branch
285
231
        else:
286
232
            self._branch = self.bzrdir.open_branch()
301
247
        # if needed, or, when the cache sees a change, append it to the hash
302
248
        # cache file, and have the parser take the most recent entry for a
303
249
        # given path only.
304
 
        cache_filename = self.bzrdir.get_workingtree_transport(None).local_abspath('stat-cache')
305
 
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
 
250
        wt_trans = self.bzrdir.get_workingtree_transport(None)
 
251
        cache_filename = wt_trans.local_abspath('stat-cache')
 
252
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
 
253
                                              self._control_files._file_mode)
 
254
        hc = self._hashcache
306
255
        hc.read()
307
256
        # is this scan needed ? it makes things kinda slow.
308
257
        #hc.scan()
312
261
            hc.write()
313
262
 
314
263
        if _inventory is None:
315
 
            self._set_inventory(self.read_working_inventory())
 
264
            # This will be acquired on lock_read() or lock_write()
 
265
            self._inventory_is_modified = False
 
266
            self._inventory = None
316
267
        else:
317
 
            self._set_inventory(_inventory)
 
268
            # the caller of __init__ has provided an inventory,
 
269
            # we assume they know what they are doing - as its only
 
270
            # the Format factory and creation methods that are
 
271
            # permitted to do this.
 
272
            self._set_inventory(_inventory, dirty=False)
318
273
 
319
274
    branch = property(
320
275
        fget=lambda self: self._branch,
335
290
        self._control_files.break_lock()
336
291
        self.branch.break_lock()
337
292
 
338
 
    def _set_inventory(self, inv):
 
293
    def requires_rich_root(self):
 
294
        return self._format.requires_rich_root
 
295
 
 
296
    def supports_tree_reference(self):
 
297
        return False
 
298
 
 
299
    def _set_inventory(self, inv, dirty):
 
300
        """Set the internal cached inventory.
 
301
 
 
302
        :param inv: The inventory to set.
 
303
        :param dirty: A boolean indicating whether the inventory is the same
 
304
            logical inventory as whats on disk. If True the inventory is not
 
305
            the same and should be written to disk or data will be lost, if
 
306
            False then the inventory is the same as that on disk and any
 
307
            serialisation would be unneeded overhead.
 
308
        """
339
309
        assert inv.root is not None
340
310
        self._inventory = inv
341
 
        self.path2id = self._inventory.path2id
342
 
 
343
 
    def is_control_filename(self, filename):
344
 
        """True if filename is the name of a control file in this tree.
345
 
        
346
 
        :param filename: A filename within the tree. This is a relative path
347
 
        from the root of this tree.
348
 
 
349
 
        This is true IF and ONLY IF the filename is part of the meta data
350
 
        that bzr controls in this tree. I.E. a random .bzr directory placed
351
 
        on disk will not be a control file for this tree.
352
 
        """
353
 
        return self.bzrdir.is_control_filename(filename)
 
311
        self._inventory_is_modified = dirty
354
312
 
355
313
    @staticmethod
356
314
    def open(path=None, _unsupported=False):
389
347
        """
390
348
        return WorkingTree.open(path, _unsupported=True)
391
349
 
 
350
    # should be deprecated - this is slow and in any case treating them as a
 
351
    # container is (we now know) bad style -- mbp 20070302
 
352
    ## @deprecated_method(zero_fifteen)
392
353
    def __iter__(self):
393
354
        """Iterate through file_ids for this tree.
394
355
 
406
367
 
407
368
    def abspath(self, filename):
408
369
        return pathjoin(self.basedir, filename)
409
 
    
 
370
 
410
371
    def basis_tree(self):
411
372
        """Return RevisionTree for the current last revision.
412
373
        
420
381
            # in the future this should return the tree for
421
382
            # 'empty:' - the implicit root empty tree.
422
383
            return self.branch.repository.revision_tree(None)
423
 
        else:
424
 
            try:
425
 
                xml = self.read_basis_inventory()
426
 
                inv = bzrlib.xml6.serializer_v6.read_inventory_from_string(xml)
427
 
                if inv is not None and inv.revision_id == revision_id:
428
 
                    return bzrlib.tree.RevisionTree(self.branch.repository, 
429
 
                                                    inv, revision_id)
430
 
            except (NoSuchFile, errors.BadInventoryFormat):
431
 
                pass
 
384
        try:
 
385
            return self.revision_tree(revision_id)
 
386
        except errors.NoSuchRevision:
 
387
            pass
432
388
        # No cached copy available, retrieve from the repository.
433
389
        # FIXME? RBC 20060403 should we cache the inventory locally
434
390
        # at this point ?
487
443
        The path may be absolute or relative. If its a relative path it is 
488
444
        interpreted relative to the python current working directory.
489
445
        """
490
 
        return relpath(self.basedir, path)
 
446
        return osutils.relpath(self.basedir, path)
491
447
 
492
448
    def has_filename(self, filename):
493
449
        return osutils.lexists(self.abspath(filename))
494
450
 
495
451
    def get_file(self, file_id):
 
452
        file_id = osutils.safe_file_id(file_id)
496
453
        return self.get_file_byname(self.id2path(file_id))
497
454
 
498
455
    def get_file_text(self, file_id):
 
456
        file_id = osutils.safe_file_id(file_id)
499
457
        return self.get_file(file_id).read()
500
458
 
501
459
    def get_file_byname(self, filename):
502
460
        return file(self.abspath(filename), 'rb')
503
461
 
 
462
    @needs_read_lock
 
463
    def annotate_iter(self, file_id):
 
464
        """See Tree.annotate_iter
 
465
 
 
466
        This implementation will use the basis tree implementation if possible.
 
467
        Lines not in the basis are attributed to CURRENT_REVISION
 
468
 
 
469
        If there are pending merges, lines added by those merges will be
 
470
        incorrectly attributed to CURRENT_REVISION (but after committing, the
 
471
        attribution will be correct).
 
472
        """
 
473
        file_id = osutils.safe_file_id(file_id)
 
474
        basis = self.basis_tree()
 
475
        basis.lock_read()
 
476
        try:
 
477
            changes = self._iter_changes(basis, True, [self.id2path(file_id)],
 
478
                require_versioned=True).next()
 
479
            changed_content, kind = changes[2], changes[6]
 
480
            if not changed_content:
 
481
                return basis.annotate_iter(file_id)
 
482
            if kind[1] is None:
 
483
                return None
 
484
            import annotate
 
485
            if kind[0] != 'file':
 
486
                old_lines = []
 
487
            else:
 
488
                old_lines = list(basis.annotate_iter(file_id))
 
489
            old = [old_lines]
 
490
            for tree in self.branch.repository.revision_trees(
 
491
                self.get_parent_ids()[1:]):
 
492
                if file_id not in tree:
 
493
                    continue
 
494
                old.append(list(tree.annotate_iter(file_id)))
 
495
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
 
496
                                       CURRENT_REVISION)
 
497
        finally:
 
498
            basis.unlock()
 
499
 
504
500
    def get_parent_ids(self):
505
501
        """See Tree.get_parent_ids.
506
502
        
513
509
        else:
514
510
            parents = [last_rev]
515
511
        try:
516
 
            merges_file = self._control_files.get_utf8('pending-merges')
517
 
        except NoSuchFile:
 
512
            merges_file = self._control_files.get('pending-merges')
 
513
        except errors.NoSuchFile:
518
514
            pass
519
515
        else:
520
516
            for l in merges_file.readlines():
521
 
                parents.append(l.rstrip('\n'))
 
517
                revision_id = osutils.safe_revision_id(l.rstrip('\n'))
 
518
                parents.append(revision_id)
522
519
        return parents
523
520
 
 
521
    @needs_read_lock
524
522
    def get_root_id(self):
525
523
        """Return the id of this trees root"""
526
 
        inv = self.read_working_inventory()
527
 
        return inv.root.file_id
 
524
        return self._inventory.root.file_id
528
525
        
529
526
    def _get_store_filename(self, file_id):
530
527
        ## XXX: badly named; this is not in the store at all
 
528
        file_id = osutils.safe_file_id(file_id)
531
529
        return self.abspath(self.id2path(file_id))
532
530
 
533
531
    @needs_read_lock
534
 
    def clone(self, to_bzrdir, revision_id=None, basis=None):
 
532
    def clone(self, to_bzrdir, revision_id=None):
535
533
        """Duplicate this working tree into to_bzr, including all state.
536
534
        
537
535
        Specifically modified files are kept as modified, but
543
541
            If not None, the cloned tree will have its last revision set to 
544
542
            revision, and and difference between the source trees last revision
545
543
            and this one merged in.
546
 
 
547
 
        basis
548
 
            If not None, a closer copy of a tree which may have some files in
549
 
            common, and which file content should be preferentially copied from.
550
544
        """
551
545
        # assumes the target bzr dir format is compatible.
552
546
        result = self._format.initialize(to_bzrdir)
556
550
    @needs_read_lock
557
551
    def copy_content_into(self, tree, revision_id=None):
558
552
        """Copy the current content and user files of this tree into tree."""
 
553
        tree.set_root_id(self.get_root_id())
559
554
        if revision_id is None:
560
 
            transform_tree(tree, self)
 
555
            merge.transform_tree(tree, self)
561
556
        else:
562
557
            # TODO now merge from tree.last_revision to revision (to preserve
563
558
            # user local changes)
564
 
            transform_tree(tree, self)
 
559
            merge.transform_tree(tree, self)
565
560
            tree.set_parent_ids([revision_id])
566
561
 
567
 
    @needs_write_lock
568
 
    def commit(self, message=None, revprops=None, *args, **kwargs):
569
 
        # avoid circular imports
570
 
        from bzrlib.commit import Commit
571
 
        if revprops is None:
572
 
            revprops = {}
573
 
        if not 'branch-nick' in revprops:
574
 
            revprops['branch-nick'] = self.branch.nick
575
 
        # args for wt.commit start at message from the Commit.commit method,
576
 
        # but with branch a kwarg now, passing in args as is results in the
577
 
        #message being used for the branch
578
 
        args = (DEPRECATED_PARAMETER, message, ) + args
579
 
        committed_id = Commit().commit( working_tree=self, revprops=revprops,
580
 
            *args, **kwargs)
581
 
        return committed_id
582
 
 
583
562
    def id2abspath(self, file_id):
 
563
        file_id = osutils.safe_file_id(file_id)
584
564
        return self.abspath(self.id2path(file_id))
585
565
 
586
566
    def has_id(self, file_id):
587
567
        # files that have been deleted are excluded
588
 
        inv = self._inventory
 
568
        file_id = osutils.safe_file_id(file_id)
 
569
        inv = self.inventory
589
570
        if not inv.has_id(file_id):
590
571
            return False
591
572
        path = inv.id2path(file_id)
592
573
        return osutils.lexists(self.abspath(path))
593
574
 
594
575
    def has_or_had_id(self, file_id):
 
576
        file_id = osutils.safe_file_id(file_id)
595
577
        if file_id == self.inventory.root.file_id:
596
578
            return True
597
579
        return self.inventory.has_id(file_id)
599
581
    __contains__ = has_id
600
582
 
601
583
    def get_file_size(self, file_id):
 
584
        file_id = osutils.safe_file_id(file_id)
602
585
        return os.path.getsize(self.id2abspath(file_id))
603
586
 
604
587
    @needs_read_lock
605
 
    def get_file_sha1(self, file_id, path=None):
 
588
    def get_file_sha1(self, file_id, path=None, stat_value=None):
 
589
        file_id = osutils.safe_file_id(file_id)
606
590
        if not path:
607
591
            path = self._inventory.id2path(file_id)
608
 
        return self._hashcache.get_sha1(path)
 
592
        return self._hashcache.get_sha1(path, stat_value)
609
593
 
610
594
    def get_file_mtime(self, file_id, path=None):
 
595
        file_id = osutils.safe_file_id(file_id)
611
596
        if not path:
612
 
            path = self._inventory.id2path(file_id)
 
597
            path = self.inventory.id2path(file_id)
613
598
        return os.lstat(self.abspath(path)).st_mtime
614
599
 
615
600
    if not supports_executable():
616
601
        def is_executable(self, file_id, path=None):
 
602
            file_id = osutils.safe_file_id(file_id)
617
603
            return self._inventory[file_id].executable
618
604
    else:
619
605
        def is_executable(self, file_id, path=None):
620
606
            if not path:
621
 
                path = self._inventory.id2path(file_id)
 
607
                file_id = osutils.safe_file_id(file_id)
 
608
                path = self.id2path(file_id)
622
609
            mode = os.lstat(self.abspath(path)).st_mode
623
610
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
624
611
 
625
612
    @needs_tree_write_lock
626
 
    def add(self, files, ids=None):
627
 
        """Make files versioned.
628
 
 
629
 
        Note that the command line normally calls smart_add instead,
630
 
        which can automatically recurse.
631
 
 
632
 
        This adds the files to the inventory, so that they will be
633
 
        recorded by the next commit.
634
 
 
635
 
        files
636
 
            List of paths to add, relative to the base of the tree.
637
 
 
638
 
        ids
639
 
            If set, use these instead of automatically generated ids.
640
 
            Must be the same length as the list of files, but may
641
 
            contain None for ids that are to be autogenerated.
642
 
 
643
 
        TODO: Perhaps have an option to add the ids even if the files do
644
 
              not (yet) exist.
645
 
 
646
 
        TODO: Perhaps callback with the ids and paths as they're added.
647
 
        """
 
613
    def _add(self, files, ids, kinds):
 
614
        """See MutableTree._add."""
648
615
        # TODO: Re-adding a file that is removed in the working copy
649
616
        # should probably put it back with the previous ID.
650
 
        if isinstance(files, basestring):
651
 
            assert(ids is None or isinstance(ids, basestring))
652
 
            files = [files]
653
 
            if ids is not None:
654
 
                ids = [ids]
655
 
 
656
 
        if ids is None:
657
 
            ids = [None] * len(files)
658
 
        else:
659
 
            assert(len(ids) == len(files))
660
 
 
 
617
        # the read and write working inventory should not occur in this 
 
618
        # function - they should be part of lock_write and unlock.
661
619
        inv = self.read_working_inventory()
662
 
        for f,file_id in zip(files, ids):
663
 
            if self.is_control_filename(f):
664
 
                raise errors.ForbiddenControlFileError(filename=f)
665
 
 
666
 
            fp = splitpath(f)
667
 
 
668
 
            if len(fp) == 0:
669
 
                raise BzrError("cannot add top-level %r" % f)
670
 
 
671
 
            fullpath = normpath(self.abspath(f))
672
 
            try:
673
 
                kind = file_kind(fullpath)
674
 
            except OSError, e:
675
 
                if e.errno == errno.ENOENT:
676
 
                    raise NoSuchFile(fullpath)
677
 
            if not InventoryEntry.versionable_kind(kind):
678
 
                raise errors.BadFileKindError(filename=f, kind=kind)
 
620
        for f, file_id, kind in zip(files, ids, kinds):
 
621
            assert kind is not None
679
622
            if file_id is None:
680
623
                inv.add_path(f, kind=kind)
681
624
            else:
 
625
                file_id = osutils.safe_file_id(file_id)
682
626
                inv.add_path(f, kind=kind, file_id=file_id)
683
 
 
684
627
        self._write_inventory(inv)
685
628
 
686
629
    @needs_tree_write_lock
 
630
    def _gather_kinds(self, files, kinds):
 
631
        """See MutableTree._gather_kinds."""
 
632
        for pos, f in enumerate(files):
 
633
            if kinds[pos] is None:
 
634
                fullpath = normpath(self.abspath(f))
 
635
                try:
 
636
                    kinds[pos] = file_kind(fullpath)
 
637
                except OSError, e:
 
638
                    if e.errno == errno.ENOENT:
 
639
                        raise errors.NoSuchFile(fullpath)
 
640
 
 
641
    @needs_write_lock
687
642
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
688
643
        """Add revision_id as a parent.
689
644
 
696
651
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
697
652
        """
698
653
        parents = self.get_parent_ids() + [revision_id]
699
 
        self.set_parent_ids(parents,
700
 
            allow_leftmost_as_ghost=len(parents) > 1 or allow_leftmost_as_ghost)
 
654
        self.set_parent_ids(parents, allow_leftmost_as_ghost=len(parents) > 1
 
655
            or allow_leftmost_as_ghost)
701
656
 
702
657
    @needs_tree_write_lock
703
658
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
748
703
        """
749
704
        return self.get_parent_ids()[1:]
750
705
 
 
706
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
 
707
        """Common ghost checking functionality from set_parent_*.
 
708
 
 
709
        This checks that the left hand-parent exists if there are any
 
710
        revisions present.
 
711
        """
 
712
        if len(revision_ids) > 0:
 
713
            leftmost_id = revision_ids[0]
 
714
            if (not allow_leftmost_as_ghost and not
 
715
                self.branch.repository.has_revision(leftmost_id)):
 
716
                raise errors.GhostRevisionUnusableHere(leftmost_id)
 
717
 
 
718
    def _set_merges_from_parent_ids(self, parent_ids):
 
719
        merges = parent_ids[1:]
 
720
        self._control_files.put_bytes('pending-merges', '\n'.join(merges))
 
721
 
751
722
    @needs_tree_write_lock
752
723
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
753
724
        """Set the parent ids to revision_ids.
761
732
        :param revision_ids: The revision_ids to set as the parent ids of this
762
733
            working tree. Any of these may be ghosts.
763
734
        """
 
735
        revision_ids = [osutils.safe_revision_id(r) for r in revision_ids]
 
736
        self._check_parents_for_ghosts(revision_ids,
 
737
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
738
 
764
739
        if len(revision_ids) > 0:
765
 
            leftmost_id = revision_ids[0]
766
 
            if (not allow_leftmost_as_ghost and not
767
 
                self.branch.repository.has_revision(leftmost_id)):
768
 
                raise errors.GhostRevisionUnusableHere(leftmost_id)
769
 
            self.set_last_revision(leftmost_id)
 
740
            self.set_last_revision(revision_ids[0])
770
741
        else:
771
742
            self.set_last_revision(None)
772
 
        merges = revision_ids[1:]
773
 
        self._control_files.put_utf8('pending-merges', '\n'.join(merges))
 
743
 
 
744
        self._set_merges_from_parent_ids(revision_ids)
774
745
 
775
746
    @needs_tree_write_lock
776
747
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
777
 
        """Set the parents of the working tree.
 
748
        """See MutableTree.set_parent_trees."""
 
749
        parent_ids = [osutils.safe_revision_id(rev) for (rev, tree) in parents_list]
778
750
 
779
 
        :param parents_list: A list of (revision_id, tree) tuples. 
780
 
            If tree is None, then that element is treated as an unreachable
781
 
            parent tree - i.e. a ghost.
782
 
        """
783
 
        # parent trees are not used in current format trees, delegate to
784
 
        # set_parent_ids
785
 
        self.set_parent_ids([rev for (rev, tree) in parents_list],
 
751
        self._check_parents_for_ghosts(parent_ids,
786
752
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
787
753
 
 
754
        if len(parent_ids) == 0:
 
755
            leftmost_parent_id = None
 
756
            leftmost_parent_tree = None
 
757
        else:
 
758
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
 
759
 
 
760
        if self._change_last_revision(leftmost_parent_id):
 
761
            if leftmost_parent_tree is None:
 
762
                # If we don't have a tree, fall back to reading the
 
763
                # parent tree from the repository.
 
764
                self._cache_basis_inventory(leftmost_parent_id)
 
765
            else:
 
766
                inv = leftmost_parent_tree.inventory
 
767
                xml = self._create_basis_xml_from_inventory(
 
768
                                        leftmost_parent_id, inv)
 
769
                self._write_basis_inventory(xml)
 
770
        self._set_merges_from_parent_ids(parent_ids)
 
771
 
788
772
    @needs_tree_write_lock
789
773
    def set_pending_merges(self, rev_list):
790
774
        parents = self.get_parent_ids()
796
780
    def set_merge_modified(self, modified_hashes):
797
781
        def iter_stanzas():
798
782
            for file_id, hash in modified_hashes.iteritems():
799
 
                yield Stanza(file_id=file_id, hash=hash)
 
783
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
800
784
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
801
785
 
802
 
    @needs_tree_write_lock
803
786
    def _put_rio(self, filename, stanzas, header):
 
787
        self._must_be_locked()
804
788
        my_file = rio_file(stanzas, header)
805
789
        self._control_files.put(filename, my_file)
806
790
 
809
793
        """Merge from a branch into this working tree.
810
794
 
811
795
        :param branch: The branch to merge from.
812
 
        :param to_revision: If non-None, the merge will merge to to_revision, but 
813
 
            not beyond it. to_revision does not need to be in the history of
814
 
            the branch when it is supplied. If None, to_revision defaults to
 
796
        :param to_revision: If non-None, the merge will merge to to_revision,
 
797
            but not beyond it. to_revision does not need to be in the history
 
798
            of the branch when it is supplied. If None, to_revision defaults to
815
799
            branch.last_revision().
816
800
        """
817
801
        from bzrlib.merge import Merger, Merge3Merger
825
809
            merger.check_basis(check_clean=True, require_commits=False)
826
810
            if to_revision is None:
827
811
                to_revision = branch.last_revision()
 
812
            else:
 
813
                to_revision = osutils.safe_revision_id(to_revision)
828
814
            merger.other_rev_id = to_revision
829
815
            if merger.other_rev_id is None:
830
816
                raise error.NoCommits(branch)
832
818
            merger.other_basis = merger.other_rev_id
833
819
            merger.other_tree = self.branch.repository.revision_tree(
834
820
                merger.other_rev_id)
 
821
            merger.other_branch = branch
835
822
            merger.pp.next_phase()
836
823
            merger.find_base()
837
824
            if merger.base_rev_id == merger.other_rev_id:
849
836
 
850
837
    @needs_read_lock
851
838
    def merge_modified(self):
 
839
        """Return a dictionary of files modified by a merge.
 
840
 
 
841
        The list is initialized by WorkingTree.set_merge_modified, which is 
 
842
        typically called after we make some automatic updates to the tree
 
843
        because of a merge.
 
844
 
 
845
        This returns a map of file_id->sha1, containing only files which are
 
846
        still in the working inventory and have that text hash.
 
847
        """
852
848
        try:
853
849
            hashfile = self._control_files.get('merge-hashes')
854
 
        except NoSuchFile:
 
850
        except errors.NoSuchFile:
855
851
            return {}
856
852
        merge_hashes = {}
857
853
        try:
858
854
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
859
 
                raise MergeModifiedFormatError()
 
855
                raise errors.MergeModifiedFormatError()
860
856
        except StopIteration:
861
 
            raise MergeModifiedFormatError()
 
857
            raise errors.MergeModifiedFormatError()
862
858
        for s in RioReader(hashfile):
863
 
            file_id = s.get("file_id")
 
859
            # RioReader reads in Unicode, so convert file_ids back to utf8
 
860
            file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
864
861
            if file_id not in self.inventory:
865
862
                continue
866
 
            hash = s.get("hash")
867
 
            if hash == self.get_file_sha1(file_id):
868
 
                merge_hashes[file_id] = hash
 
863
            text_hash = s.get("hash")
 
864
            if text_hash == self.get_file_sha1(file_id):
 
865
                merge_hashes[file_id] = text_hash
869
866
        return merge_hashes
870
867
 
 
868
    @needs_write_lock
 
869
    def mkdir(self, path, file_id=None):
 
870
        """See MutableTree.mkdir()."""
 
871
        if file_id is None:
 
872
            file_id = generate_ids.gen_file_id(os.path.basename(path))
 
873
        os.mkdir(self.abspath(path))
 
874
        self.add(path, file_id, 'directory')
 
875
        return file_id
 
876
 
871
877
    def get_symlink_target(self, file_id):
 
878
        file_id = osutils.safe_file_id(file_id)
872
879
        return os.readlink(self.id2abspath(file_id))
873
880
 
874
 
    def file_class(self, filename):
875
 
        if self.path2id(filename):
876
 
            return 'V'
877
 
        elif self.is_ignored(filename):
878
 
            return 'I'
879
 
        else:
880
 
            return '?'
881
 
 
882
 
    def list_files(self):
 
881
    @needs_write_lock
 
882
    def subsume(self, other_tree):
 
883
        def add_children(inventory, entry):
 
884
            for child_entry in entry.children.values():
 
885
                inventory._byid[child_entry.file_id] = child_entry
 
886
                if child_entry.kind == 'directory':
 
887
                    add_children(inventory, child_entry)
 
888
        if other_tree.get_root_id() == self.get_root_id():
 
889
            raise errors.BadSubsumeSource(self, other_tree,
 
890
                                          'Trees have the same root')
 
891
        try:
 
892
            other_tree_path = self.relpath(other_tree.basedir)
 
893
        except errors.PathNotChild:
 
894
            raise errors.BadSubsumeSource(self, other_tree,
 
895
                'Tree is not contained by the other')
 
896
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
 
897
        if new_root_parent is None:
 
898
            raise errors.BadSubsumeSource(self, other_tree,
 
899
                'Parent directory is not versioned.')
 
900
        # We need to ensure that the result of a fetch will have a
 
901
        # versionedfile for the other_tree root, and only fetching into
 
902
        # RepositoryKnit2 guarantees that.
 
903
        if not self.branch.repository.supports_rich_root():
 
904
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
 
905
        other_tree.lock_tree_write()
 
906
        try:
 
907
            new_parents = other_tree.get_parent_ids()
 
908
            other_root = other_tree.inventory.root
 
909
            other_root.parent_id = new_root_parent
 
910
            other_root.name = osutils.basename(other_tree_path)
 
911
            self.inventory.add(other_root)
 
912
            add_children(self.inventory, other_root)
 
913
            self._write_inventory(self.inventory)
 
914
            # normally we don't want to fetch whole repositories, but i think
 
915
            # here we really do want to consolidate the whole thing.
 
916
            for parent_id in other_tree.get_parent_ids():
 
917
                self.branch.fetch(other_tree.branch, parent_id)
 
918
                self.add_parent_tree_id(parent_id)
 
919
        finally:
 
920
            other_tree.unlock()
 
921
        other_tree.bzrdir.retire_bzrdir()
 
922
 
 
923
    @needs_tree_write_lock
 
924
    def extract(self, file_id, format=None):
 
925
        """Extract a subtree from this tree.
 
926
        
 
927
        A new branch will be created, relative to the path for this tree.
 
928
        """
 
929
        self.flush()
 
930
        def mkdirs(path):
 
931
            segments = osutils.splitpath(path)
 
932
            transport = self.branch.bzrdir.root_transport
 
933
            for name in segments:
 
934
                transport = transport.clone(name)
 
935
                transport.ensure_base()
 
936
            return transport
 
937
            
 
938
        sub_path = self.id2path(file_id)
 
939
        branch_transport = mkdirs(sub_path)
 
940
        if format is None:
 
941
            format = bzrdir.format_registry.make_bzrdir('dirstate-with-subtree')
 
942
        branch_transport.ensure_base()
 
943
        branch_bzrdir = format.initialize_on_transport(branch_transport)
 
944
        try:
 
945
            repo = branch_bzrdir.find_repository()
 
946
        except errors.NoRepositoryPresent:
 
947
            repo = branch_bzrdir.create_repository()
 
948
            assert repo.supports_rich_root()
 
949
        else:
 
950
            if not repo.supports_rich_root():
 
951
                raise errors.RootNotRich()
 
952
        new_branch = branch_bzrdir.create_branch()
 
953
        new_branch.pull(self.branch)
 
954
        for parent_id in self.get_parent_ids():
 
955
            new_branch.fetch(self.branch, parent_id)
 
956
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
 
957
        if tree_transport.base != branch_transport.base:
 
958
            tree_bzrdir = format.initialize_on_transport(tree_transport)
 
959
            branch.BranchReferenceFormat().initialize(tree_bzrdir, new_branch)
 
960
        else:
 
961
            tree_bzrdir = branch_bzrdir
 
962
        wt = tree_bzrdir.create_workingtree(NULL_REVISION)
 
963
        wt.set_parent_ids(self.get_parent_ids())
 
964
        my_inv = self.inventory
 
965
        child_inv = Inventory(root_id=None)
 
966
        new_root = my_inv[file_id]
 
967
        my_inv.remove_recursive_id(file_id)
 
968
        new_root.parent_id = None
 
969
        child_inv.add(new_root)
 
970
        self._write_inventory(my_inv)
 
971
        wt._write_inventory(child_inv)
 
972
        return wt
 
973
 
 
974
    def _serialize(self, inventory, out_file):
 
975
        xml5.serializer_v5.write_inventory(self._inventory, out_file)
 
976
 
 
977
    def _deserialize(selt, in_file):
 
978
        return xml5.serializer_v5.read_inventory(in_file)
 
979
 
 
980
    def flush(self):
 
981
        """Write the in memory inventory to disk."""
 
982
        # TODO: Maybe this should only write on dirty ?
 
983
        if self._control_files._lock_mode != 'w':
 
984
            raise errors.NotWriteLocked(self)
 
985
        sio = StringIO()
 
986
        self._serialize(self._inventory, sio)
 
987
        sio.seek(0)
 
988
        self._control_files.put('inventory', sio)
 
989
        self._inventory_is_modified = False
 
990
 
 
991
    def _kind(self, relpath):
 
992
        return osutils.file_kind(self.abspath(relpath))
 
993
 
 
994
    def list_files(self, include_root=False):
883
995
        """Recursively list all files as (path, class, kind, id, entry).
884
996
 
885
997
        Lists, but does not descend into unversioned directories.
889
1001
 
890
1002
        Skips the control directory.
891
1003
        """
892
 
        inv = self._inventory
 
1004
        # list_files is an iterator, so @needs_read_lock doesn't work properly
 
1005
        # with it. So callers should be careful to always read_lock the tree.
 
1006
        if not self.is_locked():
 
1007
            raise errors.ObjectNotLocked(self)
 
1008
 
 
1009
        inv = self.inventory
 
1010
        if include_root is True:
 
1011
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
893
1012
        # Convert these into local objects to save lookup times
894
1013
        pathjoin = osutils.pathjoin
895
 
        file_kind = osutils.file_kind
 
1014
        file_kind = self._kind
896
1015
 
897
1016
        # transport.base ends in a slash, we want the piece
898
1017
        # between the last two slashes
958
1077
 
959
1078
                fk = file_kind(fap)
960
1079
 
961
 
                if f_ie:
962
 
                    if f_ie.kind != fk:
963
 
                        raise BzrCheckError("file %r entered as kind %r id %r, "
964
 
                                            "now of kind %r"
965
 
                                            % (fap, f_ie.kind, f_ie.file_id, fk))
966
 
 
967
1080
                # make a last minute entry
968
1081
                if f_ie:
969
1082
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
982
1095
                new_children.sort()
983
1096
                new_children = collections.deque(new_children)
984
1097
                stack.append((f_ie.file_id, fp, fap, new_children))
985
 
                # Break out of inner loop, so that we start outer loop with child
 
1098
                # Break out of inner loop,
 
1099
                # so that we start outer loop with child
986
1100
                break
987
1101
            else:
988
1102
                # if we finished all children, pop it off the stack
989
1103
                stack.pop()
990
1104
 
991
1105
    @needs_tree_write_lock
992
 
    def move(self, from_paths, to_name):
 
1106
    def move(self, from_paths, to_dir=None, after=False, **kwargs):
993
1107
        """Rename files.
994
1108
 
995
 
        to_name must exist in the inventory.
 
1109
        to_dir must exist in the inventory.
996
1110
 
997
 
        If to_name exists and is a directory, the files are moved into
 
1111
        If to_dir exists and is a directory, the files are moved into
998
1112
        it, keeping their old names.  
999
1113
 
1000
 
        Note that to_name is only the last component of the new name;
 
1114
        Note that to_dir is only the last component of the new name;
1001
1115
        this doesn't change the directory.
1002
1116
 
 
1117
        For each entry in from_paths the move mode will be determined
 
1118
        independently.
 
1119
 
 
1120
        The first mode moves the file in the filesystem and updates the
 
1121
        inventory. The second mode only updates the inventory without
 
1122
        touching the file on the filesystem. This is the new mode introduced
 
1123
        in version 0.15.
 
1124
 
 
1125
        move uses the second mode if 'after == True' and the target is not
 
1126
        versioned but present in the working tree.
 
1127
 
 
1128
        move uses the second mode if 'after == False' and the source is
 
1129
        versioned but no longer in the working tree, and the target is not
 
1130
        versioned but present in the working tree.
 
1131
 
 
1132
        move uses the first mode if 'after == False' and the source is
 
1133
        versioned and present in the working tree, and the target is not
 
1134
        versioned and not present in the working tree.
 
1135
 
 
1136
        Everything else results in an error.
 
1137
 
1003
1138
        This returns a list of (from_path, to_path) pairs for each
1004
1139
        entry that is moved.
1005
1140
        """
1006
 
        result = []
1007
 
        ## TODO: Option to move IDs only
 
1141
        rename_entries = []
 
1142
        rename_tuples = []
 
1143
 
 
1144
        # check for deprecated use of signature
 
1145
        if to_dir is None:
 
1146
            to_dir = kwargs.get('to_name', None)
 
1147
            if to_dir is None:
 
1148
                raise TypeError('You must supply a target directory')
 
1149
            else:
 
1150
                symbol_versioning.warn('The parameter to_name was deprecated'
 
1151
                                       ' in version 0.13. Use to_dir instead',
 
1152
                                       DeprecationWarning)
 
1153
 
 
1154
        # check destination directory
1008
1155
        assert not isinstance(from_paths, basestring)
1009
1156
        inv = self.inventory
1010
 
        to_abs = self.abspath(to_name)
 
1157
        to_abs = self.abspath(to_dir)
1011
1158
        if not isdir(to_abs):
1012
 
            raise BzrError("destination %r is not a directory" % to_abs)
1013
 
        if not self.has_filename(to_name):
1014
 
            raise BzrError("destination %r not in working directory" % to_abs)
1015
 
        to_dir_id = inv.path2id(to_name)
1016
 
        if to_dir_id is None and to_name != '':
1017
 
            raise BzrError("destination %r is not a versioned directory" % to_name)
 
1159
            raise errors.BzrMoveFailedError('',to_dir,
 
1160
                errors.NotADirectory(to_abs))
 
1161
        if not self.has_filename(to_dir):
 
1162
            raise errors.BzrMoveFailedError('',to_dir,
 
1163
                errors.NotInWorkingDirectory(to_dir))
 
1164
        to_dir_id = inv.path2id(to_dir)
 
1165
        if to_dir_id is None:
 
1166
            raise errors.BzrMoveFailedError('',to_dir,
 
1167
                errors.NotVersionedError(path=str(to_dir)))
 
1168
 
1018
1169
        to_dir_ie = inv[to_dir_id]
1019
1170
        if to_dir_ie.kind != 'directory':
1020
 
            raise BzrError("destination %r is not a directory" % to_abs)
1021
 
 
1022
 
        to_idpath = inv.get_idpath(to_dir_id)
1023
 
 
1024
 
        for f in from_paths:
1025
 
            if not self.has_filename(f):
1026
 
                raise BzrError("%r does not exist in working tree" % f)
1027
 
            f_id = inv.path2id(f)
1028
 
            if f_id is None:
1029
 
                raise BzrError("%r is not versioned" % f)
1030
 
            name_tail = splitpath(f)[-1]
1031
 
            dest_path = pathjoin(to_name, name_tail)
1032
 
            if self.has_filename(dest_path):
1033
 
                raise BzrError("destination %r already exists" % dest_path)
1034
 
            if f_id in to_idpath:
1035
 
                raise BzrError("can't move %r to a subdirectory of itself" % f)
1036
 
 
1037
 
        # OK, so there's a race here, it's possible that someone will
1038
 
        # create a file in this interval and then the rename might be
1039
 
        # left half-done.  But we should have caught most problems.
1040
 
        orig_inv = deepcopy(self.inventory)
 
1171
            raise errors.BzrMoveFailedError('',to_dir,
 
1172
                errors.NotADirectory(to_abs))
 
1173
 
 
1174
        # create rename entries and tuples
 
1175
        for from_rel in from_paths:
 
1176
            from_tail = splitpath(from_rel)[-1]
 
1177
            from_id = inv.path2id(from_rel)
 
1178
            if from_id is None:
 
1179
                raise errors.BzrMoveFailedError(from_rel,to_dir,
 
1180
                    errors.NotVersionedError(path=str(from_rel)))
 
1181
 
 
1182
            from_entry = inv[from_id]
 
1183
            from_parent_id = from_entry.parent_id
 
1184
            to_rel = pathjoin(to_dir, from_tail)
 
1185
            rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
 
1186
                                         from_id=from_id,
 
1187
                                         from_tail=from_tail,
 
1188
                                         from_parent_id=from_parent_id,
 
1189
                                         to_rel=to_rel, to_tail=from_tail,
 
1190
                                         to_parent_id=to_dir_id)
 
1191
            rename_entries.append(rename_entry)
 
1192
            rename_tuples.append((from_rel, to_rel))
 
1193
 
 
1194
        # determine which move mode to use. checks also for movability
 
1195
        rename_entries = self._determine_mv_mode(rename_entries, after)
 
1196
 
 
1197
        original_modified = self._inventory_is_modified
1041
1198
        try:
1042
 
            for f in from_paths:
1043
 
                name_tail = splitpath(f)[-1]
1044
 
                dest_path = pathjoin(to_name, name_tail)
1045
 
                result.append((f, dest_path))
1046
 
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
1047
 
                try:
1048
 
                    rename(self.abspath(f), self.abspath(dest_path))
1049
 
                except OSError, e:
1050
 
                    raise BzrError("failed to rename %r to %r: %s" %
1051
 
                                   (f, dest_path, e[1]),
1052
 
                            ["rename rolled back"])
 
1199
            if len(from_paths):
 
1200
                self._inventory_is_modified = True
 
1201
            self._move(rename_entries)
1053
1202
        except:
1054
1203
            # restore the inventory on error
1055
 
            self._set_inventory(orig_inv)
 
1204
            self._inventory_is_modified = original_modified
1056
1205
            raise
1057
1206
        self._write_inventory(inv)
1058
 
        return result
 
1207
        return rename_tuples
 
1208
 
 
1209
    def _determine_mv_mode(self, rename_entries, after=False):
 
1210
        """Determines for each from-to pair if both inventory and working tree
 
1211
        or only the inventory has to be changed.
 
1212
 
 
1213
        Also does basic plausability tests.
 
1214
        """
 
1215
        inv = self.inventory
 
1216
 
 
1217
        for rename_entry in rename_entries:
 
1218
            # store to local variables for easier reference
 
1219
            from_rel = rename_entry.from_rel
 
1220
            from_id = rename_entry.from_id
 
1221
            to_rel = rename_entry.to_rel
 
1222
            to_id = inv.path2id(to_rel)
 
1223
            only_change_inv = False
 
1224
 
 
1225
            # check the inventory for source and destination
 
1226
            if from_id is None:
 
1227
                raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1228
                    errors.NotVersionedError(path=str(from_rel)))
 
1229
            if to_id is not None:
 
1230
                raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1231
                    errors.AlreadyVersionedError(path=str(to_rel)))
 
1232
 
 
1233
            # try to determine the mode for rename (only change inv or change
 
1234
            # inv and file system)
 
1235
            if after:
 
1236
                if not self.has_filename(to_rel):
 
1237
                    raise errors.BzrMoveFailedError(from_id,to_rel,
 
1238
                        errors.NoSuchFile(path=str(to_rel),
 
1239
                        extra="New file has not been created yet"))
 
1240
                only_change_inv = True
 
1241
            elif not self.has_filename(from_rel) and self.has_filename(to_rel):
 
1242
                only_change_inv = True
 
1243
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
 
1244
                only_change_inv = False
 
1245
            else:
 
1246
                # something is wrong, so lets determine what exactly
 
1247
                if not self.has_filename(from_rel) and \
 
1248
                   not self.has_filename(to_rel):
 
1249
                    raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1250
                        errors.PathsDoNotExist(paths=(str(from_rel),
 
1251
                        str(to_rel))))
 
1252
                else:
 
1253
                    raise errors.RenameFailedFilesExist(from_rel, to_rel,
 
1254
                        extra="(Use --after to update the Bazaar id)")
 
1255
            rename_entry.only_change_inv = only_change_inv
 
1256
        return rename_entries
 
1257
 
 
1258
    def _move(self, rename_entries):
 
1259
        """Moves a list of files.
 
1260
 
 
1261
        Depending on the value of the flag 'only_change_inv', the
 
1262
        file will be moved on the file system or not.
 
1263
        """
 
1264
        inv = self.inventory
 
1265
        moved = []
 
1266
 
 
1267
        for entry in rename_entries:
 
1268
            try:
 
1269
                self._move_entry(entry)
 
1270
            except:
 
1271
                self._rollback_move(moved)
 
1272
                raise
 
1273
            moved.append(entry)
 
1274
 
 
1275
    def _rollback_move(self, moved):
 
1276
        """Try to rollback a previous move in case of an filesystem error."""
 
1277
        inv = self.inventory
 
1278
        for entry in moved:
 
1279
            try:
 
1280
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
 
1281
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
 
1282
                    entry.from_tail, entry.from_parent_id,
 
1283
                    entry.only_change_inv))
 
1284
            except errors.BzrMoveFailedError, e:
 
1285
                raise errors.BzrMoveFailedError( '', '', "Rollback failed."
 
1286
                        " The working tree is in an inconsistent state."
 
1287
                        " Please consider doing a 'bzr revert'."
 
1288
                        " Error message is: %s" % e)
 
1289
 
 
1290
    def _move_entry(self, entry):
 
1291
        inv = self.inventory
 
1292
        from_rel_abs = self.abspath(entry.from_rel)
 
1293
        to_rel_abs = self.abspath(entry.to_rel)
 
1294
        if from_rel_abs == to_rel_abs:
 
1295
            raise errors.BzrMoveFailedError(entry.from_rel, entry.to_rel,
 
1296
                "Source and target are identical.")
 
1297
 
 
1298
        if not entry.only_change_inv:
 
1299
            try:
 
1300
                osutils.rename(from_rel_abs, to_rel_abs)
 
1301
            except OSError, e:
 
1302
                raise errors.BzrMoveFailedError(entry.from_rel,
 
1303
                    entry.to_rel, e[1])
 
1304
        inv.rename(entry.from_id, entry.to_parent_id, entry.to_tail)
1059
1305
 
1060
1306
    @needs_tree_write_lock
1061
 
    def rename_one(self, from_rel, to_rel):
 
1307
    def rename_one(self, from_rel, to_rel, after=False):
1062
1308
        """Rename one file.
1063
1309
 
1064
1310
        This can change the directory or the filename or both.
 
1311
 
 
1312
        rename_one has several 'modes' to work. First, it can rename a physical
 
1313
        file and change the file_id. That is the normal mode. Second, it can
 
1314
        only change the file_id without touching any physical file. This is
 
1315
        the new mode introduced in version 0.15.
 
1316
 
 
1317
        rename_one uses the second mode if 'after == True' and 'to_rel' is not
 
1318
        versioned but present in the working tree.
 
1319
 
 
1320
        rename_one uses the second mode if 'after == False' and 'from_rel' is
 
1321
        versioned but no longer in the working tree, and 'to_rel' is not
 
1322
        versioned but present in the working tree.
 
1323
 
 
1324
        rename_one uses the first mode if 'after == False' and 'from_rel' is
 
1325
        versioned and present in the working tree, and 'to_rel' is not
 
1326
        versioned and not present in the working tree.
 
1327
 
 
1328
        Everything else results in an error.
1065
1329
        """
1066
1330
        inv = self.inventory
1067
 
        if not self.has_filename(from_rel):
1068
 
            raise BzrError("can't rename: old working file %r does not exist" % from_rel)
1069
 
        if self.has_filename(to_rel):
1070
 
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
1071
 
 
1072
 
        file_id = inv.path2id(from_rel)
1073
 
        if file_id is None:
1074
 
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
1075
 
 
1076
 
        entry = inv[file_id]
1077
 
        from_parent = entry.parent_id
1078
 
        from_name = entry.name
1079
 
        
1080
 
        if inv.path2id(to_rel):
1081
 
            raise BzrError("can't rename: new name %r is already versioned" % to_rel)
1082
 
 
 
1331
        rename_entries = []
 
1332
 
 
1333
        # create rename entries and tuples
 
1334
        from_tail = splitpath(from_rel)[-1]
 
1335
        from_id = inv.path2id(from_rel)
 
1336
        if from_id is None:
 
1337
            raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1338
                errors.NotVersionedError(path=str(from_rel)))
 
1339
        from_entry = inv[from_id]
 
1340
        from_parent_id = from_entry.parent_id
1083
1341
        to_dir, to_tail = os.path.split(to_rel)
1084
1342
        to_dir_id = inv.path2id(to_dir)
1085
 
        if to_dir_id is None and to_dir != '':
1086
 
            raise BzrError("can't determine destination directory id for %r" % to_dir)
1087
 
 
1088
 
        mutter("rename_one:")
1089
 
        mutter("  file_id    {%s}" % file_id)
1090
 
        mutter("  from_rel   %r" % from_rel)
1091
 
        mutter("  to_rel     %r" % to_rel)
1092
 
        mutter("  to_dir     %r" % to_dir)
1093
 
        mutter("  to_dir_id  {%s}" % to_dir_id)
1094
 
 
1095
 
        inv.rename(file_id, to_dir_id, to_tail)
1096
 
 
1097
 
        from_abs = self.abspath(from_rel)
1098
 
        to_abs = self.abspath(to_rel)
1099
 
        try:
1100
 
            rename(from_abs, to_abs)
1101
 
        except OSError, e:
1102
 
            inv.rename(file_id, from_parent, from_name)
1103
 
            raise BzrError("failed to rename %r to %r: %s"
1104
 
                    % (from_abs, to_abs, e[1]),
1105
 
                    ["rename rolled back"])
 
1343
        rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
 
1344
                                     from_id=from_id,
 
1345
                                     from_tail=from_tail,
 
1346
                                     from_parent_id=from_parent_id,
 
1347
                                     to_rel=to_rel, to_tail=to_tail,
 
1348
                                     to_parent_id=to_dir_id)
 
1349
        rename_entries.append(rename_entry)
 
1350
 
 
1351
        # determine which move mode to use. checks also for movability
 
1352
        rename_entries = self._determine_mv_mode(rename_entries, after)
 
1353
 
 
1354
        # check if the target changed directory and if the target directory is
 
1355
        # versioned
 
1356
        if to_dir_id is None:
 
1357
            raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1358
                errors.NotVersionedError(path=str(to_dir)))
 
1359
 
 
1360
        # all checks done. now we can continue with our actual work
 
1361
        mutter('rename_one:\n'
 
1362
               '  from_id   {%s}\n'
 
1363
               '  from_rel: %r\n'
 
1364
               '  to_rel:   %r\n'
 
1365
               '  to_dir    %r\n'
 
1366
               '  to_dir_id {%s}\n',
 
1367
               from_id, from_rel, to_rel, to_dir, to_dir_id)
 
1368
 
 
1369
        self._move(rename_entries)
1106
1370
        self._write_inventory(inv)
1107
1371
 
 
1372
    class _RenameEntry(object):
 
1373
        def __init__(self, from_rel, from_id, from_tail, from_parent_id,
 
1374
                     to_rel, to_tail, to_parent_id, only_change_inv=False):
 
1375
            self.from_rel = from_rel
 
1376
            self.from_id = from_id
 
1377
            self.from_tail = from_tail
 
1378
            self.from_parent_id = from_parent_id
 
1379
            self.to_rel = to_rel
 
1380
            self.to_tail = to_tail
 
1381
            self.to_parent_id = to_parent_id
 
1382
            self.only_change_inv = only_change_inv
 
1383
 
1108
1384
    @needs_read_lock
1109
1385
    def unknowns(self):
1110
1386
        """Return all unknown files.
1112
1388
        These are files in the working directory that are not versioned or
1113
1389
        control files or ignored.
1114
1390
        """
1115
 
        for subp in self.extras():
1116
 
            if not self.is_ignored(subp):
1117
 
                yield subp
1118
 
    
 
1391
        # force the extras method to be fully executed before returning, to 
 
1392
        # prevent race conditions with the lock
 
1393
        return iter(
 
1394
            [subp for subp in self.extras() if not self.is_ignored(subp)])
 
1395
 
1119
1396
    @needs_tree_write_lock
1120
1397
    def unversion(self, file_ids):
1121
1398
        """Remove the file ids in file_ids from the current versioned set.
1127
1404
        :raises: NoSuchId if any fileid is not currently versioned.
1128
1405
        """
1129
1406
        for file_id in file_ids:
 
1407
            file_id = osutils.safe_file_id(file_id)
1130
1408
            if self._inventory.has_id(file_id):
1131
1409
                self._inventory.remove_recursive_id(file_id)
1132
1410
            else:
1160
1438
                yield stem
1161
1439
 
1162
1440
    @needs_write_lock
1163
 
    def pull(self, source, overwrite=False, stop_revision=None):
 
1441
    def pull(self, source, overwrite=False, stop_revision=None,
 
1442
             change_reporter=None):
1164
1443
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
1165
1444
        source.lock_read()
1166
1445
        try:
1167
1446
            pp = ProgressPhase("Pull phase", 2, top_pb)
1168
1447
            pp.next_phase()
1169
 
            old_revision_history = self.branch.revision_history()
 
1448
            old_revision_info = self.branch.last_revision_info()
1170
1449
            basis_tree = self.basis_tree()
1171
1450
            count = self.branch.pull(source, overwrite, stop_revision)
1172
 
            new_revision_history = self.branch.revision_history()
1173
 
            if new_revision_history != old_revision_history:
 
1451
            new_revision_info = self.branch.last_revision_info()
 
1452
            if new_revision_info != old_revision_info:
1174
1453
                pp.next_phase()
1175
 
                if len(old_revision_history):
1176
 
                    other_revision = old_revision_history[-1]
1177
 
                else:
1178
 
                    other_revision = None
1179
1454
                repository = self.branch.repository
1180
1455
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
1456
                basis_tree.lock_read()
1181
1457
                try:
1182
1458
                    new_basis_tree = self.branch.basis_tree()
1183
 
                    merge_inner(self.branch,
 
1459
                    merge.merge_inner(
 
1460
                                self.branch,
1184
1461
                                new_basis_tree,
1185
1462
                                basis_tree,
1186
1463
                                this_tree=self,
1187
 
                                pb=pb)
 
1464
                                pb=pb,
 
1465
                                change_reporter=change_reporter)
 
1466
                    if (basis_tree.inventory.root is None and
 
1467
                        new_basis_tree.inventory.root is not None):
 
1468
                        self.set_root_id(new_basis_tree.inventory.root.file_id)
1188
1469
                finally:
1189
1470
                    pb.finished()
 
1471
                    basis_tree.unlock()
1190
1472
                # TODO - dedup parents list with things merged by pull ?
1191
1473
                # reuse the revisiontree we merged against to set the new
1192
1474
                # tree data.
1194
1476
                # we have to pull the merge trees out again, because 
1195
1477
                # merge_inner has set the ids. - this corner is not yet 
1196
1478
                # layered well enough to prevent double handling.
 
1479
                # XXX TODO: Fix the double handling: telling the tree about
 
1480
                # the already known parent data is wasteful.
1197
1481
                merges = self.get_parent_ids()[1:]
1198
1482
                parent_trees.extend([
1199
1483
                    (parent, repository.revision_tree(parent)) for
1204
1488
            source.unlock()
1205
1489
            top_pb.finished()
1206
1490
 
 
1491
    @needs_write_lock
 
1492
    def put_file_bytes_non_atomic(self, file_id, bytes):
 
1493
        """See MutableTree.put_file_bytes_non_atomic."""
 
1494
        file_id = osutils.safe_file_id(file_id)
 
1495
        stream = file(self.id2abspath(file_id), 'wb')
 
1496
        try:
 
1497
            stream.write(bytes)
 
1498
        finally:
 
1499
            stream.close()
 
1500
        # TODO: update the hashcache here ?
 
1501
 
1207
1502
    def extras(self):
1208
 
        """Yield all unknown files in this WorkingTree.
 
1503
        """Yield all unversioned files in this WorkingTree.
1209
1504
 
1210
 
        If there are any unknown directories then only the directory is
1211
 
        returned, not all its children.  But if there are unknown files
 
1505
        If there are any unversioned directories then only the directory is
 
1506
        returned, not all its children.  But if there are unversioned files
1212
1507
        under a versioned subdirectory, they are returned.
1213
1508
 
1214
1509
        Currently returned depth-first, sorted by name within directories.
 
1510
        This is the same order used by 'osutils.walkdirs'.
1215
1511
        """
1216
1512
        ## TODO: Work from given directory downwards
1217
1513
        for path, dir_entry in self.inventory.directories():
1238
1534
                subp = pathjoin(path, subf)
1239
1535
                yield subp
1240
1536
 
1241
 
    def _translate_ignore_rule(self, rule):
1242
 
        """Translate a single ignore rule to a regex.
1243
 
 
1244
 
        There are two types of ignore rules.  Those that do not contain a / are
1245
 
        matched against the tail of the filename (that is, they do not care
1246
 
        what directory the file is in.)  Rules which do contain a slash must
1247
 
        match the entire path.  As a special case, './' at the start of the
1248
 
        string counts as a slash in the string but is removed before matching
1249
 
        (e.g. ./foo.c, ./src/foo.c)
1250
 
 
1251
 
        :return: The translated regex.
1252
 
        """
1253
 
        if rule[:2] in ('./', '.\\'):
1254
 
            # rootdir rule
1255
 
            result = fnmatch.translate(rule[2:])
1256
 
        elif '/' in rule or '\\' in rule:
1257
 
            # path prefix 
1258
 
            result = fnmatch.translate(rule)
1259
 
        else:
1260
 
            # default rule style.
1261
 
            result = "(?:.*/)?(?!.*/)" + fnmatch.translate(rule)
1262
 
        assert result[-1] == '$', "fnmatch.translate did not add the expected $"
1263
 
        return "(" + result + ")"
1264
 
 
1265
 
    def _combine_ignore_rules(self, rules):
1266
 
        """Combine a list of ignore rules into a single regex object.
1267
 
 
1268
 
        Each individual rule is combined with | to form a big regex, which then
1269
 
        has $ added to it to form something like ()|()|()$. The group index for
1270
 
        each subregex's outermost group is placed in a dictionary mapping back 
1271
 
        to the rule. This allows quick identification of the matching rule that
1272
 
        triggered a match.
1273
 
        :return: a list of the compiled regex and the matching-group index 
1274
 
        dictionaries. We return a list because python complains if you try to 
1275
 
        combine more than 100 regexes.
1276
 
        """
1277
 
        result = []
1278
 
        groups = {}
1279
 
        next_group = 0
1280
 
        translated_rules = []
1281
 
        for rule in rules:
1282
 
            translated_rule = self._translate_ignore_rule(rule)
1283
 
            compiled_rule = re.compile(translated_rule)
1284
 
            groups[next_group] = rule
1285
 
            next_group += compiled_rule.groups
1286
 
            translated_rules.append(translated_rule)
1287
 
            if next_group == 99:
1288
 
                result.append((re.compile("|".join(translated_rules)), groups))
1289
 
                groups = {}
1290
 
                next_group = 0
1291
 
                translated_rules = []
1292
 
        if len(translated_rules):
1293
 
            result.append((re.compile("|".join(translated_rules)), groups))
1294
 
        return result
1295
 
 
1296
1537
    def ignored_files(self):
1297
1538
        """Yield list of PATH, IGNORE_PATTERN"""
1298
1539
        for subp in self.extras():
1311
1552
 
1312
1553
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
1313
1554
        ignore_globs.update(ignores.get_runtime_ignores())
1314
 
 
1315
1555
        ignore_globs.update(ignores.get_user_ignores())
1316
 
 
1317
1556
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1318
1557
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
1319
1558
            try:
1320
1559
                ignore_globs.update(ignores.parse_ignore_file(f))
1321
1560
            finally:
1322
1561
                f.close()
1323
 
 
1324
1562
        self._ignoreset = ignore_globs
1325
 
        self._ignore_regex = self._combine_ignore_rules(ignore_globs)
1326
1563
        return ignore_globs
1327
1564
 
1328
 
    def _get_ignore_rules_as_regex(self):
1329
 
        """Return a regex of the ignore rules and a mapping dict.
1330
 
 
1331
 
        :return: (ignore rules compiled regex, dictionary mapping rule group 
1332
 
        indices to original rule.)
1333
 
        """
1334
 
        if getattr(self, '_ignoreset', None) is None:
1335
 
            self.get_ignore_list()
1336
 
        return self._ignore_regex
 
1565
    def _flush_ignore_list_cache(self):
 
1566
        """Resets the cached ignore list to force a cache rebuild."""
 
1567
        self._ignoreset = None
 
1568
        self._ignoreglobster = None
1337
1569
 
1338
1570
    def is_ignored(self, filename):
1339
1571
        r"""Check whether the filename matches an ignore pattern.
1344
1576
        If the file is ignored, returns the pattern which caused it to
1345
1577
        be ignored, otherwise None.  So this can simply be used as a
1346
1578
        boolean if desired."""
1347
 
 
1348
 
        # TODO: Use '**' to match directories, and other extended
1349
 
        # globbing stuff from cvs/rsync.
1350
 
 
1351
 
        # XXX: fnmatch is actually not quite what we want: it's only
1352
 
        # approximately the same as real Unix fnmatch, and doesn't
1353
 
        # treat dotfiles correctly and allows * to match /.
1354
 
        # Eventually it should be replaced with something more
1355
 
        # accurate.
1356
 
    
1357
 
        rules = self._get_ignore_rules_as_regex()
1358
 
        for regex, mapping in rules:
1359
 
            match = regex.match(filename)
1360
 
            if match is not None:
1361
 
                # one or more of the groups in mapping will have a non-None
1362
 
                # group match.
1363
 
                groups = match.groups()
1364
 
                rules = [mapping[group] for group in 
1365
 
                    mapping if groups[group] is not None]
1366
 
                return rules[0]
1367
 
        return None
 
1579
        if getattr(self, '_ignoreglobster', None) is None:
 
1580
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
 
1581
        return self._ignoreglobster.match(filename)
1368
1582
 
1369
1583
    def kind(self, file_id):
1370
1584
        return file_kind(self.id2abspath(file_id))
1371
1585
 
 
1586
    def _comparison_data(self, entry, path):
 
1587
        abspath = self.abspath(path)
 
1588
        try:
 
1589
            stat_value = os.lstat(abspath)
 
1590
        except OSError, e:
 
1591
            if getattr(e, 'errno', None) == errno.ENOENT:
 
1592
                stat_value = None
 
1593
                kind = None
 
1594
                executable = False
 
1595
            else:
 
1596
                raise
 
1597
        else:
 
1598
            mode = stat_value.st_mode
 
1599
            kind = osutils.file_kind_from_stat_mode(mode)
 
1600
            if not supports_executable():
 
1601
                executable = entry is not None and entry.executable
 
1602
            else:
 
1603
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
1604
        return kind, executable, stat_value
 
1605
 
 
1606
    def _file_size(self, entry, stat_value):
 
1607
        return stat_value.st_size
 
1608
 
1372
1609
    def last_revision(self):
1373
 
        """Return the last revision id of this working tree.
1374
 
 
1375
 
        In early branch formats this was the same as the branch last_revision,
1376
 
        but that cannot be relied upon - for working tree operations,
1377
 
        always use tree.last_revision(). This returns the left most parent id,
1378
 
        or None if there are no parents.
1379
 
 
1380
 
        This was deprecated as of 0.11. Please use get_parent_ids instead.
 
1610
        """Return the last revision of the branch for this tree.
 
1611
 
 
1612
        This format tree does not support a separate marker for last-revision
 
1613
        compared to the branch.
 
1614
 
 
1615
        See MutableTree.last_revision
1381
1616
        """
1382
1617
        return self._last_revision()
1383
1618
 
1389
1624
    def is_locked(self):
1390
1625
        return self._control_files.is_locked()
1391
1626
 
 
1627
    def _must_be_locked(self):
 
1628
        if not self.is_locked():
 
1629
            raise errors.ObjectNotLocked(self)
 
1630
 
1392
1631
    def lock_read(self):
1393
1632
        """See Branch.lock_read, and WorkingTree.unlock."""
 
1633
        if not self.is_locked():
 
1634
            self._reset_data()
1394
1635
        self.branch.lock_read()
1395
1636
        try:
1396
1637
            return self._control_files.lock_read()
1399
1640
            raise
1400
1641
 
1401
1642
    def lock_tree_write(self):
1402
 
        """Lock the working tree for write, and the branch for read.
1403
 
 
1404
 
        This is useful for operations which only need to mutate the working
1405
 
        tree. Taking out branch write locks is a relatively expensive process
1406
 
        and may fail if the branch is on read only media. So branch write locks
1407
 
        should only be taken out when we are modifying branch data - such as in
1408
 
        operations like commit, pull, uncommit and update.
1409
 
        """
 
1643
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
 
1644
        if not self.is_locked():
 
1645
            self._reset_data()
1410
1646
        self.branch.lock_read()
1411
1647
        try:
1412
1648
            return self._control_files.lock_write()
1415
1651
            raise
1416
1652
 
1417
1653
    def lock_write(self):
1418
 
        """See Branch.lock_write, and WorkingTree.unlock."""
 
1654
        """See MutableTree.lock_write, and WorkingTree.unlock."""
 
1655
        if not self.is_locked():
 
1656
            self._reset_data()
1419
1657
        self.branch.lock_write()
1420
1658
        try:
1421
1659
            return self._control_files.lock_write()
1429
1667
    def _basis_inventory_name(self):
1430
1668
        return 'basis-inventory-cache'
1431
1669
 
 
1670
    def _reset_data(self):
 
1671
        """Reset transient data that cannot be revalidated."""
 
1672
        self._inventory_is_modified = False
 
1673
        result = self._deserialize(self._control_files.get('inventory'))
 
1674
        self._set_inventory(result, dirty=False)
 
1675
 
1432
1676
    @needs_tree_write_lock
1433
1677
    def set_last_revision(self, new_revision):
1434
1678
        """Change the last revision in the working tree."""
 
1679
        new_revision = osutils.safe_revision_id(new_revision)
1435
1680
        if self._change_last_revision(new_revision):
1436
1681
            self._cache_basis_inventory(new_revision)
1437
1682
 
1451
1696
            self.branch.set_revision_history([new_revision])
1452
1697
        return True
1453
1698
 
 
1699
    def _write_basis_inventory(self, xml):
 
1700
        """Write the basis inventory XML to the basis-inventory file"""
 
1701
        assert isinstance(xml, str), 'serialised xml must be bytestring.'
 
1702
        path = self._basis_inventory_name()
 
1703
        sio = StringIO(xml)
 
1704
        self._control_files.put(path, sio)
 
1705
 
 
1706
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
 
1707
        """Create the text that will be saved in basis-inventory"""
 
1708
        # TODO: jam 20070209 This should be redundant, as the revision_id
 
1709
        #       as all callers should have already converted the revision_id to
 
1710
        #       utf8
 
1711
        inventory.revision_id = osutils.safe_revision_id(revision_id)
 
1712
        return xml7.serializer_v7.write_inventory_to_string(inventory)
 
1713
 
1454
1714
    def _cache_basis_inventory(self, new_revision):
1455
1715
        """Cache new_revision as the basis inventory."""
1456
1716
        # TODO: this should allow the ready-to-use inventory to be passed in,
1470
1730
            xml = self.branch.repository.get_inventory_xml(new_revision)
1471
1731
            firstline = xml.split('\n', 1)[0]
1472
1732
            if (not 'revision_id="' in firstline or 
1473
 
                'format="6"' not in firstline):
 
1733
                'format="7"' not in firstline):
1474
1734
                inv = self.branch.repository.deserialise_inventory(
1475
1735
                    new_revision, xml)
1476
 
                inv.revision_id = new_revision
1477
 
                xml = bzrlib.xml6.serializer_v6.write_inventory_to_string(inv)
1478
 
            assert isinstance(xml, str), 'serialised xml must be bytestring.'
1479
 
            path = self._basis_inventory_name()
1480
 
            sio = StringIO(xml)
1481
 
            self._control_files.put(path, sio)
 
1736
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
 
1737
            self._write_basis_inventory(xml)
1482
1738
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1483
1739
            pass
1484
1740
 
1489
1745
        
1490
1746
    @needs_read_lock
1491
1747
    def read_working_inventory(self):
1492
 
        """Read the working inventory."""
 
1748
        """Read the working inventory.
 
1749
        
 
1750
        :raises errors.InventoryModified: read_working_inventory will fail
 
1751
            when the current in memory inventory has been modified.
 
1752
        """
 
1753
        # conceptually this should be an implementation detail of the tree. 
 
1754
        # XXX: Deprecate this.
1493
1755
        # ElementTree does its own conversion from UTF-8, so open in
1494
1756
        # binary.
1495
 
        result = bzrlib.xml5.serializer_v5.read_inventory(
1496
 
            self._control_files.get('inventory'))
1497
 
        self._set_inventory(result)
 
1757
        if self._inventory_is_modified:
 
1758
            raise errors.InventoryModified(self)
 
1759
        result = self._deserialize(self._control_files.get('inventory'))
 
1760
        self._set_inventory(result, dirty=False)
1498
1761
        return result
1499
1762
 
1500
1763
    @needs_tree_write_lock
1501
 
    def remove(self, files, verbose=False, to_file=None):
1502
 
        """Remove nominated files from the working inventory..
1503
 
 
1504
 
        This does not remove their text.  This does not run on XXX on what? RBC
1505
 
 
1506
 
        TODO: Refuse to remove modified files unless --force is given?
1507
 
 
1508
 
        TODO: Do something useful with directories.
1509
 
 
1510
 
        TODO: Should this remove the text or not?  Tough call; not
1511
 
        removing may be useful and the user can just use use rm, and
1512
 
        is the opposite of add.  Removing it is consistent with most
1513
 
        other tools.  Maybe an option.
 
1764
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
 
1765
        force=False):
 
1766
        """Remove nominated files from the working inventor.
 
1767
 
 
1768
        :files: File paths relative to the basedir.
 
1769
        :keep_files: If true, the files will also be kept.
 
1770
        :force: Delete files and directories, even if they are changed and
 
1771
            even if the directories are not empty.
1514
1772
        """
1515
1773
        ## TODO: Normalize names
1516
 
        ## TODO: Remove nested loops; better scalability
 
1774
 
1517
1775
        if isinstance(files, basestring):
1518
1776
            files = [files]
1519
1777
 
1520
 
        inv = self.inventory
 
1778
        inv_delta = []
 
1779
 
 
1780
        new_files=set()
 
1781
        unknown_files_in_directory=set()
 
1782
 
 
1783
        def recurse_directory_to_add_files(directory):
 
1784
            # recurse directory and add all files
 
1785
            # so we can check if they have changed.
 
1786
            for parent_info, file_infos in\
 
1787
                osutils.walkdirs(self.abspath(directory),
 
1788
                    directory):
 
1789
                for relpath, basename, kind, lstat, abspath in file_infos:
 
1790
                    if kind == 'file':
 
1791
                        if self.path2id(relpath): #is it versioned?
 
1792
                            new_files.add(relpath)
 
1793
                        else:
 
1794
                            unknown_files_in_directory.add(
 
1795
                                (relpath, None, kind))
 
1796
 
 
1797
        for filename in files:
 
1798
            # Get file name into canonical form.
 
1799
            abspath = self.abspath(filename)
 
1800
            filename = self.relpath(abspath)
 
1801
            if len(filename) > 0:
 
1802
                new_files.add(filename)
 
1803
                if osutils.isdir(abspath):
 
1804
                    recurse_directory_to_add_files(filename)
 
1805
        files = [f for f in new_files]
 
1806
 
 
1807
        # Sort needed to first handle directory content before the directory
 
1808
        files.sort(reverse=True)
 
1809
        if not keep_files and not force:
 
1810
            tree_delta = self.changes_from(self.basis_tree(),
 
1811
                specific_files=files)
 
1812
            for unknown_file in unknown_files_in_directory:
 
1813
                tree_delta.unversioned.extend((unknown_file,))
 
1814
            if bool(tree_delta.modified
 
1815
                    or tree_delta.added
 
1816
                    or tree_delta.renamed
 
1817
                    or tree_delta.kind_changed
 
1818
                    or tree_delta.unversioned):
 
1819
                raise errors.BzrRemoveChangedFilesError(tree_delta)
1521
1820
 
1522
1821
        # do this before any modifications
1523
1822
        for f in files:
1524
 
            fid = inv.path2id(f)
 
1823
            fid = self.path2id(f)
 
1824
            message=None
1525
1825
            if not fid:
1526
 
                # TODO: Perhaps make this just a warning, and continue?
1527
 
                # This tends to happen when 
1528
 
                raise NotVersionedError(path=f)
1529
 
            if verbose:
1530
 
                # having remove it, it must be either ignored or unknown
1531
 
                if self.is_ignored(f):
1532
 
                    new_status = 'I'
1533
 
                else:
1534
 
                    new_status = '?'
1535
 
                show_status(new_status, inv[fid].kind, f, to_file=to_file)
1536
 
            del inv[fid]
1537
 
 
1538
 
        self._write_inventory(inv)
 
1826
                message="%s is not versioned." % (f,)
 
1827
            else:
 
1828
                if verbose:
 
1829
                    # having removed it, it must be either ignored or unknown
 
1830
                    if self.is_ignored(f):
 
1831
                        new_status = 'I'
 
1832
                    else:
 
1833
                        new_status = '?'
 
1834
                    textui.show_status(new_status, self.kind(fid), f,
 
1835
                                       to_file=to_file)
 
1836
                # unversion file
 
1837
                inv_delta.append((f, None, fid, None))
 
1838
                message="removed %s" % (f,)
 
1839
 
 
1840
            if not keep_files:
 
1841
                abs_path = self.abspath(f)
 
1842
                if osutils.lexists(abs_path):
 
1843
                    if (osutils.isdir(abs_path) and
 
1844
                        len(os.listdir(abs_path)) > 0):
 
1845
                        message="%s is not empty directory "\
 
1846
                            "and won't be deleted." % (f,)
 
1847
                    else:
 
1848
                        osutils.delete_any(abs_path)
 
1849
                        message="deleted %s" % (f,)
 
1850
                elif message is not None:
 
1851
                    # only care if we haven't done anything yet.
 
1852
                    message="%s does not exist." % (f,)
 
1853
 
 
1854
            # print only one message (if any) per file.
 
1855
            if message is not None:
 
1856
                note(message)
 
1857
        self.apply_inventory_delta(inv_delta)
1539
1858
 
1540
1859
    @needs_tree_write_lock
1541
1860
    def revert(self, filenames, old_tree=None, backups=True, 
1542
 
               pb=DummyProgress()):
1543
 
        from transform import revert
1544
 
        from conflicts import resolve
 
1861
               pb=DummyProgress(), report_changes=False):
 
1862
        from bzrlib.conflicts import resolve
1545
1863
        if old_tree is None:
1546
1864
            old_tree = self.basis_tree()
1547
 
        conflicts = revert(self, old_tree, filenames, backups, pb)
 
1865
        conflicts = transform.revert(self, old_tree, filenames, backups, pb,
 
1866
                                     report_changes)
1548
1867
        if not len(filenames):
1549
1868
            self.set_parent_ids(self.get_parent_ids()[:1])
1550
1869
            resolve(self)
1552
1871
            resolve(self, filenames, ignore_misses=True)
1553
1872
        return conflicts
1554
1873
 
 
1874
    def revision_tree(self, revision_id):
 
1875
        """See Tree.revision_tree.
 
1876
 
 
1877
        WorkingTree can supply revision_trees for the basis revision only
 
1878
        because there is only one cached inventory in the bzr directory.
 
1879
        """
 
1880
        if revision_id == self.last_revision():
 
1881
            try:
 
1882
                xml = self.read_basis_inventory()
 
1883
            except errors.NoSuchFile:
 
1884
                pass
 
1885
            else:
 
1886
                try:
 
1887
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
 
1888
                    # dont use the repository revision_tree api because we want
 
1889
                    # to supply the inventory.
 
1890
                    if inv.revision_id == revision_id:
 
1891
                        return revisiontree.RevisionTree(self.branch.repository,
 
1892
                            inv, revision_id)
 
1893
                except errors.BadInventoryFormat:
 
1894
                    pass
 
1895
        # raise if there was no inventory, or if we read the wrong inventory.
 
1896
        raise errors.NoSuchRevisionInTree(self, revision_id)
 
1897
 
1555
1898
    # XXX: This method should be deprecated in favour of taking in a proper
1556
1899
    # new Inventory object.
1557
1900
    @needs_tree_write_lock
1574
1917
            elif kind == 'symlink':
1575
1918
                inv.add(InventoryLink(file_id, name, parent))
1576
1919
            else:
1577
 
                raise BzrError("unknown kind %r" % kind)
 
1920
                raise errors.BzrError("unknown kind %r" % kind)
1578
1921
        self._write_inventory(inv)
1579
1922
 
1580
1923
    @needs_tree_write_lock
1581
1924
    def set_root_id(self, file_id):
1582
1925
        """Set the root id for this tree."""
1583
 
        inv = self.read_working_inventory()
 
1926
        # for compatability 
 
1927
        if file_id is None:
 
1928
            symbol_versioning.warn(symbol_versioning.zero_twelve
 
1929
                % 'WorkingTree.set_root_id with fileid=None',
 
1930
                DeprecationWarning,
 
1931
                stacklevel=3)
 
1932
            file_id = ROOT_ID
 
1933
        else:
 
1934
            file_id = osutils.safe_file_id(file_id)
 
1935
        self._set_root_id(file_id)
 
1936
 
 
1937
    def _set_root_id(self, file_id):
 
1938
        """Set the root id for this tree, in a format specific manner.
 
1939
 
 
1940
        :param file_id: The file id to assign to the root. It must not be 
 
1941
            present in the current inventory or an error will occur. It must
 
1942
            not be None, but rather a valid file id.
 
1943
        """
 
1944
        inv = self._inventory
1584
1945
        orig_root_id = inv.root.file_id
 
1946
        # TODO: it might be nice to exit early if there was nothing
 
1947
        # to do, saving us from trigger a sync on unlock.
 
1948
        self._inventory_is_modified = True
 
1949
        # we preserve the root inventory entry object, but
 
1950
        # unlinkit from the byid index
1585
1951
        del inv._byid[inv.root.file_id]
1586
1952
        inv.root.file_id = file_id
 
1953
        # and link it into the index with the new changed id.
1587
1954
        inv._byid[inv.root.file_id] = inv.root
 
1955
        # and finally update all children to reference the new id.
 
1956
        # XXX: this should be safe to just look at the root.children
 
1957
        # list, not the WHOLE INVENTORY.
1588
1958
        for fid in inv:
1589
1959
            entry = inv[fid]
1590
1960
            if entry.parent_id == orig_root_id:
1591
1961
                entry.parent_id = inv.root.file_id
1592
 
        self._write_inventory(inv)
1593
1962
 
1594
1963
    def unlock(self):
1595
1964
        """See Branch.unlock.
1602
1971
        """
1603
1972
        raise NotImplementedError(self.unlock)
1604
1973
 
1605
 
    @needs_write_lock
1606
1974
    def update(self):
1607
1975
        """Update a working tree along its branch.
1608
1976
 
1609
 
        This will update the branch if its bound too, which means we have multiple trees involved:
1610
 
        The new basis tree of the master.
1611
 
        The old basis tree of the branch.
1612
 
        The old basis tree of the working tree.
1613
 
        The current working tree state.
1614
 
        pathologically all three may be different, and non ancestors of each other.
1615
 
        Conceptually we want to:
1616
 
        Preserve the wt.basis->wt.state changes
1617
 
        Transform the wt.basis to the new master basis.
1618
 
        Apply a merge of the old branch basis to get any 'local' changes from it into the tree.
1619
 
        Restore the wt.basis->wt.state changes.
 
1977
        This will update the branch if its bound too, which means we have
 
1978
        multiple trees involved:
 
1979
 
 
1980
        - The new basis tree of the master.
 
1981
        - The old basis tree of the branch.
 
1982
        - The old basis tree of the working tree.
 
1983
        - The current working tree state.
 
1984
 
 
1985
        Pathologically, all three may be different, and non-ancestors of each
 
1986
        other.  Conceptually we want to:
 
1987
 
 
1988
        - Preserve the wt.basis->wt.state changes
 
1989
        - Transform the wt.basis to the new master basis.
 
1990
        - Apply a merge of the old branch basis to get any 'local' changes from
 
1991
          it into the tree.
 
1992
        - Restore the wt.basis->wt.state changes.
1620
1993
 
1621
1994
        There isn't a single operation at the moment to do that, so we:
1622
 
        Merge current state -> basis tree of the master w.r.t. the old tree basis.
1623
 
        Do a 'normal' merge of the old branch basis if it is relevant.
1624
 
        """
1625
 
        old_tip = self.branch.update()
 
1995
        - Merge current state -> basis tree of the master w.r.t. the old tree
 
1996
          basis.
 
1997
        - Do a 'normal' merge of the old branch basis if it is relevant.
 
1998
        """
 
1999
        if self.branch.get_master_branch() is not None:
 
2000
            self.lock_write()
 
2001
            update_branch = True
 
2002
        else:
 
2003
            self.lock_tree_write()
 
2004
            update_branch = False
 
2005
        try:
 
2006
            if update_branch:
 
2007
                old_tip = self.branch.update()
 
2008
            else:
 
2009
                old_tip = None
 
2010
            return self._update_tree(old_tip)
 
2011
        finally:
 
2012
            self.unlock()
 
2013
 
 
2014
    @needs_tree_write_lock
 
2015
    def _update_tree(self, old_tip=None):
 
2016
        """Update a tree to the master branch.
 
2017
 
 
2018
        :param old_tip: if supplied, the previous tip revision the branch,
 
2019
            before it was changed to the master branch's tip.
 
2020
        """
1626
2021
        # here if old_tip is not None, it is the old tip of the branch before
1627
2022
        # it was updated from the master branch. This should become a pending
1628
2023
        # merge in the working tree to preserve the user existing work.  we
1641
2036
        if last_rev != self.branch.last_revision():
1642
2037
            # merge tree state up to new branch tip.
1643
2038
            basis = self.basis_tree()
1644
 
            to_tree = self.branch.basis_tree()
1645
 
            result += merge_inner(self.branch,
1646
 
                                  to_tree,
1647
 
                                  basis,
1648
 
                                  this_tree=self)
 
2039
            basis.lock_read()
 
2040
            try:
 
2041
                to_tree = self.branch.basis_tree()
 
2042
                if basis.inventory.root is None:
 
2043
                    self.set_root_id(to_tree.inventory.root.file_id)
 
2044
                    self.flush()
 
2045
                result += merge.merge_inner(
 
2046
                                      self.branch,
 
2047
                                      to_tree,
 
2048
                                      basis,
 
2049
                                      this_tree=self)
 
2050
            finally:
 
2051
                basis.unlock()
1649
2052
            # TODO - dedup parents list with things merged by pull ?
1650
2053
            # reuse the tree we've updated to to set the basis:
1651
2054
            parent_trees = [(self.branch.last_revision(), to_tree)]
1674
2077
            # and we have converted that last revision to a pending merge.
1675
2078
            # base is somewhere between the branch tip now
1676
2079
            # and the now pending merge
 
2080
 
 
2081
            # Since we just modified the working tree and inventory, flush out
 
2082
            # the current state, before we modify it again.
 
2083
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
 
2084
            #       requires it only because TreeTransform directly munges the
 
2085
            #       inventory and calls tree._write_inventory(). Ultimately we
 
2086
            #       should be able to remove this extra flush.
 
2087
            self.flush()
1677
2088
            from bzrlib.revision import common_ancestor
1678
2089
            try:
1679
2090
                base_rev_id = common_ancestor(self.branch.last_revision(),
1683
2094
                base_rev_id = None
1684
2095
            base_tree = self.branch.repository.revision_tree(base_rev_id)
1685
2096
            other_tree = self.branch.repository.revision_tree(old_tip)
1686
 
            result += merge_inner(self.branch,
 
2097
            result += merge.merge_inner(
 
2098
                                  self.branch,
1687
2099
                                  other_tree,
1688
2100
                                  base_tree,
1689
2101
                                  this_tree=self)
1690
2102
        return result
1691
2103
 
 
2104
    def _write_hashcache_if_dirty(self):
 
2105
        """Write out the hashcache if it is dirty."""
 
2106
        if self._hashcache.needs_write:
 
2107
            try:
 
2108
                self._hashcache.write()
 
2109
            except OSError, e:
 
2110
                if e.errno not in (errno.EPERM, errno.EACCES):
 
2111
                    raise
 
2112
                # TODO: jam 20061219 Should this be a warning? A single line
 
2113
                #       warning might be sufficient to let the user know what
 
2114
                #       is going on.
 
2115
                mutter('Could not write hashcache for %s\nError: %s',
 
2116
                       self._hashcache.cache_file_name(), e)
 
2117
 
1692
2118
    @needs_tree_write_lock
1693
2119
    def _write_inventory(self, inv):
1694
2120
        """Write inventory as the current inventory."""
1695
 
        sio = StringIO()
1696
 
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
1697
 
        sio.seek(0)
1698
 
        self._control_files.put('inventory', sio)
1699
 
        self._set_inventory(inv)
1700
 
        mutter('wrote working inventory')
 
2121
        self._set_inventory(inv, dirty=True)
 
2122
        self.flush()
1701
2123
 
1702
2124
    def set_conflicts(self, arg):
1703
 
        raise UnsupportedOperation(self.set_conflicts, self)
 
2125
        raise errors.UnsupportedOperation(self.set_conflicts, self)
1704
2126
 
1705
2127
    def add_conflicts(self, arg):
1706
 
        raise UnsupportedOperation(self.add_conflicts, self)
 
2128
        raise errors.UnsupportedOperation(self.add_conflicts, self)
1707
2129
 
1708
2130
    @needs_read_lock
1709
2131
    def conflicts(self):
1710
 
        conflicts = ConflictList()
 
2132
        conflicts = _mod_conflicts.ConflictList()
1711
2133
        for conflicted in self._iter_conflicts():
1712
2134
            text = True
1713
2135
            try:
1726
2148
                    if text == False:
1727
2149
                        break
1728
2150
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
1729
 
            conflicts.append(Conflict.factory(ctype, path=conflicted,
 
2151
            conflicts.append(_mod_conflicts.Conflict.factory(ctype,
 
2152
                             path=conflicted,
1730
2153
                             file_id=self.path2id(conflicted)))
1731
2154
        return conflicts
1732
2155
 
 
2156
    def walkdirs(self, prefix=""):
 
2157
        """Walk the directories of this tree.
 
2158
 
 
2159
        returns a generator which yields items in the form:
 
2160
                ((curren_directory_path, fileid),
 
2161
                 [(file1_path, file1_name, file1_kind, (lstat), file1_id,
 
2162
                   file1_kind), ... ])
 
2163
 
 
2164
        This API returns a generator, which is only valid during the current
 
2165
        tree transaction - within a single lock_read or lock_write duration.
 
2166
 
 
2167
        If the tree is not locked, it may cause an error to be raised,
 
2168
        depending on the tree implementation.
 
2169
        """
 
2170
        disk_top = self.abspath(prefix)
 
2171
        if disk_top.endswith('/'):
 
2172
            disk_top = disk_top[:-1]
 
2173
        top_strip_len = len(disk_top) + 1
 
2174
        inventory_iterator = self._walkdirs(prefix)
 
2175
        disk_iterator = osutils.walkdirs(disk_top, prefix)
 
2176
        try:
 
2177
            current_disk = disk_iterator.next()
 
2178
            disk_finished = False
 
2179
        except OSError, e:
 
2180
            if not (e.errno == errno.ENOENT or
 
2181
                (sys.platform == 'win32' and e.errno == ERROR_PATH_NOT_FOUND)):
 
2182
                raise
 
2183
            current_disk = None
 
2184
            disk_finished = True
 
2185
        try:
 
2186
            current_inv = inventory_iterator.next()
 
2187
            inv_finished = False
 
2188
        except StopIteration:
 
2189
            current_inv = None
 
2190
            inv_finished = True
 
2191
        while not inv_finished or not disk_finished:
 
2192
            if not disk_finished:
 
2193
                # strip out .bzr dirs
 
2194
                if current_disk[0][1][top_strip_len:] == '':
 
2195
                    # osutils.walkdirs can be made nicer - 
 
2196
                    # yield the path-from-prefix rather than the pathjoined
 
2197
                    # value.
 
2198
                    bzrdir_loc = bisect_left(current_disk[1], ('.bzr', '.bzr'))
 
2199
                    if current_disk[1][bzrdir_loc][0] == '.bzr':
 
2200
                        # we dont yield the contents of, or, .bzr itself.
 
2201
                        del current_disk[1][bzrdir_loc]
 
2202
            if inv_finished:
 
2203
                # everything is unknown
 
2204
                direction = 1
 
2205
            elif disk_finished:
 
2206
                # everything is missing
 
2207
                direction = -1
 
2208
            else:
 
2209
                direction = cmp(current_inv[0][0], current_disk[0][0])
 
2210
            if direction > 0:
 
2211
                # disk is before inventory - unknown
 
2212
                dirblock = [(relpath, basename, kind, stat, None, None) for
 
2213
                    relpath, basename, kind, stat, top_path in current_disk[1]]
 
2214
                yield (current_disk[0][0], None), dirblock
 
2215
                try:
 
2216
                    current_disk = disk_iterator.next()
 
2217
                except StopIteration:
 
2218
                    disk_finished = True
 
2219
            elif direction < 0:
 
2220
                # inventory is before disk - missing.
 
2221
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
 
2222
                    for relpath, basename, dkind, stat, fileid, kind in 
 
2223
                    current_inv[1]]
 
2224
                yield (current_inv[0][0], current_inv[0][1]), dirblock
 
2225
                try:
 
2226
                    current_inv = inventory_iterator.next()
 
2227
                except StopIteration:
 
2228
                    inv_finished = True
 
2229
            else:
 
2230
                # versioned present directory
 
2231
                # merge the inventory and disk data together
 
2232
                dirblock = []
 
2233
                for relpath, subiterator in itertools.groupby(sorted(
 
2234
                    current_inv[1] + current_disk[1], key=operator.itemgetter(0)), operator.itemgetter(1)):
 
2235
                    path_elements = list(subiterator)
 
2236
                    if len(path_elements) == 2:
 
2237
                        inv_row, disk_row = path_elements
 
2238
                        # versioned, present file
 
2239
                        dirblock.append((inv_row[0],
 
2240
                            inv_row[1], disk_row[2],
 
2241
                            disk_row[3], inv_row[4],
 
2242
                            inv_row[5]))
 
2243
                    elif len(path_elements[0]) == 5:
 
2244
                        # unknown disk file
 
2245
                        dirblock.append((path_elements[0][0],
 
2246
                            path_elements[0][1], path_elements[0][2],
 
2247
                            path_elements[0][3], None, None))
 
2248
                    elif len(path_elements[0]) == 6:
 
2249
                        # versioned, absent file.
 
2250
                        dirblock.append((path_elements[0][0],
 
2251
                            path_elements[0][1], 'unknown', None,
 
2252
                            path_elements[0][4], path_elements[0][5]))
 
2253
                    else:
 
2254
                        raise NotImplementedError('unreachable code')
 
2255
                yield current_inv[0], dirblock
 
2256
                try:
 
2257
                    current_inv = inventory_iterator.next()
 
2258
                except StopIteration:
 
2259
                    inv_finished = True
 
2260
                try:
 
2261
                    current_disk = disk_iterator.next()
 
2262
                except StopIteration:
 
2263
                    disk_finished = True
 
2264
 
 
2265
    def _walkdirs(self, prefix=""):
 
2266
        """Walk the directories of this tree.
 
2267
 
 
2268
           :prefix: is used as the directrory to start with.
 
2269
           returns a generator which yields items in the form:
 
2270
                ((curren_directory_path, fileid),
 
2271
                 [(file1_path, file1_name, file1_kind, None, file1_id,
 
2272
                   file1_kind), ... ])
 
2273
        """
 
2274
        _directory = 'directory'
 
2275
        # get the root in the inventory
 
2276
        inv = self.inventory
 
2277
        top_id = inv.path2id(prefix)
 
2278
        if top_id is None:
 
2279
            pending = []
 
2280
        else:
 
2281
            pending = [(prefix, '', _directory, None, top_id, None)]
 
2282
        while pending:
 
2283
            dirblock = []
 
2284
            currentdir = pending.pop()
 
2285
            # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-id, 5-kind
 
2286
            top_id = currentdir[4]
 
2287
            if currentdir[0]:
 
2288
                relroot = currentdir[0] + '/'
 
2289
            else:
 
2290
                relroot = ""
 
2291
            # FIXME: stash the node in pending
 
2292
            entry = inv[top_id]
 
2293
            for name, child in entry.sorted_children():
 
2294
                dirblock.append((relroot + name, name, child.kind, None,
 
2295
                    child.file_id, child.kind
 
2296
                    ))
 
2297
            yield (currentdir[0], entry.file_id), dirblock
 
2298
            # push the user specified dirs from dirblock
 
2299
            for dir in reversed(dirblock):
 
2300
                if dir[2] == _directory:
 
2301
                    pending.append(dir)
 
2302
 
 
2303
    @needs_tree_write_lock
 
2304
    def auto_resolve(self):
 
2305
        """Automatically resolve text conflicts according to contents.
 
2306
 
 
2307
        Only text conflicts are auto_resolvable. Files with no conflict markers
 
2308
        are considered 'resolved', because bzr always puts conflict markers
 
2309
        into files that have text conflicts.  The corresponding .THIS .BASE and
 
2310
        .OTHER files are deleted, as per 'resolve'.
 
2311
        :return: a tuple of ConflictLists: (un_resolved, resolved).
 
2312
        """
 
2313
        un_resolved = _mod_conflicts.ConflictList()
 
2314
        resolved = _mod_conflicts.ConflictList()
 
2315
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
 
2316
        for conflict in self.conflicts():
 
2317
            if (conflict.typestring != 'text conflict' or
 
2318
                self.kind(conflict.file_id) != 'file'):
 
2319
                un_resolved.append(conflict)
 
2320
                continue
 
2321
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
 
2322
            try:
 
2323
                for line in my_file:
 
2324
                    if conflict_re.search(line):
 
2325
                        un_resolved.append(conflict)
 
2326
                        break
 
2327
                else:
 
2328
                    resolved.append(conflict)
 
2329
            finally:
 
2330
                my_file.close()
 
2331
        resolved.remove_files(self)
 
2332
        self.set_conflicts(un_resolved)
 
2333
        return un_resolved, resolved
 
2334
 
 
2335
    def _validate(self):
 
2336
        """Validate internal structures.
 
2337
 
 
2338
        This is meant mostly for the test suite. To give it a chance to detect
 
2339
        corruption after actions have occurred. The default implementation is a
 
2340
        just a no-op.
 
2341
 
 
2342
        :return: None. An exception should be raised if there is an error.
 
2343
        """
 
2344
        return
 
2345
 
1733
2346
 
1734
2347
class WorkingTree2(WorkingTree):
1735
2348
    """This is the Format 2 working tree.
1739
2352
     - uses the branch last-revision.
1740
2353
    """
1741
2354
 
 
2355
    def __init__(self, *args, **kwargs):
 
2356
        super(WorkingTree2, self).__init__(*args, **kwargs)
 
2357
        # WorkingTree2 has more of a constraint that self._inventory must
 
2358
        # exist. Because this is an older format, we don't mind the overhead
 
2359
        # caused by the extra computation here.
 
2360
 
 
2361
        # Newer WorkingTree's should only have self._inventory set when they
 
2362
        # have a read lock.
 
2363
        if self._inventory is None:
 
2364
            self.read_working_inventory()
 
2365
 
1742
2366
    def lock_tree_write(self):
1743
2367
        """See WorkingTree.lock_tree_write().
1744
2368
 
1754
2378
 
1755
2379
    def unlock(self):
1756
2380
        # we share control files:
1757
 
        if self._hashcache.needs_write and self._control_files._lock_count==3:
1758
 
            self._hashcache.write()
 
2381
        if self._control_files._lock_count == 3:
 
2382
            # _inventory_is_modified is always False during a read lock.
 
2383
            if self._inventory_is_modified:
 
2384
                self.flush()
 
2385
            self._write_hashcache_if_dirty()
 
2386
                    
1759
2387
        # reverse order of locking.
1760
2388
        try:
1761
2389
            return self._control_files.unlock()
1775
2403
 
1776
2404
    @needs_read_lock
1777
2405
    def _last_revision(self):
1778
 
        """See WorkingTree._last_revision."""
 
2406
        """See Mutable.last_revision."""
1779
2407
        try:
1780
 
            return self._control_files.get_utf8('last-revision').read()
1781
 
        except NoSuchFile:
 
2408
            return osutils.safe_revision_id(
 
2409
                        self._control_files.get('last-revision').read())
 
2410
        except errors.NoSuchFile:
1782
2411
            return None
1783
2412
 
1784
2413
    def _change_last_revision(self, revision_id):
1790
2419
                pass
1791
2420
            return False
1792
2421
        else:
1793
 
            self._control_files.put_utf8('last-revision', revision_id)
 
2422
            self._control_files.put_bytes('last-revision', revision_id)
1794
2423
            return True
1795
2424
 
1796
2425
    @needs_tree_write_lock
1802
2431
    def add_conflicts(self, new_conflicts):
1803
2432
        conflict_set = set(self.conflicts())
1804
2433
        conflict_set.update(set(list(new_conflicts)))
1805
 
        self.set_conflicts(ConflictList(sorted(conflict_set,
1806
 
                                               key=Conflict.sort_key)))
 
2434
        self.set_conflicts(_mod_conflicts.ConflictList(sorted(conflict_set,
 
2435
                                       key=_mod_conflicts.Conflict.sort_key)))
1807
2436
 
1808
2437
    @needs_read_lock
1809
2438
    def conflicts(self):
1810
2439
        try:
1811
2440
            confile = self._control_files.get('conflicts')
1812
 
        except NoSuchFile:
1813
 
            return ConflictList()
 
2441
        except errors.NoSuchFile:
 
2442
            return _mod_conflicts.ConflictList()
1814
2443
        try:
1815
2444
            if confile.next() != CONFLICT_HEADER_1 + '\n':
1816
 
                raise ConflictFormatError()
 
2445
                raise errors.ConflictFormatError()
1817
2446
        except StopIteration:
1818
 
            raise ConflictFormatError()
1819
 
        return ConflictList.from_stanzas(RioReader(confile))
 
2447
            raise errors.ConflictFormatError()
 
2448
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
1820
2449
 
1821
2450
    def unlock(self):
1822
 
        if self._hashcache.needs_write and self._control_files._lock_count==1:
1823
 
            self._hashcache.write()
 
2451
        if self._control_files._lock_count == 1:
 
2452
            # _inventory_is_modified is always False during a read lock.
 
2453
            if self._inventory_is_modified:
 
2454
                self.flush()
 
2455
            self._write_hashcache_if_dirty()
1824
2456
        # reverse order of locking.
1825
2457
        try:
1826
2458
            return self._control_files.unlock()
1829
2461
 
1830
2462
 
1831
2463
def get_conflicted_stem(path):
1832
 
    for suffix in CONFLICT_SUFFIXES:
 
2464
    for suffix in _mod_conflicts.CONFLICT_SUFFIXES:
1833
2465
        if path.endswith(suffix):
1834
2466
            return path[:-len(suffix)]
1835
2467
 
 
2468
 
1836
2469
@deprecated_function(zero_eight)
1837
2470
def is_control_file(filename):
1838
2471
    """See WorkingTree.is_control_filename(filename)."""
1873
2506
    _formats = {}
1874
2507
    """The known formats."""
1875
2508
 
 
2509
    requires_rich_root = False
 
2510
 
 
2511
    upgrade_recommended = False
 
2512
 
1876
2513
    @classmethod
1877
2514
    def find_format(klass, a_bzrdir):
1878
2515
        """Return the format for the working tree object in a_bzrdir."""
1880
2517
            transport = a_bzrdir.get_workingtree_transport(None)
1881
2518
            format_string = transport.get("format").read()
1882
2519
            return klass._formats[format_string]
1883
 
        except NoSuchFile:
 
2520
        except errors.NoSuchFile:
1884
2521
            raise errors.NoWorkingTree(base=transport.base)
1885
2522
        except KeyError:
1886
2523
            raise errors.UnknownFormatError(format=format_string)
1887
2524
 
 
2525
    def __eq__(self, other):
 
2526
        return self.__class__ is other.__class__
 
2527
 
 
2528
    def __ne__(self, other):
 
2529
        return not (self == other)
 
2530
 
1888
2531
    @classmethod
1889
2532
    def get_default_format(klass):
1890
2533
        """Return the current default format."""
1921
2564
        del klass._formats[format.get_format_string()]
1922
2565
 
1923
2566
 
1924
 
 
1925
2567
class WorkingTreeFormat2(WorkingTreeFormat):
1926
2568
    """The second working tree format. 
1927
2569
 
1928
2570
    This format modified the hash cache from the format 1 hash cache.
1929
2571
    """
1930
2572
 
 
2573
    upgrade_recommended = True
 
2574
 
1931
2575
    def get_format_description(self):
1932
2576
        """See WorkingTreeFormat.get_format_description()."""
1933
2577
        return "Working tree format 2"
1941
2585
        """
1942
2586
        sio = StringIO()
1943
2587
        inv = Inventory()
1944
 
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
 
2588
        xml5.serializer_v5.write_inventory(inv, sio)
1945
2589
        sio.seek(0)
1946
2590
        control_files.put('inventory', sio)
1947
2591
 
1948
 
        control_files.put_utf8('pending-merges', '')
 
2592
        control_files.put_bytes('pending-merges', '')
1949
2593
        
1950
2594
 
1951
2595
    def initialize(self, a_bzrdir, revision_id=None):
1954
2598
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1955
2599
        branch = a_bzrdir.open_branch()
1956
2600
        if revision_id is not None:
 
2601
            revision_id = osutils.safe_revision_id(revision_id)
1957
2602
            branch.lock_write()
1958
2603
            try:
1959
2604
                revision_history = branch.revision_history()
1972
2617
                         _internal=True,
1973
2618
                         _format=self,
1974
2619
                         _bzrdir=a_bzrdir)
1975
 
        wt._write_inventory(inv)
1976
 
        wt.set_root_id(inv.root.file_id)
1977
2620
        basis_tree = branch.repository.revision_tree(revision)
 
2621
        if basis_tree.inventory.root is not None:
 
2622
            wt.set_root_id(basis_tree.inventory.root.file_id)
 
2623
        # set the parent list and cache the basis tree.
1978
2624
        wt.set_parent_trees([(revision, basis_tree)])
1979
 
        build_tree(basis_tree, wt)
 
2625
        transform.build_tree(basis_tree, wt)
1980
2626
        return wt
1981
2627
 
1982
2628
    def __init__(self):
1994
2640
            raise NotImplementedError
1995
2641
        if not isinstance(a_bzrdir.transport, LocalTransport):
1996
2642
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1997
 
        return WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
 
2643
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1998
2644
                           _internal=True,
1999
2645
                           _format=self,
2000
2646
                           _bzrdir=a_bzrdir)
2001
 
 
 
2647
        return wt
2002
2648
 
2003
2649
class WorkingTreeFormat3(WorkingTreeFormat):
2004
2650
    """The second working tree format updated to record a format marker.
2011
2657
        - is new in bzr 0.8
2012
2658
        - uses a LockDir to guard access for writes.
2013
2659
    """
 
2660
    
 
2661
    upgrade_recommended = True
2014
2662
 
2015
2663
    def get_format_string(self):
2016
2664
        """See WorkingTreeFormat.get_format_string()."""
2023
2671
    _lock_file_name = 'lock'
2024
2672
    _lock_class = LockDir
2025
2673
 
 
2674
    _tree_class = WorkingTree3
 
2675
 
 
2676
    def __get_matchingbzrdir(self):
 
2677
        return bzrdir.BzrDirMetaFormat1()
 
2678
 
 
2679
    _matchingbzrdir = property(__get_matchingbzrdir)
 
2680
 
2026
2681
    def _open_control_files(self, a_bzrdir):
2027
2682
        transport = a_bzrdir.get_workingtree_transport(None)
2028
2683
        return LockableFiles(transport, self._lock_file_name, 
2044
2699
        branch = a_bzrdir.open_branch()
2045
2700
        if revision_id is None:
2046
2701
            revision_id = branch.last_revision()
2047
 
        inv = Inventory() 
2048
 
        wt = WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
 
2702
        else:
 
2703
            revision_id = osutils.safe_revision_id(revision_id)
 
2704
        # WorkingTree3 can handle an inventory which has a unique root id.
 
2705
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
 
2706
        # those trees. And because there isn't a format bump inbetween, we
 
2707
        # are maintaining compatibility with older clients.
 
2708
        # inv = Inventory(root_id=gen_root_id())
 
2709
        inv = self._initial_inventory()
 
2710
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
2049
2711
                         branch,
2050
2712
                         inv,
2051
2713
                         _internal=True,
2054
2716
                         _control_files=control_files)
2055
2717
        wt.lock_tree_write()
2056
2718
        try:
2057
 
            wt._write_inventory(inv)
2058
 
            wt.set_root_id(inv.root.file_id)
2059
2719
            basis_tree = branch.repository.revision_tree(revision_id)
2060
 
            if revision_id == bzrlib.revision.NULL_REVISION:
 
2720
            # only set an explicit root id if there is one to set.
 
2721
            if basis_tree.inventory.root is not None:
 
2722
                wt.set_root_id(basis_tree.inventory.root.file_id)
 
2723
            if revision_id == NULL_REVISION:
2061
2724
                wt.set_parent_trees([])
2062
2725
            else:
2063
2726
                wt.set_parent_trees([(revision_id, basis_tree)])
2064
 
            build_tree(basis_tree, wt)
 
2727
            transform.build_tree(basis_tree, wt)
2065
2728
        finally:
 
2729
            # Unlock in this order so that the unlock-triggers-flush in
 
2730
            # WorkingTree is given a chance to fire.
 
2731
            control_files.unlock()
2066
2732
            wt.unlock()
2067
 
            control_files.unlock()
2068
2733
        return wt
2069
2734
 
 
2735
    def _initial_inventory(self):
 
2736
        return Inventory()
 
2737
 
2070
2738
    def __init__(self):
2071
2739
        super(WorkingTreeFormat3, self).__init__()
2072
 
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
2073
2740
 
2074
2741
    def open(self, a_bzrdir, _found=False):
2075
2742
        """Return the WorkingTree object for a_bzrdir
2082
2749
            raise NotImplementedError
2083
2750
        if not isinstance(a_bzrdir.transport, LocalTransport):
2084
2751
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2085
 
        return self._open(a_bzrdir, self._open_control_files(a_bzrdir))
 
2752
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
 
2753
        return wt
2086
2754
 
2087
2755
    def _open(self, a_bzrdir, control_files):
2088
2756
        """Open the tree itself.
2090
2758
        :param a_bzrdir: the dir for the tree.
2091
2759
        :param control_files: the control files for the tree.
2092
2760
        """
2093
 
        return WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
2094
 
                           _internal=True,
2095
 
                           _format=self,
2096
 
                           _bzrdir=a_bzrdir,
2097
 
                           _control_files=control_files)
 
2761
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
2762
                                _internal=True,
 
2763
                                _format=self,
 
2764
                                _bzrdir=a_bzrdir,
 
2765
                                _control_files=control_files)
2098
2766
 
2099
2767
    def __str__(self):
2100
2768
        return self.get_format_string()
2101
2769
 
2102
2770
 
 
2771
__default_format = WorkingTreeFormat4()
 
2772
WorkingTreeFormat.register_format(__default_format)
 
2773
WorkingTreeFormat.register_format(WorkingTreeFormat3())
 
2774
WorkingTreeFormat.set_default_format(__default_format)
2103
2775
# formats which have no format string are not discoverable
2104
2776
# and not independently creatable, so are not registered.
2105
 
__default_format = WorkingTreeFormat3()
2106
 
WorkingTreeFormat.register_format(__default_format)
2107
 
WorkingTreeFormat.set_default_format(__default_format)
2108
2777
_legacy_formats = [WorkingTreeFormat2(),
2109
2778
                   ]
2110
2779