/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: John Arbash Meinel
  • Date: 2006-09-20 14:51:03 UTC
  • mfrom: (0.8.23 version_info)
  • mto: This revision was merged to the branch mainline in revision 2028.
  • Revision ID: john@arbash-meinel.com-20060920145103-02725c6d6c886040
[merge] version-info plugin, and cleanup for layout in bzr

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2005, 2006 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
 
32
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
 
33
CONFLICT_HEADER_1 = "BZR conflict list format 1"
 
34
 
32
35
# TODO: Give the workingtree sole responsibility for the working inventory;
33
36
# remove the variable and references to it from the branch.  This may require
34
37
# updating the commit code so as to update the inventory within the working
36
39
# At the moment they may alias the inventory and have old copies of it in
37
40
# memory.  (Now done? -- mbp 20060309)
38
41
 
39
 
from cStringIO import StringIO
40
 
import os
41
 
 
42
 
from bzrlib.lazy_import import lazy_import
43
 
lazy_import(globals(), """
44
 
from bisect import bisect_left
 
42
from binascii import hexlify
45
43
import collections
46
44
from copy import deepcopy
 
45
from cStringIO import StringIO
47
46
import errno
48
 
import itertools
49
 
import operator
 
47
import fnmatch
 
48
import os
 
49
import re
50
50
import stat
51
51
from time import time
52
52
import warnings
53
 
import re
54
53
 
55
54
import bzrlib
56
 
from bzrlib import (
57
 
    branch,
58
 
    bzrdir,
59
 
    conflicts as _mod_conflicts,
60
 
    dirstate,
61
 
    errors,
62
 
    generate_ids,
63
 
    globbing,
64
 
    hashcache,
65
 
    ignores,
66
 
    merge,
67
 
    osutils,
68
 
    revisiontree,
69
 
    repository,
70
 
    textui,
71
 
    trace,
72
 
    transform,
73
 
    ui,
74
 
    urlutils,
75
 
    xml5,
76
 
    xml6,
77
 
    xml7,
78
 
    )
 
55
from bzrlib import bzrdir, errors, ignores, osutils, urlutils
 
56
from bzrlib.atomicfile import AtomicFile
79
57
import bzrlib.branch
80
 
from bzrlib.transport import get_transport
81
 
import bzrlib.ui
82
 
from bzrlib.workingtree_4 import WorkingTreeFormat4
83
 
""")
84
 
 
85
 
from bzrlib import symbol_versioning
 
58
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
86
59
from bzrlib.decorators import needs_read_lock, needs_write_lock
87
 
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
 
60
from bzrlib.errors import (BzrCheckError,
 
61
                           BzrError,
 
62
                           ConflictFormatError,
 
63
                           WeaveRevisionNotPresent,
 
64
                           NotBranchError,
 
65
                           NoSuchFile,
 
66
                           NotVersionedError,
 
67
                           MergeModifiedFormatError,
 
68
                           UnsupportedOperation,
 
69
                           )
 
70
from bzrlib.inventory import InventoryEntry, Inventory
88
71
from bzrlib.lockable_files import LockableFiles, TransportLock
89
72
from bzrlib.lockdir import LockDir
 
73
from bzrlib.merge import merge_inner, transform_tree
90
74
import bzrlib.mutabletree
91
75
from bzrlib.mutabletree import needs_tree_write_lock
92
76
from bzrlib.osutils import (
93
 
    compact_date,
94
 
    file_kind,
95
 
    isdir,
96
 
    normpath,
97
 
    pathjoin,
98
 
    rand_chars,
99
 
    realpath,
100
 
    safe_unicode,
101
 
    splitpath,
102
 
    supports_executable,
103
 
    )
104
 
from bzrlib.trace import mutter, note
105
 
from bzrlib.transport.local import LocalTransport
 
77
                            abspath,
 
78
                            compact_date,
 
79
                            file_kind,
 
80
                            isdir,
 
81
                            getcwd,
 
82
                            pathjoin,
 
83
                            pumpfile,
 
84
                            safe_unicode,
 
85
                            splitpath,
 
86
                            rand_chars,
 
87
                            normpath,
 
88
                            realpath,
 
89
                            relpath,
 
90
                            rename,
 
91
                            supports_executable,
 
92
                            )
106
93
from bzrlib.progress import DummyProgress, ProgressPhase
107
 
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
 
94
from bzrlib.revision import NULL_REVISION
 
95
import bzrlib.revisiontree
108
96
from bzrlib.rio import RioReader, rio_file, Stanza
109
97
from bzrlib.symbol_versioning import (deprecated_passed,
110
98
        deprecated_method,
112
100
        DEPRECATED_PARAMETER,
113
101
        zero_eight,
114
102
        zero_eleven,
115
 
        zero_thirteen,
116
103
        )
117
 
 
118
 
 
119
 
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
120
 
CONFLICT_HEADER_1 = "BZR conflict list format 1"
121
 
 
122
 
 
123
 
@deprecated_function(zero_thirteen)
 
104
from bzrlib.trace import mutter, note
 
105
from bzrlib.transform import build_tree
 
106
from bzrlib.transport import get_transport
 
107
from bzrlib.transport.local import LocalTransport
 
108
from bzrlib.textui import show_status
 
109
import bzrlib.ui
 
110
import bzrlib.xml5
 
111
 
 
112
 
 
113
# the regex removes any weird characters; we don't escape them 
 
114
# but rather just pull them out
 
115
_gen_file_id_re = re.compile(r'[^\w.]')
 
116
_gen_id_suffix = None
 
117
_gen_id_serial = 0
 
118
 
 
119
 
 
120
def _next_id_suffix():
 
121
    """Create a new file id suffix that is reasonably unique.
 
122
    
 
123
    On the first call we combine the current time with 64 bits of randomness
 
124
    to give a highly probably globally unique number. Then each call in the same
 
125
    process adds 1 to a serial number we append to that unique value.
 
126
    """
 
127
    # XXX TODO: change bzrlib.add.smart_add to call workingtree.add() rather 
 
128
    # than having to move the id randomness out of the inner loop like this.
 
129
    # XXX TODO: for the global randomness this uses we should add the thread-id
 
130
    # before the serial #.
 
131
    global _gen_id_suffix, _gen_id_serial
 
132
    if _gen_id_suffix is None:
 
133
        _gen_id_suffix = "-%s-%s-" % (compact_date(time()), rand_chars(16))
 
134
    _gen_id_serial += 1
 
135
    return _gen_id_suffix + str(_gen_id_serial)
 
136
 
 
137
 
124
138
def gen_file_id(name):
125
139
    """Return new file id for the basename 'name'.
126
140
 
127
 
    Use bzrlib.generate_ids.gen_file_id() instead
 
141
    The uniqueness is supplied from _next_id_suffix.
128
142
    """
129
 
    return generate_ids.gen_file_id(name)
130
 
 
131
 
 
132
 
@deprecated_function(zero_thirteen)
 
143
    # The real randomness is in the _next_id_suffix, the
 
144
    # rest of the identifier is just to be nice.
 
145
    # So we:
 
146
    # 1) Remove non-ascii word characters to keep the ids portable
 
147
    # 2) squash to lowercase, so the file id doesn't have to
 
148
    #    be escaped (case insensitive filesystems would bork for ids
 
149
    #    that only differred in case without escaping).
 
150
    # 3) truncate the filename to 20 chars. Long filenames also bork on some
 
151
    #    filesystems
 
152
    # 4) Removing starting '.' characters to prevent the file ids from
 
153
    #    being considered hidden.
 
154
    ascii_word_only = _gen_file_id_re.sub('', name.lower())
 
155
    short_no_dots = ascii_word_only.lstrip('.')[:20]
 
156
    return short_no_dots + _next_id_suffix()
 
157
 
 
158
 
133
159
def gen_root_id():
134
 
    """Return a new tree-root file id.
135
 
 
136
 
    This has been deprecated in favor of bzrlib.generate_ids.gen_root_id()
137
 
    """
138
 
    return generate_ids.gen_root_id()
 
160
    """Return a new tree-root file id."""
 
161
    return gen_file_id('TREE_ROOT')
139
162
 
140
163
 
141
164
class TreeEntry(object):
210
233
                 _internal=False,
211
234
                 _format=None,
212
235
                 _bzrdir=None):
213
 
        """Construct a WorkingTree instance. This is not a public API.
 
236
        """Construct a WorkingTree for basedir.
214
237
 
215
 
        :param branch: A branch to override probing for the branch.
 
238
        If the branch is not supplied, it is opened automatically.
 
239
        If the branch is supplied, it must be the branch for this basedir.
 
240
        (branch.base is not cross checked, because for remote branches that
 
241
        would be meaningless).
216
242
        """
217
243
        self._format = _format
218
244
        self.bzrdir = _bzrdir
219
245
        if not _internal:
220
 
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
221
 
                "WorkingTree.open() to obtain a WorkingTree.")
 
246
            # not created via open etc.
 
247
            warnings.warn("WorkingTree() is deprecated as of bzr version 0.8. "
 
248
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
 
249
                 DeprecationWarning,
 
250
                 stacklevel=2)
 
251
            wt = WorkingTree.open(basedir)
 
252
            self._branch = wt.branch
 
253
            self.basedir = wt.basedir
 
254
            self._control_files = wt._control_files
 
255
            self._hashcache = wt._hashcache
 
256
            self._set_inventory(wt._inventory)
 
257
            self._format = wt._format
 
258
            self.bzrdir = wt.bzrdir
 
259
        from bzrlib.hashcache import HashCache
 
260
        from bzrlib.trace import note, mutter
222
261
        assert isinstance(basedir, basestring), \
223
262
            "base directory %r is not a string" % basedir
224
263
        basedir = safe_unicode(basedir)
225
264
        mutter("opening working tree %r", basedir)
226
265
        if deprecated_passed(branch):
 
266
            if not _internal:
 
267
                warnings.warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
 
268
                     " Please use bzrdir.open_workingtree() or"
 
269
                     " WorkingTree.open().",
 
270
                     DeprecationWarning,
 
271
                     stacklevel=2
 
272
                     )
227
273
            self._branch = branch
228
274
        else:
229
275
            self._branch = self.bzrdir.open_branch()
244
290
        # if needed, or, when the cache sees a change, append it to the hash
245
291
        # cache file, and have the parser take the most recent entry for a
246
292
        # given path only.
247
 
        wt_trans = self.bzrdir.get_workingtree_transport(None)
248
 
        cache_filename = wt_trans.local_abspath('stat-cache')
249
 
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
250
 
                                              self._control_files._file_mode)
251
 
        hc = self._hashcache
 
293
        cache_filename = self.bzrdir.get_workingtree_transport(None).local_abspath('stat-cache')
 
294
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
252
295
        hc.read()
253
296
        # is this scan needed ? it makes things kinda slow.
254
297
        #hc.scan()
258
301
            hc.write()
259
302
 
260
303
        if _inventory is None:
261
 
            # This will be acquired on lock_read() or lock_write()
262
 
            self._inventory_is_modified = False
263
 
            self._inventory = None
 
304
            self._set_inventory(self.read_working_inventory())
264
305
        else:
265
 
            # the caller of __init__ has provided an inventory,
266
 
            # we assume they know what they are doing - as its only
267
 
            # the Format factory and creation methods that are
268
 
            # permitted to do this.
269
 
            self._set_inventory(_inventory, dirty=False)
 
306
            self._set_inventory(_inventory)
270
307
 
271
308
    branch = property(
272
309
        fget=lambda self: self._branch,
287
324
        self._control_files.break_lock()
288
325
        self.branch.break_lock()
289
326
 
290
 
    def requires_rich_root(self):
291
 
        return self._format.requires_rich_root
292
 
 
293
 
    def supports_tree_reference(self):
294
 
        return False
295
 
 
296
 
    def _set_inventory(self, inv, dirty):
297
 
        """Set the internal cached inventory.
298
 
 
299
 
        :param inv: The inventory to set.
300
 
        :param dirty: A boolean indicating whether the inventory is the same
301
 
            logical inventory as whats on disk. If True the inventory is not
302
 
            the same and should be written to disk or data will be lost, if
303
 
            False then the inventory is the same as that on disk and any
304
 
            serialisation would be unneeded overhead.
305
 
        """
 
327
    def _set_inventory(self, inv):
306
328
        assert inv.root is not None
307
329
        self._inventory = inv
308
 
        self._inventory_is_modified = dirty
309
330
 
310
331
    @staticmethod
311
332
    def open(path=None, _unsupported=False):
344
365
        """
345
366
        return WorkingTree.open(path, _unsupported=True)
346
367
 
347
 
    # should be deprecated - this is slow and in any case treating them as a
348
 
    # container is (we now know) bad style -- mbp 20070302
349
 
    ## @deprecated_method(zero_fifteen)
350
368
    def __iter__(self):
351
369
        """Iterate through file_ids for this tree.
352
370
 
378
396
            # in the future this should return the tree for
379
397
            # 'empty:' - the implicit root empty tree.
380
398
            return self.branch.repository.revision_tree(None)
381
 
        try:
382
 
            return self.revision_tree(revision_id)
383
 
        except errors.NoSuchRevision:
384
 
            pass
 
399
        else:
 
400
            try:
 
401
                xml = self.read_basis_inventory()
 
402
                inv = bzrlib.xml6.serializer_v6.read_inventory_from_string(xml)
 
403
                if inv is not None and inv.revision_id == revision_id:
 
404
                    return bzrlib.tree.RevisionTree(self.branch.repository, 
 
405
                                                    inv, revision_id)
 
406
            except (NoSuchFile, errors.BadInventoryFormat):
 
407
                pass
385
408
        # No cached copy available, retrieve from the repository.
386
409
        # FIXME? RBC 20060403 should we cache the inventory locally
387
410
        # at this point ?
440
463
        The path may be absolute or relative. If its a relative path it is 
441
464
        interpreted relative to the python current working directory.
442
465
        """
443
 
        return osutils.relpath(self.basedir, path)
 
466
        return relpath(self.basedir, path)
444
467
 
445
468
    def has_filename(self, filename):
446
469
        return osutils.lexists(self.abspath(filename))
447
470
 
448
471
    def get_file(self, file_id):
449
 
        file_id = osutils.safe_file_id(file_id)
450
472
        return self.get_file_byname(self.id2path(file_id))
451
473
 
452
474
    def get_file_text(self, file_id):
453
 
        file_id = osutils.safe_file_id(file_id)
454
475
        return self.get_file(file_id).read()
455
476
 
456
477
    def get_file_byname(self, filename):
457
478
        return file(self.abspath(filename), 'rb')
458
479
 
459
 
    @needs_read_lock
460
 
    def annotate_iter(self, file_id):
461
 
        """See Tree.annotate_iter
462
 
 
463
 
        This implementation will use the basis tree implementation if possible.
464
 
        Lines not in the basis are attributed to CURRENT_REVISION
465
 
 
466
 
        If there are pending merges, lines added by those merges will be
467
 
        incorrectly attributed to CURRENT_REVISION (but after committing, the
468
 
        attribution will be correct).
469
 
        """
470
 
        file_id = osutils.safe_file_id(file_id)
471
 
        basis = self.basis_tree()
472
 
        basis.lock_read()
473
 
        try:
474
 
            changes = self._iter_changes(basis, True, [self.id2path(file_id)],
475
 
                require_versioned=True).next()
476
 
            changed_content, kind = changes[2], changes[6]
477
 
            if not changed_content:
478
 
                return basis.annotate_iter(file_id)
479
 
            if kind[1] is None:
480
 
                return None
481
 
            import annotate
482
 
            if kind[0] != 'file':
483
 
                old_lines = []
484
 
            else:
485
 
                old_lines = list(basis.annotate_iter(file_id))
486
 
            old = [old_lines]
487
 
            for tree in self.branch.repository.revision_trees(
488
 
                self.get_parent_ids()[1:]):
489
 
                if file_id not in tree:
490
 
                    continue
491
 
                old.append(list(tree.annotate_iter(file_id)))
492
 
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
493
 
                                       CURRENT_REVISION)
494
 
        finally:
495
 
            basis.unlock()
496
 
 
497
480
    def get_parent_ids(self):
498
481
        """See Tree.get_parent_ids.
499
482
        
506
489
        else:
507
490
            parents = [last_rev]
508
491
        try:
509
 
            merges_file = self._control_files.get('pending-merges')
510
 
        except errors.NoSuchFile:
 
492
            merges_file = self._control_files.get_utf8('pending-merges')
 
493
        except NoSuchFile:
511
494
            pass
512
495
        else:
513
496
            for l in merges_file.readlines():
514
 
                revision_id = osutils.safe_revision_id(l.rstrip('\n'))
515
 
                parents.append(revision_id)
 
497
                parents.append(l.rstrip('\n'))
516
498
        return parents
517
499
 
518
 
    @needs_read_lock
519
500
    def get_root_id(self):
520
501
        """Return the id of this trees root"""
521
 
        return self._inventory.root.file_id
 
502
        inv = self.read_working_inventory()
 
503
        return inv.root.file_id
522
504
        
523
505
    def _get_store_filename(self, file_id):
524
506
        ## XXX: badly named; this is not in the store at all
525
 
        file_id = osutils.safe_file_id(file_id)
526
507
        return self.abspath(self.id2path(file_id))
527
508
 
528
509
    @needs_read_lock
529
 
    def clone(self, to_bzrdir, revision_id=None):
 
510
    def clone(self, to_bzrdir, revision_id=None, basis=None):
530
511
        """Duplicate this working tree into to_bzr, including all state.
531
512
        
532
513
        Specifically modified files are kept as modified, but
538
519
            If not None, the cloned tree will have its last revision set to 
539
520
            revision, and and difference between the source trees last revision
540
521
            and this one merged in.
 
522
 
 
523
        basis
 
524
            If not None, a closer copy of a tree which may have some files in
 
525
            common, and which file content should be preferentially copied from.
541
526
        """
542
527
        # assumes the target bzr dir format is compatible.
543
528
        result = self._format.initialize(to_bzrdir)
547
532
    @needs_read_lock
548
533
    def copy_content_into(self, tree, revision_id=None):
549
534
        """Copy the current content and user files of this tree into tree."""
550
 
        tree.set_root_id(self.get_root_id())
551
535
        if revision_id is None:
552
 
            merge.transform_tree(tree, self)
 
536
            transform_tree(tree, self)
553
537
        else:
554
538
            # TODO now merge from tree.last_revision to revision (to preserve
555
539
            # user local changes)
556
 
            merge.transform_tree(tree, self)
 
540
            transform_tree(tree, self)
557
541
            tree.set_parent_ids([revision_id])
558
542
 
559
543
    def id2abspath(self, file_id):
560
 
        file_id = osutils.safe_file_id(file_id)
561
544
        return self.abspath(self.id2path(file_id))
562
545
 
563
546
    def has_id(self, file_id):
564
547
        # files that have been deleted are excluded
565
 
        file_id = osutils.safe_file_id(file_id)
566
 
        inv = self.inventory
 
548
        inv = self._inventory
567
549
        if not inv.has_id(file_id):
568
550
            return False
569
551
        path = inv.id2path(file_id)
570
552
        return osutils.lexists(self.abspath(path))
571
553
 
572
554
    def has_or_had_id(self, file_id):
573
 
        file_id = osutils.safe_file_id(file_id)
574
555
        if file_id == self.inventory.root.file_id:
575
556
            return True
576
557
        return self.inventory.has_id(file_id)
578
559
    __contains__ = has_id
579
560
 
580
561
    def get_file_size(self, file_id):
581
 
        file_id = osutils.safe_file_id(file_id)
582
562
        return os.path.getsize(self.id2abspath(file_id))
583
563
 
584
564
    @needs_read_lock
585
 
    def get_file_sha1(self, file_id, path=None, stat_value=None):
586
 
        file_id = osutils.safe_file_id(file_id)
 
565
    def get_file_sha1(self, file_id, path=None):
587
566
        if not path:
588
567
            path = self._inventory.id2path(file_id)
589
 
        return self._hashcache.get_sha1(path, stat_value)
 
568
        return self._hashcache.get_sha1(path)
590
569
 
591
570
    def get_file_mtime(self, file_id, path=None):
592
 
        file_id = osutils.safe_file_id(file_id)
593
571
        if not path:
594
 
            path = self.inventory.id2path(file_id)
 
572
            path = self._inventory.id2path(file_id)
595
573
        return os.lstat(self.abspath(path)).st_mtime
596
574
 
597
575
    if not supports_executable():
598
576
        def is_executable(self, file_id, path=None):
599
 
            file_id = osutils.safe_file_id(file_id)
600
577
            return self._inventory[file_id].executable
601
578
    else:
602
579
        def is_executable(self, file_id, path=None):
603
580
            if not path:
604
 
                file_id = osutils.safe_file_id(file_id)
605
 
                path = self.id2path(file_id)
 
581
                path = self._inventory.id2path(file_id)
606
582
            mode = os.lstat(self.abspath(path)).st_mode
607
583
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
608
584
 
609
 
    @needs_tree_write_lock
 
585
    @needs_write_lock
610
586
    def _add(self, files, ids, kinds):
611
587
        """See MutableTree._add."""
612
588
        # TODO: Re-adding a file that is removed in the working copy
619
595
            if file_id is None:
620
596
                inv.add_path(f, kind=kind)
621
597
            else:
622
 
                file_id = osutils.safe_file_id(file_id)
623
598
                inv.add_path(f, kind=kind, file_id=file_id)
624
599
        self._write_inventory(inv)
625
600
 
633
608
                    kinds[pos] = file_kind(fullpath)
634
609
                except OSError, e:
635
610
                    if e.errno == errno.ENOENT:
636
 
                        raise errors.NoSuchFile(fullpath)
 
611
                        raise NoSuchFile(fullpath)
637
612
 
638
613
    @needs_write_lock
639
614
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
648
623
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
649
624
        """
650
625
        parents = self.get_parent_ids() + [revision_id]
651
 
        self.set_parent_ids(parents, allow_leftmost_as_ghost=len(parents) > 1
652
 
            or allow_leftmost_as_ghost)
 
626
        self.set_parent_ids(parents,
 
627
            allow_leftmost_as_ghost=len(parents) > 1 or allow_leftmost_as_ghost)
653
628
 
654
629
    @needs_tree_write_lock
655
630
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
700
675
        """
701
676
        return self.get_parent_ids()[1:]
702
677
 
703
 
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
704
 
        """Common ghost checking functionality from set_parent_*.
705
 
 
706
 
        This checks that the left hand-parent exists if there are any
707
 
        revisions present.
708
 
        """
709
 
        if len(revision_ids) > 0:
710
 
            leftmost_id = revision_ids[0]
711
 
            if (not allow_leftmost_as_ghost and not
712
 
                self.branch.repository.has_revision(leftmost_id)):
713
 
                raise errors.GhostRevisionUnusableHere(leftmost_id)
714
 
 
715
 
    def _set_merges_from_parent_ids(self, parent_ids):
716
 
        merges = parent_ids[1:]
717
 
        self._control_files.put_bytes('pending-merges', '\n'.join(merges))
718
 
 
719
678
    @needs_tree_write_lock
720
679
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
721
680
        """Set the parent ids to revision_ids.
729
688
        :param revision_ids: The revision_ids to set as the parent ids of this
730
689
            working tree. Any of these may be ghosts.
731
690
        """
732
 
        revision_ids = [osutils.safe_revision_id(r) for r in revision_ids]
733
 
        self._check_parents_for_ghosts(revision_ids,
734
 
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
735
 
 
736
691
        if len(revision_ids) > 0:
737
 
            self.set_last_revision(revision_ids[0])
 
692
            leftmost_id = revision_ids[0]
 
693
            if (not allow_leftmost_as_ghost and not
 
694
                self.branch.repository.has_revision(leftmost_id)):
 
695
                raise errors.GhostRevisionUnusableHere(leftmost_id)
 
696
            self.set_last_revision(leftmost_id)
738
697
        else:
739
698
            self.set_last_revision(None)
740
 
 
741
 
        self._set_merges_from_parent_ids(revision_ids)
 
699
        merges = revision_ids[1:]
 
700
        self._control_files.put_utf8('pending-merges', '\n'.join(merges))
742
701
 
743
702
    @needs_tree_write_lock
744
703
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
745
704
        """See MutableTree.set_parent_trees."""
746
 
        parent_ids = [osutils.safe_revision_id(rev) for (rev, tree) in parents_list]
747
 
 
748
 
        self._check_parents_for_ghosts(parent_ids,
 
705
        # parent trees are not used in current format trees, delegate to
 
706
        # set_parent_ids
 
707
        self.set_parent_ids([rev for (rev, tree) in parents_list],
749
708
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
750
709
 
751
 
        if len(parent_ids) == 0:
752
 
            leftmost_parent_id = None
753
 
            leftmost_parent_tree = None
754
 
        else:
755
 
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
756
 
 
757
 
        if self._change_last_revision(leftmost_parent_id):
758
 
            if leftmost_parent_tree is None:
759
 
                # If we don't have a tree, fall back to reading the
760
 
                # parent tree from the repository.
761
 
                self._cache_basis_inventory(leftmost_parent_id)
762
 
            else:
763
 
                inv = leftmost_parent_tree.inventory
764
 
                xml = self._create_basis_xml_from_inventory(
765
 
                                        leftmost_parent_id, inv)
766
 
                self._write_basis_inventory(xml)
767
 
        self._set_merges_from_parent_ids(parent_ids)
768
 
 
769
710
    @needs_tree_write_lock
770
711
    def set_pending_merges(self, rev_list):
771
712
        parents = self.get_parent_ids()
777
718
    def set_merge_modified(self, modified_hashes):
778
719
        def iter_stanzas():
779
720
            for file_id, hash in modified_hashes.iteritems():
780
 
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
 
721
                yield Stanza(file_id=file_id, hash=hash)
781
722
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
782
723
 
 
724
    @needs_tree_write_lock
783
725
    def _put_rio(self, filename, stanzas, header):
784
 
        self._must_be_locked()
785
726
        my_file = rio_file(stanzas, header)
786
727
        self._control_files.put(filename, my_file)
787
728
 
790
731
        """Merge from a branch into this working tree.
791
732
 
792
733
        :param branch: The branch to merge from.
793
 
        :param to_revision: If non-None, the merge will merge to to_revision,
794
 
            but not beyond it. to_revision does not need to be in the history
795
 
            of the branch when it is supplied. If None, to_revision defaults to
 
734
        :param to_revision: If non-None, the merge will merge to to_revision, but 
 
735
            not beyond it. to_revision does not need to be in the history of
 
736
            the branch when it is supplied. If None, to_revision defaults to
796
737
            branch.last_revision().
797
738
        """
798
739
        from bzrlib.merge import Merger, Merge3Merger
806
747
            merger.check_basis(check_clean=True, require_commits=False)
807
748
            if to_revision is None:
808
749
                to_revision = branch.last_revision()
809
 
            else:
810
 
                to_revision = osutils.safe_revision_id(to_revision)
811
750
            merger.other_rev_id = to_revision
812
751
            if merger.other_rev_id is None:
813
752
                raise error.NoCommits(branch)
815
754
            merger.other_basis = merger.other_rev_id
816
755
            merger.other_tree = self.branch.repository.revision_tree(
817
756
                merger.other_rev_id)
818
 
            merger.other_branch = branch
819
757
            merger.pp.next_phase()
820
758
            merger.find_base()
821
759
            if merger.base_rev_id == merger.other_rev_id:
833
771
 
834
772
    @needs_read_lock
835
773
    def merge_modified(self):
836
 
        """Return a dictionary of files modified by a merge.
837
 
 
838
 
        The list is initialized by WorkingTree.set_merge_modified, which is 
839
 
        typically called after we make some automatic updates to the tree
840
 
        because of a merge.
841
 
 
842
 
        This returns a map of file_id->sha1, containing only files which are
843
 
        still in the working inventory and have that text hash.
844
 
        """
845
774
        try:
846
775
            hashfile = self._control_files.get('merge-hashes')
847
 
        except errors.NoSuchFile:
 
776
        except NoSuchFile:
848
777
            return {}
849
778
        merge_hashes = {}
850
779
        try:
851
780
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
852
 
                raise errors.MergeModifiedFormatError()
 
781
                raise MergeModifiedFormatError()
853
782
        except StopIteration:
854
 
            raise errors.MergeModifiedFormatError()
 
783
            raise MergeModifiedFormatError()
855
784
        for s in RioReader(hashfile):
856
 
            # RioReader reads in Unicode, so convert file_ids back to utf8
857
 
            file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
 
785
            file_id = s.get("file_id")
858
786
            if file_id not in self.inventory:
859
787
                continue
860
 
            text_hash = s.get("hash")
861
 
            if text_hash == self.get_file_sha1(file_id):
862
 
                merge_hashes[file_id] = text_hash
 
788
            hash = s.get("hash")
 
789
            if hash == self.get_file_sha1(file_id):
 
790
                merge_hashes[file_id] = hash
863
791
        return merge_hashes
864
792
 
865
793
    @needs_write_lock
866
794
    def mkdir(self, path, file_id=None):
867
795
        """See MutableTree.mkdir()."""
868
796
        if file_id is None:
869
 
            file_id = generate_ids.gen_file_id(os.path.basename(path))
 
797
            file_id = gen_file_id(os.path.basename(path))
870
798
        os.mkdir(self.abspath(path))
871
799
        self.add(path, file_id, 'directory')
872
800
        return file_id
873
801
 
874
802
    def get_symlink_target(self, file_id):
875
 
        file_id = osutils.safe_file_id(file_id)
876
803
        return os.readlink(self.id2abspath(file_id))
877
804
 
878
 
    @needs_write_lock
879
 
    def subsume(self, other_tree):
880
 
        def add_children(inventory, entry):
881
 
            for child_entry in entry.children.values():
882
 
                inventory._byid[child_entry.file_id] = child_entry
883
 
                if child_entry.kind == 'directory':
884
 
                    add_children(inventory, child_entry)
885
 
        if other_tree.get_root_id() == self.get_root_id():
886
 
            raise errors.BadSubsumeSource(self, other_tree,
887
 
                                          'Trees have the same root')
888
 
        try:
889
 
            other_tree_path = self.relpath(other_tree.basedir)
890
 
        except errors.PathNotChild:
891
 
            raise errors.BadSubsumeSource(self, other_tree,
892
 
                'Tree is not contained by the other')
893
 
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
894
 
        if new_root_parent is None:
895
 
            raise errors.BadSubsumeSource(self, other_tree,
896
 
                'Parent directory is not versioned.')
897
 
        # We need to ensure that the result of a fetch will have a
898
 
        # versionedfile for the other_tree root, and only fetching into
899
 
        # RepositoryKnit2 guarantees that.
900
 
        if not self.branch.repository.supports_rich_root():
901
 
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
902
 
        other_tree.lock_tree_write()
903
 
        try:
904
 
            new_parents = other_tree.get_parent_ids()
905
 
            other_root = other_tree.inventory.root
906
 
            other_root.parent_id = new_root_parent
907
 
            other_root.name = osutils.basename(other_tree_path)
908
 
            self.inventory.add(other_root)
909
 
            add_children(self.inventory, other_root)
910
 
            self._write_inventory(self.inventory)
911
 
            # normally we don't want to fetch whole repositories, but i think
912
 
            # here we really do want to consolidate the whole thing.
913
 
            for parent_id in other_tree.get_parent_ids():
914
 
                self.branch.fetch(other_tree.branch, parent_id)
915
 
                self.add_parent_tree_id(parent_id)
916
 
        finally:
917
 
            other_tree.unlock()
918
 
        other_tree.bzrdir.retire_bzrdir()
919
 
 
920
 
    @needs_tree_write_lock
921
 
    def extract(self, file_id, format=None):
922
 
        """Extract a subtree from this tree.
923
 
        
924
 
        A new branch will be created, relative to the path for this tree.
925
 
        """
926
 
        self.flush()
927
 
        def mkdirs(path):
928
 
            segments = osutils.splitpath(path)
929
 
            transport = self.branch.bzrdir.root_transport
930
 
            for name in segments:
931
 
                transport = transport.clone(name)
932
 
                try:
933
 
                    transport.mkdir('.')
934
 
                except errors.FileExists:
935
 
                    pass
936
 
            return transport
937
 
            
938
 
        sub_path = self.id2path(file_id)
939
 
        branch_transport = mkdirs(sub_path)
940
 
        if format is None:
941
 
            format = bzrdir.format_registry.make_bzrdir('dirstate-with-subtree')
942
 
        try:
943
 
            branch_transport.mkdir('.')
944
 
        except errors.FileExists:
945
 
            pass
946
 
        branch_bzrdir = format.initialize_on_transport(branch_transport)
947
 
        try:
948
 
            repo = branch_bzrdir.find_repository()
949
 
        except errors.NoRepositoryPresent:
950
 
            repo = branch_bzrdir.create_repository()
951
 
            assert repo.supports_rich_root()
952
 
        else:
953
 
            if not repo.supports_rich_root():
954
 
                raise errors.RootNotRich()
955
 
        new_branch = branch_bzrdir.create_branch()
956
 
        new_branch.pull(self.branch)
957
 
        for parent_id in self.get_parent_ids():
958
 
            new_branch.fetch(self.branch, parent_id)
959
 
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
960
 
        if tree_transport.base != branch_transport.base:
961
 
            tree_bzrdir = format.initialize_on_transport(tree_transport)
962
 
            branch.BranchReferenceFormat().initialize(tree_bzrdir, new_branch)
963
 
        else:
964
 
            tree_bzrdir = branch_bzrdir
965
 
        wt = tree_bzrdir.create_workingtree(NULL_REVISION)
966
 
        wt.set_parent_ids(self.get_parent_ids())
967
 
        my_inv = self.inventory
968
 
        child_inv = Inventory(root_id=None)
969
 
        new_root = my_inv[file_id]
970
 
        my_inv.remove_recursive_id(file_id)
971
 
        new_root.parent_id = None
972
 
        child_inv.add(new_root)
973
 
        self._write_inventory(my_inv)
974
 
        wt._write_inventory(child_inv)
975
 
        return wt
976
 
 
977
 
    def _serialize(self, inventory, out_file):
978
 
        xml5.serializer_v5.write_inventory(self._inventory, out_file)
979
 
 
980
 
    def _deserialize(selt, in_file):
981
 
        return xml5.serializer_v5.read_inventory(in_file)
982
 
 
983
 
    def flush(self):
984
 
        """Write the in memory inventory to disk."""
985
 
        # TODO: Maybe this should only write on dirty ?
986
 
        if self._control_files._lock_mode != 'w':
987
 
            raise errors.NotWriteLocked(self)
988
 
        sio = StringIO()
989
 
        self._serialize(self._inventory, sio)
990
 
        sio.seek(0)
991
 
        self._control_files.put('inventory', sio)
992
 
        self._inventory_is_modified = False
993
 
 
994
 
    def _kind(self, relpath):
995
 
        return osutils.file_kind(self.abspath(relpath))
996
 
 
997
 
    def list_files(self, include_root=False):
 
805
    def file_class(self, filename):
 
806
        if self.path2id(filename):
 
807
            return 'V'
 
808
        elif self.is_ignored(filename):
 
809
            return 'I'
 
810
        else:
 
811
            return '?'
 
812
 
 
813
    def list_files(self):
998
814
        """Recursively list all files as (path, class, kind, id, entry).
999
815
 
1000
816
        Lists, but does not descend into unversioned directories.
1004
820
 
1005
821
        Skips the control directory.
1006
822
        """
1007
 
        # list_files is an iterator, so @needs_read_lock doesn't work properly
1008
 
        # with it. So callers should be careful to always read_lock the tree.
1009
 
        if not self.is_locked():
1010
 
            raise errors.ObjectNotLocked(self)
1011
 
 
1012
 
        inv = self.inventory
1013
 
        if include_root is True:
1014
 
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
 
823
        inv = self._inventory
1015
824
        # Convert these into local objects to save lookup times
1016
825
        pathjoin = osutils.pathjoin
1017
 
        file_kind = self._kind
 
826
        file_kind = osutils.file_kind
1018
827
 
1019
828
        # transport.base ends in a slash, we want the piece
1020
829
        # between the last two slashes
1080
889
 
1081
890
                fk = file_kind(fap)
1082
891
 
 
892
                if f_ie:
 
893
                    if f_ie.kind != fk:
 
894
                        raise BzrCheckError("file %r entered as kind %r id %r, "
 
895
                                            "now of kind %r"
 
896
                                            % (fap, f_ie.kind, f_ie.file_id, fk))
 
897
 
1083
898
                # make a last minute entry
1084
899
                if f_ie:
1085
900
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
1098
913
                new_children.sort()
1099
914
                new_children = collections.deque(new_children)
1100
915
                stack.append((f_ie.file_id, fp, fap, new_children))
1101
 
                # Break out of inner loop,
1102
 
                # so that we start outer loop with child
 
916
                # Break out of inner loop, so that we start outer loop with child
1103
917
                break
1104
918
            else:
1105
919
                # if we finished all children, pop it off the stack
1106
920
                stack.pop()
1107
921
 
1108
922
    @needs_tree_write_lock
1109
 
    def move(self, from_paths, to_dir=None, after=False, **kwargs):
 
923
    def move(self, from_paths, to_name):
1110
924
        """Rename files.
1111
925
 
1112
 
        to_dir must exist in the inventory.
 
926
        to_name must exist in the inventory.
1113
927
 
1114
 
        If to_dir exists and is a directory, the files are moved into
 
928
        If to_name exists and is a directory, the files are moved into
1115
929
        it, keeping their old names.  
1116
930
 
1117
 
        Note that to_dir is only the last component of the new name;
 
931
        Note that to_name is only the last component of the new name;
1118
932
        this doesn't change the directory.
1119
933
 
1120
 
        For each entry in from_paths the move mode will be determined
1121
 
        independently.
1122
 
 
1123
 
        The first mode moves the file in the filesystem and updates the
1124
 
        inventory. The second mode only updates the inventory without
1125
 
        touching the file on the filesystem. This is the new mode introduced
1126
 
        in version 0.15.
1127
 
 
1128
 
        move uses the second mode if 'after == True' and the target is not
1129
 
        versioned but present in the working tree.
1130
 
 
1131
 
        move uses the second mode if 'after == False' and the source is
1132
 
        versioned but no longer in the working tree, and the target is not
1133
 
        versioned but present in the working tree.
1134
 
 
1135
 
        move uses the first mode if 'after == False' and the source is
1136
 
        versioned and present in the working tree, and the target is not
1137
 
        versioned and not present in the working tree.
1138
 
 
1139
 
        Everything else results in an error.
1140
 
 
1141
934
        This returns a list of (from_path, to_path) pairs for each
1142
935
        entry that is moved.
1143
936
        """
1144
 
        rename_entries = []
1145
 
        rename_tuples = []
1146
 
 
1147
 
        # check for deprecated use of signature
1148
 
        if to_dir is None:
1149
 
            to_dir = kwargs.get('to_name', None)
1150
 
            if to_dir is None:
1151
 
                raise TypeError('You must supply a target directory')
1152
 
            else:
1153
 
                symbol_versioning.warn('The parameter to_name was deprecated'
1154
 
                                       ' in version 0.13. Use to_dir instead',
1155
 
                                       DeprecationWarning)
1156
 
 
1157
 
        # check destination directory
 
937
        result = []
 
938
        ## TODO: Option to move IDs only
1158
939
        assert not isinstance(from_paths, basestring)
1159
940
        inv = self.inventory
1160
 
        to_abs = self.abspath(to_dir)
 
941
        to_abs = self.abspath(to_name)
1161
942
        if not isdir(to_abs):
1162
 
            raise errors.BzrMoveFailedError('',to_dir,
1163
 
                errors.NotADirectory(to_abs))
1164
 
        if not self.has_filename(to_dir):
1165
 
            raise errors.BzrMoveFailedError('',to_dir,
1166
 
                errors.NotInWorkingDirectory(to_dir))
1167
 
        to_dir_id = inv.path2id(to_dir)
1168
 
        if to_dir_id is None:
1169
 
            raise errors.BzrMoveFailedError('',to_dir,
1170
 
                errors.NotVersionedError(path=str(to_dir)))
1171
 
 
 
943
            raise BzrError("destination %r is not a directory" % to_abs)
 
944
        if not self.has_filename(to_name):
 
945
            raise BzrError("destination %r not in working directory" % to_abs)
 
946
        to_dir_id = inv.path2id(to_name)
 
947
        if to_dir_id is None and to_name != '':
 
948
            raise BzrError("destination %r is not a versioned directory" % to_name)
1172
949
        to_dir_ie = inv[to_dir_id]
1173
950
        if to_dir_ie.kind != 'directory':
1174
 
            raise errors.BzrMoveFailedError('',to_dir,
1175
 
                errors.NotADirectory(to_abs))
1176
 
 
1177
 
        # create rename entries and tuples
1178
 
        for from_rel in from_paths:
1179
 
            from_tail = splitpath(from_rel)[-1]
1180
 
            from_id = inv.path2id(from_rel)
1181
 
            if from_id is None:
1182
 
                raise errors.BzrMoveFailedError(from_rel,to_dir,
1183
 
                    errors.NotVersionedError(path=str(from_rel)))
1184
 
 
1185
 
            from_entry = inv[from_id]
1186
 
            from_parent_id = from_entry.parent_id
1187
 
            to_rel = pathjoin(to_dir, from_tail)
1188
 
            rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
1189
 
                                         from_id=from_id,
1190
 
                                         from_tail=from_tail,
1191
 
                                         from_parent_id=from_parent_id,
1192
 
                                         to_rel=to_rel, to_tail=from_tail,
1193
 
                                         to_parent_id=to_dir_id)
1194
 
            rename_entries.append(rename_entry)
1195
 
            rename_tuples.append((from_rel, to_rel))
1196
 
 
1197
 
        # determine which move mode to use. checks also for movability
1198
 
        rename_entries = self._determine_mv_mode(rename_entries, after)
1199
 
 
1200
 
        original_modified = self._inventory_is_modified
 
951
            raise BzrError("destination %r is not a directory" % to_abs)
 
952
 
 
953
        to_idpath = inv.get_idpath(to_dir_id)
 
954
 
 
955
        for f in from_paths:
 
956
            if not self.has_filename(f):
 
957
                raise BzrError("%r does not exist in working tree" % f)
 
958
            f_id = inv.path2id(f)
 
959
            if f_id is None:
 
960
                raise BzrError("%r is not versioned" % f)
 
961
            name_tail = splitpath(f)[-1]
 
962
            dest_path = pathjoin(to_name, name_tail)
 
963
            if self.has_filename(dest_path):
 
964
                raise BzrError("destination %r already exists" % dest_path)
 
965
            if f_id in to_idpath:
 
966
                raise BzrError("can't move %r to a subdirectory of itself" % f)
 
967
 
 
968
        # OK, so there's a race here, it's possible that someone will
 
969
        # create a file in this interval and then the rename might be
 
970
        # left half-done.  But we should have caught most problems.
 
971
        orig_inv = deepcopy(self.inventory)
1201
972
        try:
1202
 
            if len(from_paths):
1203
 
                self._inventory_is_modified = True
1204
 
            self._move(rename_entries)
 
973
            for f in from_paths:
 
974
                name_tail = splitpath(f)[-1]
 
975
                dest_path = pathjoin(to_name, name_tail)
 
976
                result.append((f, dest_path))
 
977
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
 
978
                try:
 
979
                    rename(self.abspath(f), self.abspath(dest_path))
 
980
                except OSError, e:
 
981
                    raise BzrError("failed to rename %r to %r: %s" %
 
982
                                   (f, dest_path, e[1]),
 
983
                            ["rename rolled back"])
1205
984
        except:
1206
985
            # restore the inventory on error
1207
 
            self._inventory_is_modified = original_modified
 
986
            self._set_inventory(orig_inv)
1208
987
            raise
1209
988
        self._write_inventory(inv)
1210
 
        return rename_tuples
1211
 
 
1212
 
    def _determine_mv_mode(self, rename_entries, after=False):
1213
 
        """Determines for each from-to pair if both inventory and working tree
1214
 
        or only the inventory has to be changed.
1215
 
 
1216
 
        Also does basic plausability tests.
1217
 
        """
1218
 
        inv = self.inventory
1219
 
 
1220
 
        for rename_entry in rename_entries:
1221
 
            # store to local variables for easier reference
1222
 
            from_rel = rename_entry.from_rel
1223
 
            from_id = rename_entry.from_id
1224
 
            to_rel = rename_entry.to_rel
1225
 
            to_id = inv.path2id(to_rel)
1226
 
            only_change_inv = False
1227
 
 
1228
 
            # check the inventory for source and destination
1229
 
            if from_id is None:
1230
 
                raise errors.BzrMoveFailedError(from_rel,to_rel,
1231
 
                    errors.NotVersionedError(path=str(from_rel)))
1232
 
            if to_id is not None:
1233
 
                raise errors.BzrMoveFailedError(from_rel,to_rel,
1234
 
                    errors.AlreadyVersionedError(path=str(to_rel)))
1235
 
 
1236
 
            # try to determine the mode for rename (only change inv or change
1237
 
            # inv and file system)
1238
 
            if after:
1239
 
                if not self.has_filename(to_rel):
1240
 
                    raise errors.BzrMoveFailedError(from_id,to_rel,
1241
 
                        errors.NoSuchFile(path=str(to_rel),
1242
 
                        extra="New file has not been created yet"))
1243
 
                only_change_inv = True
1244
 
            elif not self.has_filename(from_rel) and self.has_filename(to_rel):
1245
 
                only_change_inv = True
1246
 
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
1247
 
                only_change_inv = False
1248
 
            else:
1249
 
                # something is wrong, so lets determine what exactly
1250
 
                if not self.has_filename(from_rel) and \
1251
 
                   not self.has_filename(to_rel):
1252
 
                    raise errors.BzrRenameFailedError(from_rel,to_rel,
1253
 
                        errors.PathsDoNotExist(paths=(str(from_rel),
1254
 
                        str(to_rel))))
1255
 
                else:
1256
 
                    raise errors.RenameFailedFilesExist(from_rel, to_rel,
1257
 
                        extra="(Use --after to update the Bazaar id)")
1258
 
            rename_entry.only_change_inv = only_change_inv
1259
 
        return rename_entries
1260
 
 
1261
 
    def _move(self, rename_entries):
1262
 
        """Moves a list of files.
1263
 
 
1264
 
        Depending on the value of the flag 'only_change_inv', the
1265
 
        file will be moved on the file system or not.
1266
 
        """
1267
 
        inv = self.inventory
1268
 
        moved = []
1269
 
 
1270
 
        for entry in rename_entries:
1271
 
            try:
1272
 
                self._move_entry(entry)
1273
 
            except:
1274
 
                self._rollback_move(moved)
1275
 
                raise
1276
 
            moved.append(entry)
1277
 
 
1278
 
    def _rollback_move(self, moved):
1279
 
        """Try to rollback a previous move in case of an filesystem error."""
1280
 
        inv = self.inventory
1281
 
        for entry in moved:
1282
 
            try:
1283
 
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
1284
 
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
1285
 
                    entry.from_tail, entry.from_parent_id,
1286
 
                    entry.only_change_inv))
1287
 
            except errors.BzrMoveFailedError, e:
1288
 
                raise errors.BzrMoveFailedError( '', '', "Rollback failed."
1289
 
                        " The working tree is in an inconsistent state."
1290
 
                        " Please consider doing a 'bzr revert'."
1291
 
                        " Error message is: %s" % e)
1292
 
 
1293
 
    def _move_entry(self, entry):
1294
 
        inv = self.inventory
1295
 
        from_rel_abs = self.abspath(entry.from_rel)
1296
 
        to_rel_abs = self.abspath(entry.to_rel)
1297
 
        if from_rel_abs == to_rel_abs:
1298
 
            raise errors.BzrMoveFailedError(entry.from_rel, entry.to_rel,
1299
 
                "Source and target are identical.")
1300
 
 
1301
 
        if not entry.only_change_inv:
1302
 
            try:
1303
 
                osutils.rename(from_rel_abs, to_rel_abs)
1304
 
            except OSError, e:
1305
 
                raise errors.BzrMoveFailedError(entry.from_rel,
1306
 
                    entry.to_rel, e[1])
1307
 
        inv.rename(entry.from_id, entry.to_parent_id, entry.to_tail)
 
989
        return result
1308
990
 
1309
991
    @needs_tree_write_lock
1310
 
    def rename_one(self, from_rel, to_rel, after=False):
 
992
    def rename_one(self, from_rel, to_rel):
1311
993
        """Rename one file.
1312
994
 
1313
995
        This can change the directory or the filename or both.
1314
 
 
1315
 
        rename_one has several 'modes' to work. First, it can rename a physical
1316
 
        file and change the file_id. That is the normal mode. Second, it can
1317
 
        only change the file_id without touching any physical file. This is
1318
 
        the new mode introduced in version 0.15.
1319
 
 
1320
 
        rename_one uses the second mode if 'after == True' and 'to_rel' is not
1321
 
        versioned but present in the working tree.
1322
 
 
1323
 
        rename_one uses the second mode if 'after == False' and 'from_rel' is
1324
 
        versioned but no longer in the working tree, and 'to_rel' is not
1325
 
        versioned but present in the working tree.
1326
 
 
1327
 
        rename_one uses the first mode if 'after == False' and 'from_rel' is
1328
 
        versioned and present in the working tree, and 'to_rel' is not
1329
 
        versioned and not present in the working tree.
1330
 
 
1331
 
        Everything else results in an error.
1332
996
        """
1333
997
        inv = self.inventory
1334
 
        rename_entries = []
1335
 
 
1336
 
        # create rename entries and tuples
1337
 
        from_tail = splitpath(from_rel)[-1]
1338
 
        from_id = inv.path2id(from_rel)
1339
 
        if from_id is None:
1340
 
            raise errors.BzrRenameFailedError(from_rel,to_rel,
1341
 
                errors.NotVersionedError(path=str(from_rel)))
1342
 
        from_entry = inv[from_id]
1343
 
        from_parent_id = from_entry.parent_id
 
998
        if not self.has_filename(from_rel):
 
999
            raise BzrError("can't rename: old working file %r does not exist" % from_rel)
 
1000
        if self.has_filename(to_rel):
 
1001
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
 
1002
 
 
1003
        file_id = inv.path2id(from_rel)
 
1004
        if file_id is None:
 
1005
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
 
1006
 
 
1007
        entry = inv[file_id]
 
1008
        from_parent = entry.parent_id
 
1009
        from_name = entry.name
 
1010
        
 
1011
        if inv.path2id(to_rel):
 
1012
            raise BzrError("can't rename: new name %r is already versioned" % to_rel)
 
1013
 
1344
1014
        to_dir, to_tail = os.path.split(to_rel)
1345
1015
        to_dir_id = inv.path2id(to_dir)
1346
 
        rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
1347
 
                                     from_id=from_id,
1348
 
                                     from_tail=from_tail,
1349
 
                                     from_parent_id=from_parent_id,
1350
 
                                     to_rel=to_rel, to_tail=to_tail,
1351
 
                                     to_parent_id=to_dir_id)
1352
 
        rename_entries.append(rename_entry)
1353
 
 
1354
 
        # determine which move mode to use. checks also for movability
1355
 
        rename_entries = self._determine_mv_mode(rename_entries, after)
1356
 
 
1357
 
        # check if the target changed directory and if the target directory is
1358
 
        # versioned
1359
 
        if to_dir_id is None:
1360
 
            raise errors.BzrMoveFailedError(from_rel,to_rel,
1361
 
                errors.NotVersionedError(path=str(to_dir)))
1362
 
 
1363
 
        # all checks done. now we can continue with our actual work
1364
 
        mutter('rename_one:\n'
1365
 
               '  from_id   {%s}\n'
1366
 
               '  from_rel: %r\n'
1367
 
               '  to_rel:   %r\n'
1368
 
               '  to_dir    %r\n'
1369
 
               '  to_dir_id {%s}\n',
1370
 
               from_id, from_rel, to_rel, to_dir, to_dir_id)
1371
 
 
1372
 
        self._move(rename_entries)
 
1016
        if to_dir_id is None and to_dir != '':
 
1017
            raise BzrError("can't determine destination directory id for %r" % to_dir)
 
1018
 
 
1019
        mutter("rename_one:")
 
1020
        mutter("  file_id    {%s}" % file_id)
 
1021
        mutter("  from_rel   %r" % from_rel)
 
1022
        mutter("  to_rel     %r" % to_rel)
 
1023
        mutter("  to_dir     %r" % to_dir)
 
1024
        mutter("  to_dir_id  {%s}" % to_dir_id)
 
1025
 
 
1026
        inv.rename(file_id, to_dir_id, to_tail)
 
1027
 
 
1028
        from_abs = self.abspath(from_rel)
 
1029
        to_abs = self.abspath(to_rel)
 
1030
        try:
 
1031
            rename(from_abs, to_abs)
 
1032
        except OSError, e:
 
1033
            inv.rename(file_id, from_parent, from_name)
 
1034
            raise BzrError("failed to rename %r to %r: %s"
 
1035
                    % (from_abs, to_abs, e[1]),
 
1036
                    ["rename rolled back"])
1373
1037
        self._write_inventory(inv)
1374
1038
 
1375
 
    class _RenameEntry(object):
1376
 
        def __init__(self, from_rel, from_id, from_tail, from_parent_id,
1377
 
                     to_rel, to_tail, to_parent_id, only_change_inv=False):
1378
 
            self.from_rel = from_rel
1379
 
            self.from_id = from_id
1380
 
            self.from_tail = from_tail
1381
 
            self.from_parent_id = from_parent_id
1382
 
            self.to_rel = to_rel
1383
 
            self.to_tail = to_tail
1384
 
            self.to_parent_id = to_parent_id
1385
 
            self.only_change_inv = only_change_inv
1386
 
 
1387
1039
    @needs_read_lock
1388
1040
    def unknowns(self):
1389
1041
        """Return all unknown files.
1391
1043
        These are files in the working directory that are not versioned or
1392
1044
        control files or ignored.
1393
1045
        """
1394
 
        # force the extras method to be fully executed before returning, to 
1395
 
        # prevent race conditions with the lock
1396
 
        return iter(
1397
 
            [subp for subp in self.extras() if not self.is_ignored(subp)])
1398
 
 
 
1046
        for subp in self.extras():
 
1047
            if not self.is_ignored(subp):
 
1048
                yield subp
 
1049
    
1399
1050
    @needs_tree_write_lock
1400
1051
    def unversion(self, file_ids):
1401
1052
        """Remove the file ids in file_ids from the current versioned set.
1407
1058
        :raises: NoSuchId if any fileid is not currently versioned.
1408
1059
        """
1409
1060
        for file_id in file_ids:
1410
 
            file_id = osutils.safe_file_id(file_id)
1411
1061
            if self._inventory.has_id(file_id):
1412
1062
                self._inventory.remove_recursive_id(file_id)
1413
1063
            else:
1441
1091
                yield stem
1442
1092
 
1443
1093
    @needs_write_lock
1444
 
    def pull(self, source, overwrite=False, stop_revision=None,
1445
 
             change_reporter=None):
 
1094
    def pull(self, source, overwrite=False, stop_revision=None):
1446
1095
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
1447
1096
        source.lock_read()
1448
1097
        try:
1449
1098
            pp = ProgressPhase("Pull phase", 2, top_pb)
1450
1099
            pp.next_phase()
1451
 
            old_revision_info = self.branch.last_revision_info()
 
1100
            old_revision_history = self.branch.revision_history()
1452
1101
            basis_tree = self.basis_tree()
1453
1102
            count = self.branch.pull(source, overwrite, stop_revision)
1454
 
            new_revision_info = self.branch.last_revision_info()
1455
 
            if new_revision_info != old_revision_info:
 
1103
            new_revision_history = self.branch.revision_history()
 
1104
            if new_revision_history != old_revision_history:
1456
1105
                pp.next_phase()
 
1106
                if len(old_revision_history):
 
1107
                    other_revision = old_revision_history[-1]
 
1108
                else:
 
1109
                    other_revision = None
1457
1110
                repository = self.branch.repository
1458
1111
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
1459
 
                basis_tree.lock_read()
1460
1112
                try:
1461
1113
                    new_basis_tree = self.branch.basis_tree()
1462
 
                    merge.merge_inner(
1463
 
                                self.branch,
 
1114
                    merge_inner(self.branch,
1464
1115
                                new_basis_tree,
1465
1116
                                basis_tree,
1466
1117
                                this_tree=self,
1467
 
                                pb=pb,
1468
 
                                change_reporter=change_reporter)
1469
 
                    if (basis_tree.inventory.root is None and
1470
 
                        new_basis_tree.inventory.root is not None):
1471
 
                        self.set_root_id(new_basis_tree.inventory.root.file_id)
 
1118
                                pb=pb)
1472
1119
                finally:
1473
1120
                    pb.finished()
1474
 
                    basis_tree.unlock()
1475
1121
                # TODO - dedup parents list with things merged by pull ?
1476
1122
                # reuse the revisiontree we merged against to set the new
1477
1123
                # tree data.
1479
1125
                # we have to pull the merge trees out again, because 
1480
1126
                # merge_inner has set the ids. - this corner is not yet 
1481
1127
                # layered well enough to prevent double handling.
1482
 
                # XXX TODO: Fix the double handling: telling the tree about
1483
 
                # the already known parent data is wasteful.
1484
1128
                merges = self.get_parent_ids()[1:]
1485
1129
                parent_trees.extend([
1486
1130
                    (parent, repository.revision_tree(parent)) for
1494
1138
    @needs_write_lock
1495
1139
    def put_file_bytes_non_atomic(self, file_id, bytes):
1496
1140
        """See MutableTree.put_file_bytes_non_atomic."""
1497
 
        file_id = osutils.safe_file_id(file_id)
1498
1141
        stream = file(self.id2abspath(file_id), 'wb')
1499
1142
        try:
1500
1143
            stream.write(bytes)
1503
1146
        # TODO: update the hashcache here ?
1504
1147
 
1505
1148
    def extras(self):
1506
 
        """Yield all unversioned files in this WorkingTree.
 
1149
        """Yield all unknown files in this WorkingTree.
1507
1150
 
1508
 
        If there are any unversioned directories then only the directory is
1509
 
        returned, not all its children.  But if there are unversioned files
 
1151
        If there are any unknown directories then only the directory is
 
1152
        returned, not all its children.  But if there are unknown files
1510
1153
        under a versioned subdirectory, they are returned.
1511
1154
 
1512
1155
        Currently returned depth-first, sorted by name within directories.
1513
 
        This is the same order used by 'osutils.walkdirs'.
1514
1156
        """
1515
1157
        ## TODO: Work from given directory downwards
1516
1158
        for path, dir_entry in self.inventory.directories():
1537
1179
                subp = pathjoin(path, subf)
1538
1180
                yield subp
1539
1181
 
 
1182
    def _translate_ignore_rule(self, rule):
 
1183
        """Translate a single ignore rule to a regex.
 
1184
 
 
1185
        There are two types of ignore rules.  Those that do not contain a / are
 
1186
        matched against the tail of the filename (that is, they do not care
 
1187
        what directory the file is in.)  Rules which do contain a slash must
 
1188
        match the entire path.  As a special case, './' at the start of the
 
1189
        string counts as a slash in the string but is removed before matching
 
1190
        (e.g. ./foo.c, ./src/foo.c)
 
1191
 
 
1192
        :return: The translated regex.
 
1193
        """
 
1194
        if rule[:2] in ('./', '.\\'):
 
1195
            # rootdir rule
 
1196
            result = fnmatch.translate(rule[2:])
 
1197
        elif '/' in rule or '\\' in rule:
 
1198
            # path prefix 
 
1199
            result = fnmatch.translate(rule)
 
1200
        else:
 
1201
            # default rule style.
 
1202
            result = "(?:.*/)?(?!.*/)" + fnmatch.translate(rule)
 
1203
        assert result[-1] == '$', "fnmatch.translate did not add the expected $"
 
1204
        return "(" + result + ")"
 
1205
 
 
1206
    def _combine_ignore_rules(self, rules):
 
1207
        """Combine a list of ignore rules into a single regex object.
 
1208
 
 
1209
        Each individual rule is combined with | to form a big regex, which then
 
1210
        has $ added to it to form something like ()|()|()$. The group index for
 
1211
        each subregex's outermost group is placed in a dictionary mapping back 
 
1212
        to the rule. This allows quick identification of the matching rule that
 
1213
        triggered a match.
 
1214
        :return: a list of the compiled regex and the matching-group index 
 
1215
        dictionaries. We return a list because python complains if you try to 
 
1216
        combine more than 100 regexes.
 
1217
        """
 
1218
        result = []
 
1219
        groups = {}
 
1220
        next_group = 0
 
1221
        translated_rules = []
 
1222
        for rule in rules:
 
1223
            translated_rule = self._translate_ignore_rule(rule)
 
1224
            compiled_rule = re.compile(translated_rule)
 
1225
            groups[next_group] = rule
 
1226
            next_group += compiled_rule.groups
 
1227
            translated_rules.append(translated_rule)
 
1228
            if next_group == 99:
 
1229
                result.append((re.compile("|".join(translated_rules)), groups))
 
1230
                groups = {}
 
1231
                next_group = 0
 
1232
                translated_rules = []
 
1233
        if len(translated_rules):
 
1234
            result.append((re.compile("|".join(translated_rules)), groups))
 
1235
        return result
 
1236
 
1540
1237
    def ignored_files(self):
1541
1238
        """Yield list of PATH, IGNORE_PATTERN"""
1542
1239
        for subp in self.extras():
1555
1252
 
1556
1253
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
1557
1254
        ignore_globs.update(ignores.get_runtime_ignores())
 
1255
 
1558
1256
        ignore_globs.update(ignores.get_user_ignores())
 
1257
 
1559
1258
        if self.has_filename(bzrlib.IGNORE_FILENAME):
1560
1259
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
1561
1260
            try:
1562
1261
                ignore_globs.update(ignores.parse_ignore_file(f))
1563
1262
            finally:
1564
1263
                f.close()
 
1264
 
1565
1265
        self._ignoreset = ignore_globs
 
1266
        self._ignore_regex = self._combine_ignore_rules(ignore_globs)
1566
1267
        return ignore_globs
1567
1268
 
1568
 
    def _flush_ignore_list_cache(self):
1569
 
        """Resets the cached ignore list to force a cache rebuild."""
1570
 
        self._ignoreset = None
1571
 
        self._ignoreglobster = None
 
1269
    def _get_ignore_rules_as_regex(self):
 
1270
        """Return a regex of the ignore rules and a mapping dict.
 
1271
 
 
1272
        :return: (ignore rules compiled regex, dictionary mapping rule group 
 
1273
        indices to original rule.)
 
1274
        """
 
1275
        if getattr(self, '_ignoreset', None) is None:
 
1276
            self.get_ignore_list()
 
1277
        return self._ignore_regex
1572
1278
 
1573
1279
    def is_ignored(self, filename):
1574
1280
        r"""Check whether the filename matches an ignore pattern.
1579
1285
        If the file is ignored, returns the pattern which caused it to
1580
1286
        be ignored, otherwise None.  So this can simply be used as a
1581
1287
        boolean if desired."""
1582
 
        if getattr(self, '_ignoreglobster', None) is None:
1583
 
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
1584
 
        return self._ignoreglobster.match(filename)
 
1288
 
 
1289
        # TODO: Use '**' to match directories, and other extended
 
1290
        # globbing stuff from cvs/rsync.
 
1291
 
 
1292
        # XXX: fnmatch is actually not quite what we want: it's only
 
1293
        # approximately the same as real Unix fnmatch, and doesn't
 
1294
        # treat dotfiles correctly and allows * to match /.
 
1295
        # Eventually it should be replaced with something more
 
1296
        # accurate.
 
1297
    
 
1298
        rules = self._get_ignore_rules_as_regex()
 
1299
        for regex, mapping in rules:
 
1300
            match = regex.match(filename)
 
1301
            if match is not None:
 
1302
                # one or more of the groups in mapping will have a non-None
 
1303
                # group match.
 
1304
                groups = match.groups()
 
1305
                rules = [mapping[group] for group in 
 
1306
                    mapping if groups[group] is not None]
 
1307
                return rules[0]
 
1308
        return None
1585
1309
 
1586
1310
    def kind(self, file_id):
1587
1311
        return file_kind(self.id2abspath(file_id))
1588
1312
 
1589
 
    def _comparison_data(self, entry, path):
1590
 
        abspath = self.abspath(path)
1591
 
        try:
1592
 
            stat_value = os.lstat(abspath)
1593
 
        except OSError, e:
1594
 
            if getattr(e, 'errno', None) == errno.ENOENT:
1595
 
                stat_value = None
1596
 
                kind = None
1597
 
                executable = False
1598
 
            else:
1599
 
                raise
1600
 
        else:
1601
 
            mode = stat_value.st_mode
1602
 
            kind = osutils.file_kind_from_stat_mode(mode)
1603
 
            if not supports_executable():
1604
 
                executable = entry is not None and entry.executable
1605
 
            else:
1606
 
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
1607
 
        return kind, executable, stat_value
1608
 
 
1609
 
    def _file_size(self, entry, stat_value):
1610
 
        return stat_value.st_size
1611
 
 
1612
1313
    def last_revision(self):
1613
1314
        """Return the last revision of the branch for this tree.
1614
1315
 
1627
1328
    def is_locked(self):
1628
1329
        return self._control_files.is_locked()
1629
1330
 
1630
 
    def _must_be_locked(self):
1631
 
        if not self.is_locked():
1632
 
            raise errors.ObjectNotLocked(self)
1633
 
 
1634
1331
    def lock_read(self):
1635
1332
        """See Branch.lock_read, and WorkingTree.unlock."""
1636
 
        if not self.is_locked():
1637
 
            self._reset_data()
1638
1333
        self.branch.lock_read()
1639
1334
        try:
1640
1335
            return self._control_files.lock_read()
1644
1339
 
1645
1340
    def lock_tree_write(self):
1646
1341
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
1647
 
        if not self.is_locked():
1648
 
            self._reset_data()
1649
1342
        self.branch.lock_read()
1650
1343
        try:
1651
1344
            return self._control_files.lock_write()
1655
1348
 
1656
1349
    def lock_write(self):
1657
1350
        """See MutableTree.lock_write, and WorkingTree.unlock."""
1658
 
        if not self.is_locked():
1659
 
            self._reset_data()
1660
1351
        self.branch.lock_write()
1661
1352
        try:
1662
1353
            return self._control_files.lock_write()
1670
1361
    def _basis_inventory_name(self):
1671
1362
        return 'basis-inventory-cache'
1672
1363
 
1673
 
    def _reset_data(self):
1674
 
        """Reset transient data that cannot be revalidated."""
1675
 
        self._inventory_is_modified = False
1676
 
        result = self._deserialize(self._control_files.get('inventory'))
1677
 
        self._set_inventory(result, dirty=False)
1678
 
 
1679
1364
    @needs_tree_write_lock
1680
1365
    def set_last_revision(self, new_revision):
1681
1366
        """Change the last revision in the working tree."""
1682
 
        new_revision = osutils.safe_revision_id(new_revision)
1683
1367
        if self._change_last_revision(new_revision):
1684
1368
            self._cache_basis_inventory(new_revision)
1685
1369
 
1699
1383
            self.branch.set_revision_history([new_revision])
1700
1384
        return True
1701
1385
 
1702
 
    def _write_basis_inventory(self, xml):
1703
 
        """Write the basis inventory XML to the basis-inventory file"""
1704
 
        assert isinstance(xml, str), 'serialised xml must be bytestring.'
1705
 
        path = self._basis_inventory_name()
1706
 
        sio = StringIO(xml)
1707
 
        self._control_files.put(path, sio)
1708
 
 
1709
 
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
1710
 
        """Create the text that will be saved in basis-inventory"""
1711
 
        # TODO: jam 20070209 This should be redundant, as the revision_id
1712
 
        #       as all callers should have already converted the revision_id to
1713
 
        #       utf8
1714
 
        inventory.revision_id = osutils.safe_revision_id(revision_id)
1715
 
        return xml7.serializer_v7.write_inventory_to_string(inventory)
1716
 
 
1717
1386
    def _cache_basis_inventory(self, new_revision):
1718
1387
        """Cache new_revision as the basis inventory."""
1719
1388
        # TODO: this should allow the ready-to-use inventory to be passed in,
1733
1402
            xml = self.branch.repository.get_inventory_xml(new_revision)
1734
1403
            firstline = xml.split('\n', 1)[0]
1735
1404
            if (not 'revision_id="' in firstline or 
1736
 
                'format="7"' not in firstline):
 
1405
                'format="6"' not in firstline):
1737
1406
                inv = self.branch.repository.deserialise_inventory(
1738
1407
                    new_revision, xml)
1739
 
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
1740
 
            self._write_basis_inventory(xml)
 
1408
                inv.revision_id = new_revision
 
1409
                xml = bzrlib.xml6.serializer_v6.write_inventory_to_string(inv)
 
1410
            assert isinstance(xml, str), 'serialised xml must be bytestring.'
 
1411
            path = self._basis_inventory_name()
 
1412
            sio = StringIO(xml)
 
1413
            self._control_files.put(path, sio)
1741
1414
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1742
1415
            pass
1743
1416
 
1748
1421
        
1749
1422
    @needs_read_lock
1750
1423
    def read_working_inventory(self):
1751
 
        """Read the working inventory.
1752
 
        
1753
 
        :raises errors.InventoryModified: read_working_inventory will fail
1754
 
            when the current in memory inventory has been modified.
1755
 
        """
1756
 
        # conceptually this should be an implementation detail of the tree. 
1757
 
        # XXX: Deprecate this.
 
1424
        """Read the working inventory."""
1758
1425
        # ElementTree does its own conversion from UTF-8, so open in
1759
1426
        # binary.
1760
 
        if self._inventory_is_modified:
1761
 
            raise errors.InventoryModified(self)
1762
 
        result = self._deserialize(self._control_files.get('inventory'))
1763
 
        self._set_inventory(result, dirty=False)
 
1427
        result = bzrlib.xml5.serializer_v5.read_inventory(
 
1428
            self._control_files.get('inventory'))
 
1429
        self._set_inventory(result)
1764
1430
        return result
1765
1431
 
1766
1432
    @needs_tree_write_lock
1789
1455
        for f in files:
1790
1456
            fid = inv.path2id(f)
1791
1457
            if not fid:
1792
 
                note("%s is not versioned."%f)
1793
 
            else:
1794
 
                if verbose:
1795
 
                    # having remove it, it must be either ignored or unknown
1796
 
                    if self.is_ignored(f):
1797
 
                        new_status = 'I'
1798
 
                    else:
1799
 
                        new_status = '?'
1800
 
                    textui.show_status(new_status, inv[fid].kind, f,
1801
 
                                       to_file=to_file)
1802
 
                del inv[fid]
 
1458
                # TODO: Perhaps make this just a warning, and continue?
 
1459
                # This tends to happen when 
 
1460
                raise NotVersionedError(path=f)
 
1461
            if verbose:
 
1462
                # having remove it, it must be either ignored or unknown
 
1463
                if self.is_ignored(f):
 
1464
                    new_status = 'I'
 
1465
                else:
 
1466
                    new_status = '?'
 
1467
                show_status(new_status, inv[fid].kind, f, to_file=to_file)
 
1468
            del inv[fid]
1803
1469
 
1804
1470
        self._write_inventory(inv)
1805
1471
 
1806
1472
    @needs_tree_write_lock
1807
1473
    def revert(self, filenames, old_tree=None, backups=True, 
1808
 
               pb=DummyProgress(), report_changes=False):
1809
 
        from bzrlib.conflicts import resolve
 
1474
               pb=DummyProgress()):
 
1475
        from transform import revert
 
1476
        from conflicts import resolve
1810
1477
        if old_tree is None:
1811
1478
            old_tree = self.basis_tree()
1812
 
        conflicts = transform.revert(self, old_tree, filenames, backups, pb,
1813
 
                                     report_changes)
 
1479
        conflicts = revert(self, old_tree, filenames, backups, pb)
1814
1480
        if not len(filenames):
1815
1481
            self.set_parent_ids(self.get_parent_ids()[:1])
1816
1482
            resolve(self)
1818
1484
            resolve(self, filenames, ignore_misses=True)
1819
1485
        return conflicts
1820
1486
 
1821
 
    def revision_tree(self, revision_id):
1822
 
        """See Tree.revision_tree.
1823
 
 
1824
 
        WorkingTree can supply revision_trees for the basis revision only
1825
 
        because there is only one cached inventory in the bzr directory.
1826
 
        """
1827
 
        if revision_id == self.last_revision():
1828
 
            try:
1829
 
                xml = self.read_basis_inventory()
1830
 
            except errors.NoSuchFile:
1831
 
                pass
1832
 
            else:
1833
 
                try:
1834
 
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
1835
 
                    # dont use the repository revision_tree api because we want
1836
 
                    # to supply the inventory.
1837
 
                    if inv.revision_id == revision_id:
1838
 
                        return revisiontree.RevisionTree(self.branch.repository,
1839
 
                            inv, revision_id)
1840
 
                except errors.BadInventoryFormat:
1841
 
                    pass
1842
 
        # raise if there was no inventory, or if we read the wrong inventory.
1843
 
        raise errors.NoSuchRevisionInTree(self, revision_id)
1844
 
 
1845
1487
    # XXX: This method should be deprecated in favour of taking in a proper
1846
1488
    # new Inventory object.
1847
1489
    @needs_tree_write_lock
1864
1506
            elif kind == 'symlink':
1865
1507
                inv.add(InventoryLink(file_id, name, parent))
1866
1508
            else:
1867
 
                raise errors.BzrError("unknown kind %r" % kind)
 
1509
                raise BzrError("unknown kind %r" % kind)
1868
1510
        self._write_inventory(inv)
1869
1511
 
1870
1512
    @needs_tree_write_lock
1871
1513
    def set_root_id(self, file_id):
1872
1514
        """Set the root id for this tree."""
1873
 
        # for compatability 
1874
 
        if file_id is None:
1875
 
            symbol_versioning.warn(symbol_versioning.zero_twelve
1876
 
                % 'WorkingTree.set_root_id with fileid=None',
1877
 
                DeprecationWarning,
1878
 
                stacklevel=3)
1879
 
            file_id = ROOT_ID
1880
 
        else:
1881
 
            file_id = osutils.safe_file_id(file_id)
1882
 
        self._set_root_id(file_id)
1883
 
 
1884
 
    def _set_root_id(self, file_id):
1885
 
        """Set the root id for this tree, in a format specific manner.
1886
 
 
1887
 
        :param file_id: The file id to assign to the root. It must not be 
1888
 
            present in the current inventory or an error will occur. It must
1889
 
            not be None, but rather a valid file id.
1890
 
        """
1891
 
        inv = self._inventory
 
1515
        inv = self.read_working_inventory()
1892
1516
        orig_root_id = inv.root.file_id
1893
 
        # TODO: it might be nice to exit early if there was nothing
1894
 
        # to do, saving us from trigger a sync on unlock.
1895
 
        self._inventory_is_modified = True
1896
 
        # we preserve the root inventory entry object, but
1897
 
        # unlinkit from the byid index
1898
1517
        del inv._byid[inv.root.file_id]
1899
1518
        inv.root.file_id = file_id
1900
 
        # and link it into the index with the new changed id.
1901
1519
        inv._byid[inv.root.file_id] = inv.root
1902
 
        # and finally update all children to reference the new id.
1903
 
        # XXX: this should be safe to just look at the root.children
1904
 
        # list, not the WHOLE INVENTORY.
1905
1520
        for fid in inv:
1906
1521
            entry = inv[fid]
1907
1522
            if entry.parent_id == orig_root_id:
1908
1523
                entry.parent_id = inv.root.file_id
 
1524
        self._write_inventory(inv)
1909
1525
 
1910
1526
    def unlock(self):
1911
1527
        """See Branch.unlock.
1918
1534
        """
1919
1535
        raise NotImplementedError(self.unlock)
1920
1536
 
 
1537
    @needs_write_lock
1921
1538
    def update(self):
1922
1539
        """Update a working tree along its branch.
1923
1540
 
1924
 
        This will update the branch if its bound too, which means we have
1925
 
        multiple trees involved:
1926
 
 
1927
 
        - The new basis tree of the master.
1928
 
        - The old basis tree of the branch.
1929
 
        - The old basis tree of the working tree.
1930
 
        - The current working tree state.
1931
 
 
1932
 
        Pathologically, all three may be different, and non-ancestors of each
1933
 
        other.  Conceptually we want to:
1934
 
 
1935
 
        - Preserve the wt.basis->wt.state changes
1936
 
        - Transform the wt.basis to the new master basis.
1937
 
        - Apply a merge of the old branch basis to get any 'local' changes from
1938
 
          it into the tree.
1939
 
        - Restore the wt.basis->wt.state changes.
 
1541
        This will update the branch if its bound too, which means we have multiple trees involved:
 
1542
        The new basis tree of the master.
 
1543
        The old basis tree of the branch.
 
1544
        The old basis tree of the working tree.
 
1545
        The current working tree state.
 
1546
        pathologically all three may be different, and non ancestors of each other.
 
1547
        Conceptually we want to:
 
1548
        Preserve the wt.basis->wt.state changes
 
1549
        Transform the wt.basis to the new master basis.
 
1550
        Apply a merge of the old branch basis to get any 'local' changes from it into the tree.
 
1551
        Restore the wt.basis->wt.state changes.
1940
1552
 
1941
1553
        There isn't a single operation at the moment to do that, so we:
1942
 
        - Merge current state -> basis tree of the master w.r.t. the old tree
1943
 
          basis.
1944
 
        - Do a 'normal' merge of the old branch basis if it is relevant.
1945
 
        """
1946
 
        if self.branch.get_master_branch() is not None:
1947
 
            self.lock_write()
1948
 
            update_branch = True
1949
 
        else:
1950
 
            self.lock_tree_write()
1951
 
            update_branch = False
1952
 
        try:
1953
 
            if update_branch:
1954
 
                old_tip = self.branch.update()
1955
 
            else:
1956
 
                old_tip = None
1957
 
            return self._update_tree(old_tip)
1958
 
        finally:
1959
 
            self.unlock()
1960
 
 
1961
 
    @needs_tree_write_lock
1962
 
    def _update_tree(self, old_tip=None):
1963
 
        """Update a tree to the master branch.
1964
 
 
1965
 
        :param old_tip: if supplied, the previous tip revision the branch,
1966
 
            before it was changed to the master branch's tip.
1967
 
        """
 
1554
        Merge current state -> basis tree of the master w.r.t. the old tree basis.
 
1555
        Do a 'normal' merge of the old branch basis if it is relevant.
 
1556
        """
 
1557
        old_tip = self.branch.update()
1968
1558
        # here if old_tip is not None, it is the old tip of the branch before
1969
1559
        # it was updated from the master branch. This should become a pending
1970
1560
        # merge in the working tree to preserve the user existing work.  we
1983
1573
        if last_rev != self.branch.last_revision():
1984
1574
            # merge tree state up to new branch tip.
1985
1575
            basis = self.basis_tree()
1986
 
            basis.lock_read()
1987
 
            try:
1988
 
                to_tree = self.branch.basis_tree()
1989
 
                if basis.inventory.root is None:
1990
 
                    self.set_root_id(to_tree.inventory.root.file_id)
1991
 
                    self.flush()
1992
 
                result += merge.merge_inner(
1993
 
                                      self.branch,
1994
 
                                      to_tree,
1995
 
                                      basis,
1996
 
                                      this_tree=self)
1997
 
            finally:
1998
 
                basis.unlock()
 
1576
            to_tree = self.branch.basis_tree()
 
1577
            result += merge_inner(self.branch,
 
1578
                                  to_tree,
 
1579
                                  basis,
 
1580
                                  this_tree=self)
1999
1581
            # TODO - dedup parents list with things merged by pull ?
2000
1582
            # reuse the tree we've updated to to set the basis:
2001
1583
            parent_trees = [(self.branch.last_revision(), to_tree)]
2024
1606
            # and we have converted that last revision to a pending merge.
2025
1607
            # base is somewhere between the branch tip now
2026
1608
            # and the now pending merge
2027
 
 
2028
 
            # Since we just modified the working tree and inventory, flush out
2029
 
            # the current state, before we modify it again.
2030
 
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
2031
 
            #       requires it only because TreeTransform directly munges the
2032
 
            #       inventory and calls tree._write_inventory(). Ultimately we
2033
 
            #       should be able to remove this extra flush.
2034
 
            self.flush()
2035
1609
            from bzrlib.revision import common_ancestor
2036
1610
            try:
2037
1611
                base_rev_id = common_ancestor(self.branch.last_revision(),
2041
1615
                base_rev_id = None
2042
1616
            base_tree = self.branch.repository.revision_tree(base_rev_id)
2043
1617
            other_tree = self.branch.repository.revision_tree(old_tip)
2044
 
            result += merge.merge_inner(
2045
 
                                  self.branch,
 
1618
            result += merge_inner(self.branch,
2046
1619
                                  other_tree,
2047
1620
                                  base_tree,
2048
1621
                                  this_tree=self)
2049
1622
        return result
2050
1623
 
2051
 
    def _write_hashcache_if_dirty(self):
2052
 
        """Write out the hashcache if it is dirty."""
2053
 
        if self._hashcache.needs_write:
2054
 
            try:
2055
 
                self._hashcache.write()
2056
 
            except OSError, e:
2057
 
                if e.errno not in (errno.EPERM, errno.EACCES):
2058
 
                    raise
2059
 
                # TODO: jam 20061219 Should this be a warning? A single line
2060
 
                #       warning might be sufficient to let the user know what
2061
 
                #       is going on.
2062
 
                mutter('Could not write hashcache for %s\nError: %s',
2063
 
                       self._hashcache.cache_file_name(), e)
2064
 
 
2065
1624
    @needs_tree_write_lock
2066
1625
    def _write_inventory(self, inv):
2067
1626
        """Write inventory as the current inventory."""
2068
 
        self._set_inventory(inv, dirty=True)
2069
 
        self.flush()
 
1627
        sio = StringIO()
 
1628
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
 
1629
        sio.seek(0)
 
1630
        self._control_files.put('inventory', sio)
 
1631
        self._set_inventory(inv)
 
1632
        mutter('wrote working inventory')
2070
1633
 
2071
1634
    def set_conflicts(self, arg):
2072
 
        raise errors.UnsupportedOperation(self.set_conflicts, self)
 
1635
        raise UnsupportedOperation(self.set_conflicts, self)
2073
1636
 
2074
1637
    def add_conflicts(self, arg):
2075
 
        raise errors.UnsupportedOperation(self.add_conflicts, self)
 
1638
        raise UnsupportedOperation(self.add_conflicts, self)
2076
1639
 
2077
1640
    @needs_read_lock
2078
1641
    def conflicts(self):
2079
 
        conflicts = _mod_conflicts.ConflictList()
 
1642
        conflicts = ConflictList()
2080
1643
        for conflicted in self._iter_conflicts():
2081
1644
            text = True
2082
1645
            try:
2095
1658
                    if text == False:
2096
1659
                        break
2097
1660
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
2098
 
            conflicts.append(_mod_conflicts.Conflict.factory(ctype,
2099
 
                             path=conflicted,
 
1661
            conflicts.append(Conflict.factory(ctype, path=conflicted,
2100
1662
                             file_id=self.path2id(conflicted)))
2101
1663
        return conflicts
2102
1664
 
2103
 
    def walkdirs(self, prefix=""):
2104
 
        """Walk the directories of this tree.
2105
 
 
2106
 
        This API returns a generator, which is only valid during the current
2107
 
        tree transaction - within a single lock_read or lock_write duration.
2108
 
 
2109
 
        If the tree is not locked, it may cause an error to be raised, depending
2110
 
        on the tree implementation.
2111
 
        """
2112
 
        disk_top = self.abspath(prefix)
2113
 
        if disk_top.endswith('/'):
2114
 
            disk_top = disk_top[:-1]
2115
 
        top_strip_len = len(disk_top) + 1
2116
 
        inventory_iterator = self._walkdirs(prefix)
2117
 
        disk_iterator = osutils.walkdirs(disk_top, prefix)
2118
 
        try:
2119
 
            current_disk = disk_iterator.next()
2120
 
            disk_finished = False
2121
 
        except OSError, e:
2122
 
            if e.errno != errno.ENOENT:
2123
 
                raise
2124
 
            current_disk = None
2125
 
            disk_finished = True
2126
 
        try:
2127
 
            current_inv = inventory_iterator.next()
2128
 
            inv_finished = False
2129
 
        except StopIteration:
2130
 
            current_inv = None
2131
 
            inv_finished = True
2132
 
        while not inv_finished or not disk_finished:
2133
 
            if not disk_finished:
2134
 
                # strip out .bzr dirs
2135
 
                if current_disk[0][1][top_strip_len:] == '':
2136
 
                    # osutils.walkdirs can be made nicer - 
2137
 
                    # yield the path-from-prefix rather than the pathjoined
2138
 
                    # value.
2139
 
                    bzrdir_loc = bisect_left(current_disk[1], ('.bzr', '.bzr'))
2140
 
                    if current_disk[1][bzrdir_loc][0] == '.bzr':
2141
 
                        # we dont yield the contents of, or, .bzr itself.
2142
 
                        del current_disk[1][bzrdir_loc]
2143
 
            if inv_finished:
2144
 
                # everything is unknown
2145
 
                direction = 1
2146
 
            elif disk_finished:
2147
 
                # everything is missing
2148
 
                direction = -1
2149
 
            else:
2150
 
                direction = cmp(current_inv[0][0], current_disk[0][0])
2151
 
            if direction > 0:
2152
 
                # disk is before inventory - unknown
2153
 
                dirblock = [(relpath, basename, kind, stat, None, None) for
2154
 
                    relpath, basename, kind, stat, top_path in current_disk[1]]
2155
 
                yield (current_disk[0][0], None), dirblock
2156
 
                try:
2157
 
                    current_disk = disk_iterator.next()
2158
 
                except StopIteration:
2159
 
                    disk_finished = True
2160
 
            elif direction < 0:
2161
 
                # inventory is before disk - missing.
2162
 
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
2163
 
                    for relpath, basename, dkind, stat, fileid, kind in 
2164
 
                    current_inv[1]]
2165
 
                yield (current_inv[0][0], current_inv[0][1]), dirblock
2166
 
                try:
2167
 
                    current_inv = inventory_iterator.next()
2168
 
                except StopIteration:
2169
 
                    inv_finished = True
2170
 
            else:
2171
 
                # versioned present directory
2172
 
                # merge the inventory and disk data together
2173
 
                dirblock = []
2174
 
                for relpath, subiterator in itertools.groupby(sorted(
2175
 
                    current_inv[1] + current_disk[1], key=operator.itemgetter(0)), operator.itemgetter(1)):
2176
 
                    path_elements = list(subiterator)
2177
 
                    if len(path_elements) == 2:
2178
 
                        inv_row, disk_row = path_elements
2179
 
                        # versioned, present file
2180
 
                        dirblock.append((inv_row[0],
2181
 
                            inv_row[1], disk_row[2],
2182
 
                            disk_row[3], inv_row[4],
2183
 
                            inv_row[5]))
2184
 
                    elif len(path_elements[0]) == 5:
2185
 
                        # unknown disk file
2186
 
                        dirblock.append((path_elements[0][0],
2187
 
                            path_elements[0][1], path_elements[0][2],
2188
 
                            path_elements[0][3], None, None))
2189
 
                    elif len(path_elements[0]) == 6:
2190
 
                        # versioned, absent file.
2191
 
                        dirblock.append((path_elements[0][0],
2192
 
                            path_elements[0][1], 'unknown', None,
2193
 
                            path_elements[0][4], path_elements[0][5]))
2194
 
                    else:
2195
 
                        raise NotImplementedError('unreachable code')
2196
 
                yield current_inv[0], dirblock
2197
 
                try:
2198
 
                    current_inv = inventory_iterator.next()
2199
 
                except StopIteration:
2200
 
                    inv_finished = True
2201
 
                try:
2202
 
                    current_disk = disk_iterator.next()
2203
 
                except StopIteration:
2204
 
                    disk_finished = True
2205
 
 
2206
 
    def _walkdirs(self, prefix=""):
2207
 
        _directory = 'directory'
2208
 
        # get the root in the inventory
2209
 
        inv = self.inventory
2210
 
        top_id = inv.path2id(prefix)
2211
 
        if top_id is None:
2212
 
            pending = []
2213
 
        else:
2214
 
            pending = [(prefix, '', _directory, None, top_id, None)]
2215
 
        while pending:
2216
 
            dirblock = []
2217
 
            currentdir = pending.pop()
2218
 
            # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-id, 5-kind
2219
 
            top_id = currentdir[4]
2220
 
            if currentdir[0]:
2221
 
                relroot = currentdir[0] + '/'
2222
 
            else:
2223
 
                relroot = ""
2224
 
            # FIXME: stash the node in pending
2225
 
            entry = inv[top_id]
2226
 
            for name, child in entry.sorted_children():
2227
 
                dirblock.append((relroot + name, name, child.kind, None,
2228
 
                    child.file_id, child.kind
2229
 
                    ))
2230
 
            yield (currentdir[0], entry.file_id), dirblock
2231
 
            # push the user specified dirs from dirblock
2232
 
            for dir in reversed(dirblock):
2233
 
                if dir[2] == _directory:
2234
 
                    pending.append(dir)
2235
 
 
2236
 
    @needs_tree_write_lock
2237
 
    def auto_resolve(self):
2238
 
        """Automatically resolve text conflicts according to contents.
2239
 
 
2240
 
        Only text conflicts are auto_resolvable. Files with no conflict markers
2241
 
        are considered 'resolved', because bzr always puts conflict markers
2242
 
        into files that have text conflicts.  The corresponding .THIS .BASE and
2243
 
        .OTHER files are deleted, as per 'resolve'.
2244
 
        :return: a tuple of ConflictLists: (un_resolved, resolved).
2245
 
        """
2246
 
        un_resolved = _mod_conflicts.ConflictList()
2247
 
        resolved = _mod_conflicts.ConflictList()
2248
 
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
2249
 
        for conflict in self.conflicts():
2250
 
            if (conflict.typestring != 'text conflict' or
2251
 
                self.kind(conflict.file_id) != 'file'):
2252
 
                un_resolved.append(conflict)
2253
 
                continue
2254
 
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
2255
 
            try:
2256
 
                for line in my_file:
2257
 
                    if conflict_re.search(line):
2258
 
                        un_resolved.append(conflict)
2259
 
                        break
2260
 
                else:
2261
 
                    resolved.append(conflict)
2262
 
            finally:
2263
 
                my_file.close()
2264
 
        resolved.remove_files(self)
2265
 
        self.set_conflicts(un_resolved)
2266
 
        return un_resolved, resolved
2267
 
 
2268
 
    def _validate(self):
2269
 
        """Validate internal structures.
2270
 
 
2271
 
        This is meant mostly for the test suite. To give it a chance to detect
2272
 
        corruption after actions have occurred. The default implementation is a
2273
 
        just a no-op.
2274
 
 
2275
 
        :return: None. An exception should be raised if there is an error.
2276
 
        """
2277
 
        return
2278
 
 
2279
1665
 
2280
1666
class WorkingTree2(WorkingTree):
2281
1667
    """This is the Format 2 working tree.
2285
1671
     - uses the branch last-revision.
2286
1672
    """
2287
1673
 
2288
 
    def __init__(self, *args, **kwargs):
2289
 
        super(WorkingTree2, self).__init__(*args, **kwargs)
2290
 
        # WorkingTree2 has more of a constraint that self._inventory must
2291
 
        # exist. Because this is an older format, we don't mind the overhead
2292
 
        # caused by the extra computation here.
2293
 
 
2294
 
        # Newer WorkingTree's should only have self._inventory set when they
2295
 
        # have a read lock.
2296
 
        if self._inventory is None:
2297
 
            self.read_working_inventory()
2298
 
 
2299
1674
    def lock_tree_write(self):
2300
1675
        """See WorkingTree.lock_tree_write().
2301
1676
 
2311
1686
 
2312
1687
    def unlock(self):
2313
1688
        # we share control files:
2314
 
        if self._control_files._lock_count == 3:
2315
 
            # _inventory_is_modified is always False during a read lock.
2316
 
            if self._inventory_is_modified:
2317
 
                self.flush()
2318
 
            self._write_hashcache_if_dirty()
2319
 
                    
 
1689
        if self._hashcache.needs_write and self._control_files._lock_count==3:
 
1690
            self._hashcache.write()
2320
1691
        # reverse order of locking.
2321
1692
        try:
2322
1693
            return self._control_files.unlock()
2338
1709
    def _last_revision(self):
2339
1710
        """See Mutable.last_revision."""
2340
1711
        try:
2341
 
            return osutils.safe_revision_id(
2342
 
                        self._control_files.get('last-revision').read())
2343
 
        except errors.NoSuchFile:
 
1712
            return self._control_files.get_utf8('last-revision').read()
 
1713
        except NoSuchFile:
2344
1714
            return None
2345
1715
 
2346
1716
    def _change_last_revision(self, revision_id):
2352
1722
                pass
2353
1723
            return False
2354
1724
        else:
2355
 
            self._control_files.put_bytes('last-revision', revision_id)
 
1725
            self._control_files.put_utf8('last-revision', revision_id)
2356
1726
            return True
2357
1727
 
2358
1728
    @needs_tree_write_lock
2364
1734
    def add_conflicts(self, new_conflicts):
2365
1735
        conflict_set = set(self.conflicts())
2366
1736
        conflict_set.update(set(list(new_conflicts)))
2367
 
        self.set_conflicts(_mod_conflicts.ConflictList(sorted(conflict_set,
2368
 
                                       key=_mod_conflicts.Conflict.sort_key)))
 
1737
        self.set_conflicts(ConflictList(sorted(conflict_set,
 
1738
                                               key=Conflict.sort_key)))
2369
1739
 
2370
1740
    @needs_read_lock
2371
1741
    def conflicts(self):
2372
1742
        try:
2373
1743
            confile = self._control_files.get('conflicts')
2374
 
        except errors.NoSuchFile:
2375
 
            return _mod_conflicts.ConflictList()
 
1744
        except NoSuchFile:
 
1745
            return ConflictList()
2376
1746
        try:
2377
1747
            if confile.next() != CONFLICT_HEADER_1 + '\n':
2378
 
                raise errors.ConflictFormatError()
 
1748
                raise ConflictFormatError()
2379
1749
        except StopIteration:
2380
 
            raise errors.ConflictFormatError()
2381
 
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
 
1750
            raise ConflictFormatError()
 
1751
        return ConflictList.from_stanzas(RioReader(confile))
2382
1752
 
2383
1753
    def unlock(self):
2384
 
        if self._control_files._lock_count == 1:
2385
 
            # _inventory_is_modified is always False during a read lock.
2386
 
            if self._inventory_is_modified:
2387
 
                self.flush()
2388
 
            self._write_hashcache_if_dirty()
 
1754
        if self._hashcache.needs_write and self._control_files._lock_count==1:
 
1755
            self._hashcache.write()
2389
1756
        # reverse order of locking.
2390
1757
        try:
2391
1758
            return self._control_files.unlock()
2394
1761
 
2395
1762
 
2396
1763
def get_conflicted_stem(path):
2397
 
    for suffix in _mod_conflicts.CONFLICT_SUFFIXES:
 
1764
    for suffix in CONFLICT_SUFFIXES:
2398
1765
        if path.endswith(suffix):
2399
1766
            return path[:-len(suffix)]
2400
1767
 
2401
 
 
2402
1768
@deprecated_function(zero_eight)
2403
1769
def is_control_file(filename):
2404
1770
    """See WorkingTree.is_control_filename(filename)."""
2439
1805
    _formats = {}
2440
1806
    """The known formats."""
2441
1807
 
2442
 
    requires_rich_root = False
2443
 
 
2444
 
    upgrade_recommended = False
2445
 
 
2446
1808
    @classmethod
2447
1809
    def find_format(klass, a_bzrdir):
2448
1810
        """Return the format for the working tree object in a_bzrdir."""
2450
1812
            transport = a_bzrdir.get_workingtree_transport(None)
2451
1813
            format_string = transport.get("format").read()
2452
1814
            return klass._formats[format_string]
2453
 
        except errors.NoSuchFile:
 
1815
        except NoSuchFile:
2454
1816
            raise errors.NoWorkingTree(base=transport.base)
2455
1817
        except KeyError:
2456
1818
            raise errors.UnknownFormatError(format=format_string)
2457
1819
 
2458
 
    def __eq__(self, other):
2459
 
        return self.__class__ is other.__class__
2460
 
 
2461
 
    def __ne__(self, other):
2462
 
        return not (self == other)
2463
 
 
2464
1820
    @classmethod
2465
1821
    def get_default_format(klass):
2466
1822
        """Return the current default format."""
2497
1853
        del klass._formats[format.get_format_string()]
2498
1854
 
2499
1855
 
 
1856
 
2500
1857
class WorkingTreeFormat2(WorkingTreeFormat):
2501
1858
    """The second working tree format. 
2502
1859
 
2503
1860
    This format modified the hash cache from the format 1 hash cache.
2504
1861
    """
2505
1862
 
2506
 
    upgrade_recommended = True
2507
 
 
2508
1863
    def get_format_description(self):
2509
1864
        """See WorkingTreeFormat.get_format_description()."""
2510
1865
        return "Working tree format 2"
2518
1873
        """
2519
1874
        sio = StringIO()
2520
1875
        inv = Inventory()
2521
 
        xml5.serializer_v5.write_inventory(inv, sio)
 
1876
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
2522
1877
        sio.seek(0)
2523
1878
        control_files.put('inventory', sio)
2524
1879
 
2525
 
        control_files.put_bytes('pending-merges', '')
 
1880
        control_files.put_utf8('pending-merges', '')
2526
1881
        
2527
1882
 
2528
1883
    def initialize(self, a_bzrdir, revision_id=None):
2531
1886
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2532
1887
        branch = a_bzrdir.open_branch()
2533
1888
        if revision_id is not None:
2534
 
            revision_id = osutils.safe_revision_id(revision_id)
2535
1889
            branch.lock_write()
2536
1890
            try:
2537
1891
                revision_history = branch.revision_history()
2550
1904
                         _internal=True,
2551
1905
                         _format=self,
2552
1906
                         _bzrdir=a_bzrdir)
 
1907
        wt._write_inventory(inv)
 
1908
        wt.set_root_id(inv.root.file_id)
2553
1909
        basis_tree = branch.repository.revision_tree(revision)
2554
 
        if basis_tree.inventory.root is not None:
2555
 
            wt.set_root_id(basis_tree.inventory.root.file_id)
2556
 
        # set the parent list and cache the basis tree.
2557
1910
        wt.set_parent_trees([(revision, basis_tree)])
2558
 
        transform.build_tree(basis_tree, wt)
 
1911
        build_tree(basis_tree, wt)
2559
1912
        return wt
2560
1913
 
2561
1914
    def __init__(self):
2573
1926
            raise NotImplementedError
2574
1927
        if not isinstance(a_bzrdir.transport, LocalTransport):
2575
1928
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2576
 
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
 
1929
        return WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
2577
1930
                           _internal=True,
2578
1931
                           _format=self,
2579
1932
                           _bzrdir=a_bzrdir)
2580
 
        return wt
 
1933
 
2581
1934
 
2582
1935
class WorkingTreeFormat3(WorkingTreeFormat):
2583
1936
    """The second working tree format updated to record a format marker.
2590
1943
        - is new in bzr 0.8
2591
1944
        - uses a LockDir to guard access for writes.
2592
1945
    """
2593
 
    
2594
 
    upgrade_recommended = True
2595
1946
 
2596
1947
    def get_format_string(self):
2597
1948
        """See WorkingTreeFormat.get_format_string()."""
2604
1955
    _lock_file_name = 'lock'
2605
1956
    _lock_class = LockDir
2606
1957
 
2607
 
    _tree_class = WorkingTree3
2608
 
 
2609
 
    def __get_matchingbzrdir(self):
2610
 
        return bzrdir.BzrDirMetaFormat1()
2611
 
 
2612
 
    _matchingbzrdir = property(__get_matchingbzrdir)
2613
 
 
2614
1958
    def _open_control_files(self, a_bzrdir):
2615
1959
        transport = a_bzrdir.get_workingtree_transport(None)
2616
1960
        return LockableFiles(transport, self._lock_file_name, 
2632
1976
        branch = a_bzrdir.open_branch()
2633
1977
        if revision_id is None:
2634
1978
            revision_id = branch.last_revision()
2635
 
        else:
2636
 
            revision_id = osutils.safe_revision_id(revision_id)
2637
 
        # WorkingTree3 can handle an inventory which has a unique root id.
2638
 
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
2639
 
        # those trees. And because there isn't a format bump inbetween, we
2640
 
        # are maintaining compatibility with older clients.
2641
 
        # inv = Inventory(root_id=gen_root_id())
2642
 
        inv = self._initial_inventory()
2643
 
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
1979
        inv = Inventory() 
 
1980
        wt = WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
2644
1981
                         branch,
2645
1982
                         inv,
2646
1983
                         _internal=True,
2649
1986
                         _control_files=control_files)
2650
1987
        wt.lock_tree_write()
2651
1988
        try:
 
1989
            wt._write_inventory(inv)
 
1990
            wt.set_root_id(inv.root.file_id)
2652
1991
            basis_tree = branch.repository.revision_tree(revision_id)
2653
 
            # only set an explicit root id if there is one to set.
2654
 
            if basis_tree.inventory.root is not None:
2655
 
                wt.set_root_id(basis_tree.inventory.root.file_id)
2656
 
            if revision_id == NULL_REVISION:
 
1992
            if revision_id == bzrlib.revision.NULL_REVISION:
2657
1993
                wt.set_parent_trees([])
2658
1994
            else:
2659
1995
                wt.set_parent_trees([(revision_id, basis_tree)])
2660
 
            transform.build_tree(basis_tree, wt)
 
1996
            build_tree(basis_tree, wt)
2661
1997
        finally:
2662
 
            # Unlock in this order so that the unlock-triggers-flush in
2663
 
            # WorkingTree is given a chance to fire.
 
1998
            wt.unlock()
2664
1999
            control_files.unlock()
2665
 
            wt.unlock()
2666
2000
        return wt
2667
2001
 
2668
 
    def _initial_inventory(self):
2669
 
        return Inventory()
2670
 
 
2671
2002
    def __init__(self):
2672
2003
        super(WorkingTreeFormat3, self).__init__()
 
2004
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
2673
2005
 
2674
2006
    def open(self, a_bzrdir, _found=False):
2675
2007
        """Return the WorkingTree object for a_bzrdir
2682
2014
            raise NotImplementedError
2683
2015
        if not isinstance(a_bzrdir.transport, LocalTransport):
2684
2016
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
2685
 
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
2686
 
        return wt
 
2017
        return self._open(a_bzrdir, self._open_control_files(a_bzrdir))
2687
2018
 
2688
2019
    def _open(self, a_bzrdir, control_files):
2689
2020
        """Open the tree itself.
2691
2022
        :param a_bzrdir: the dir for the tree.
2692
2023
        :param control_files: the control files for the tree.
2693
2024
        """
2694
 
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
2695
 
                                _internal=True,
2696
 
                                _format=self,
2697
 
                                _bzrdir=a_bzrdir,
2698
 
                                _control_files=control_files)
 
2025
        return WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
 
2026
                           _internal=True,
 
2027
                           _format=self,
 
2028
                           _bzrdir=a_bzrdir,
 
2029
                           _control_files=control_files)
2699
2030
 
2700
2031
    def __str__(self):
2701
2032
        return self.get_format_string()
2702
2033
 
2703
2034
 
2704
 
__default_format = WorkingTreeFormat4()
 
2035
# formats which have no format string are not discoverable
 
2036
# and not independently creatable, so are not registered.
 
2037
__default_format = WorkingTreeFormat3()
2705
2038
WorkingTreeFormat.register_format(__default_format)
2706
 
WorkingTreeFormat.register_format(WorkingTreeFormat3())
2707
2039
WorkingTreeFormat.set_default_format(__default_format)
2708
 
# formats which have no format string are not discoverable
2709
 
# and not independently creatable, so are not registered.
2710
2040
_legacy_formats = [WorkingTreeFormat2(),
2711
2041
                   ]
2712
2042