/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Martin Pool
  • Date: 2008-08-04 07:55:41 UTC
  • mto: This revision was merged to the branch mainline in revision 3605.
  • Revision ID: mbp@sourcefrog.net-20080804075541-jka7smxkix7ozvb1
Make tests for stacked upgrade scenario-based

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006 Canonical Ltd
2
 
 
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
 
 
7
#
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
 
 
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
32
 
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
33
 
CONFLICT_HEADER_1 = "BZR conflict list format 1"
34
 
 
35
32
# TODO: Give the workingtree sole responsibility for the working inventory;
36
33
# remove the variable and references to it from the branch.  This may require
37
34
# updating the commit code so as to update the inventory within the working
39
36
# At the moment they may alias the inventory and have old copies of it in
40
37
# memory.  (Now done? -- mbp 20060309)
41
38
 
42
 
from copy import deepcopy
43
39
from cStringIO import StringIO
 
40
import os
 
41
import sys
 
42
 
 
43
from bzrlib.lazy_import import lazy_import
 
44
lazy_import(globals(), """
 
45
from bisect import bisect_left
 
46
import collections
44
47
import errno
45
 
import fnmatch
46
 
import os
 
48
import itertools
 
49
import operator
47
50
import stat
48
 
 
49
 
 
50
 
from bzrlib.atomicfile import AtomicFile
51
 
from bzrlib.branch import (Branch,
52
 
                           quotefn)
53
 
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
54
 
import bzrlib.bzrdir as bzrdir
 
51
from time import time
 
52
import warnings
 
53
import re
 
54
 
 
55
import bzrlib
 
56
from bzrlib import (
 
57
    branch,
 
58
    bzrdir,
 
59
    conflicts as _mod_conflicts,
 
60
    dirstate,
 
61
    errors,
 
62
    generate_ids,
 
63
    globbing,
 
64
    hashcache,
 
65
    ignores,
 
66
    merge,
 
67
    revision as _mod_revision,
 
68
    revisiontree,
 
69
    repository,
 
70
    textui,
 
71
    trace,
 
72
    transform,
 
73
    ui,
 
74
    urlutils,
 
75
    xml5,
 
76
    xml6,
 
77
    xml7,
 
78
    )
 
79
import bzrlib.branch
 
80
from bzrlib.transport import get_transport
 
81
import bzrlib.ui
 
82
from bzrlib.workingtree_4 import WorkingTreeFormat4
 
83
""")
 
84
 
 
85
from bzrlib import symbol_versioning
55
86
from bzrlib.decorators import needs_read_lock, needs_write_lock
56
 
import bzrlib.errors as errors
57
 
from bzrlib.errors import (BzrCheckError,
58
 
                           BzrError,
59
 
                           ConflictFormatError,
60
 
                           DivergedBranches,
61
 
                           WeaveRevisionNotPresent,
62
 
                           NotBranchError,
63
 
                           NoSuchFile,
64
 
                           NotVersionedError,
65
 
                           MergeModifiedFormatError,
66
 
                           UnsupportedOperation,
67
 
                           )
68
 
from bzrlib.inventory import InventoryEntry, Inventory
 
87
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
69
88
from bzrlib.lockable_files import LockableFiles, TransportLock
70
89
from bzrlib.lockdir import LockDir
71
 
from bzrlib.merge import merge_inner, transform_tree
 
90
import bzrlib.mutabletree
 
91
from bzrlib.mutabletree import needs_tree_write_lock
 
92
from bzrlib import osutils
72
93
from bzrlib.osutils import (
73
 
                            abspath,
74
 
                            appendpath,
75
 
                            compact_date,
76
 
                            file_kind,
77
 
                            isdir,
78
 
                            getcwd,
79
 
                            pathjoin,
80
 
                            pumpfile,
81
 
                            safe_unicode,
82
 
                            splitpath,
83
 
                            rand_bytes,
84
 
                            normpath,
85
 
                            realpath,
86
 
                            relpath,
87
 
                            rename,
88
 
                            supports_executable,
89
 
                            )
 
94
    compact_date,
 
95
    file_kind,
 
96
    isdir,
 
97
    normpath,
 
98
    pathjoin,
 
99
    rand_chars,
 
100
    realpath,
 
101
    safe_unicode,
 
102
    splitpath,
 
103
    supports_executable,
 
104
    )
 
105
from bzrlib.trace import mutter, note
 
106
from bzrlib.transport.local import LocalTransport
90
107
from bzrlib.progress import DummyProgress, ProgressPhase
91
 
from bzrlib.revision import NULL_REVISION
 
108
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
92
109
from bzrlib.rio import RioReader, rio_file, Stanza
93
 
from bzrlib.symbol_versioning import *
94
 
from bzrlib.textui import show_status
95
 
import bzrlib.tree
96
 
from bzrlib.transform import build_tree
97
 
from bzrlib.trace import mutter, note
98
 
from bzrlib.transport import get_transport
99
 
from bzrlib.transport.local import LocalTransport
100
 
import bzrlib.ui
101
 
import bzrlib.xml5
102
 
 
103
 
 
104
 
def gen_file_id(name):
105
 
    """Return new file id.
106
 
 
107
 
    This should probably generate proper UUIDs, but for the moment we
108
 
    cope with just randomness because running uuidgen every time is
109
 
    slow."""
110
 
    import re
111
 
    from binascii import hexlify
112
 
    from time import time
113
 
 
114
 
    # get last component
115
 
    idx = name.rfind('/')
116
 
    if idx != -1:
117
 
        name = name[idx+1 : ]
118
 
    idx = name.rfind('\\')
119
 
    if idx != -1:
120
 
        name = name[idx+1 : ]
121
 
 
122
 
    # make it not a hidden file
123
 
    name = name.lstrip('.')
124
 
 
125
 
    # remove any wierd characters; we don't escape them but rather
126
 
    # just pull them out
127
 
    name = re.sub(r'[^\w.]', '', name)
128
 
 
129
 
    s = hexlify(rand_bytes(8))
130
 
    return '-'.join((name, compact_date(time()), s))
131
 
 
132
 
 
133
 
def gen_root_id():
134
 
    """Return a new tree-root file id."""
135
 
    return gen_file_id('TREE_ROOT')
 
110
from bzrlib.symbol_versioning import (deprecated_passed,
 
111
        deprecated_method,
 
112
        deprecated_function,
 
113
        DEPRECATED_PARAMETER,
 
114
        )
 
115
 
 
116
 
 
117
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
 
118
CONFLICT_HEADER_1 = "BZR conflict list format 1"
 
119
 
 
120
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
136
121
 
137
122
 
138
123
class TreeEntry(object):
139
 
    """An entry that implements the minium interface used by commands.
 
124
    """An entry that implements the minimum interface used by commands.
140
125
 
141
126
    This needs further inspection, it may be better to have 
142
127
    InventoryEntries without ids - though that seems wrong. For now,
190
175
        return ''
191
176
 
192
177
 
193
 
class WorkingTree(bzrlib.tree.Tree):
 
178
class WorkingTree(bzrlib.mutabletree.MutableTree):
194
179
    """Working copy tree.
195
180
 
196
181
    The inventory is held in the `Branch` working-inventory, and the
207
192
                 _internal=False,
208
193
                 _format=None,
209
194
                 _bzrdir=None):
210
 
        """Construct a WorkingTree for basedir.
 
195
        """Construct a WorkingTree instance. This is not a public API.
211
196
 
212
 
        If the branch is not supplied, it is opened automatically.
213
 
        If the branch is supplied, it must be the branch for this basedir.
214
 
        (branch.base is not cross checked, because for remote branches that
215
 
        would be meaningless).
 
197
        :param branch: A branch to override probing for the branch.
216
198
        """
217
199
        self._format = _format
218
200
        self.bzrdir = _bzrdir
219
201
        if not _internal:
220
 
            # not created via open etc.
221
 
            warn("WorkingTree() is deprecated as of bzr version 0.8. "
222
 
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
223
 
                 DeprecationWarning,
224
 
                 stacklevel=2)
225
 
            wt = WorkingTree.open(basedir)
226
 
            self.branch = wt.branch
227
 
            self.basedir = wt.basedir
228
 
            self._control_files = wt._control_files
229
 
            self._hashcache = wt._hashcache
230
 
            self._set_inventory(wt._inventory)
231
 
            self._format = wt._format
232
 
            self.bzrdir = wt.bzrdir
233
 
        from bzrlib.hashcache import HashCache
234
 
        from bzrlib.trace import note, mutter
235
 
        assert isinstance(basedir, basestring), \
236
 
            "base directory %r is not a string" % basedir
 
202
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
 
203
                "WorkingTree.open() to obtain a WorkingTree.")
237
204
        basedir = safe_unicode(basedir)
238
205
        mutter("opening working tree %r", basedir)
239
206
        if deprecated_passed(branch):
240
 
            if not _internal:
241
 
                warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
242
 
                     " Please use bzrdir.open_workingtree() or"
243
 
                     " WorkingTree.open().",
244
 
                     DeprecationWarning,
245
 
                     stacklevel=2
246
 
                     )
247
 
            self.branch = branch
 
207
            self._branch = branch
248
208
        else:
249
 
            self.branch = self.bzrdir.open_branch()
250
 
        assert isinstance(self.branch, Branch), \
251
 
            "branch %r is not a Branch" % self.branch
 
209
            self._branch = self.bzrdir.open_branch()
252
210
        self.basedir = realpath(basedir)
253
211
        # if branch is at our basedir and is a format 6 or less
254
212
        if isinstance(self._format, WorkingTreeFormat2):
255
213
            # share control object
256
214
            self._control_files = self.branch.control_files
257
215
        else:
258
 
            # only ready for format 3
259
 
            assert isinstance(self._format, WorkingTreeFormat3)
260
 
            assert isinstance(_control_files, LockableFiles), \
261
 
                    "_control_files must be a LockableFiles, not %r" \
262
 
                    % _control_files
 
216
            # assume all other formats have their own control files.
263
217
            self._control_files = _control_files
 
218
        self._transport = self._control_files._transport
264
219
        # update the whole cache up front and write to disk if anything changed;
265
220
        # in the future we might want to do this more selectively
266
221
        # two possible ways offer themselves : in self._unlock, write the cache
267
222
        # if needed, or, when the cache sees a change, append it to the hash
268
223
        # cache file, and have the parser take the most recent entry for a
269
224
        # given path only.
270
 
        cache_filename = self.bzrdir.get_workingtree_transport(None).abspath('stat-cache')
271
 
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
 
225
        wt_trans = self.bzrdir.get_workingtree_transport(None)
 
226
        cache_filename = wt_trans.local_abspath('stat-cache')
 
227
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
 
228
            self.bzrdir._get_file_mode())
 
229
        hc = self._hashcache
272
230
        hc.read()
273
231
        # is this scan needed ? it makes things kinda slow.
274
 
        hc.scan()
 
232
        #hc.scan()
275
233
 
276
234
        if hc.needs_write:
277
235
            mutter("write hc")
278
236
            hc.write()
279
237
 
280
238
        if _inventory is None:
281
 
            self._set_inventory(self.read_working_inventory())
282
 
        else:
283
 
            self._set_inventory(_inventory)
284
 
 
285
 
    def _set_inventory(self, inv):
 
239
            # This will be acquired on lock_read() or lock_write()
 
240
            self._inventory_is_modified = False
 
241
            self._inventory = None
 
242
        else:
 
243
            # the caller of __init__ has provided an inventory,
 
244
            # we assume they know what they are doing - as its only
 
245
            # the Format factory and creation methods that are
 
246
            # permitted to do this.
 
247
            self._set_inventory(_inventory, dirty=False)
 
248
        self._detect_case_handling()
 
249
        self._rules_searcher = None
 
250
 
 
251
    def _detect_case_handling(self):
 
252
        wt_trans = self.bzrdir.get_workingtree_transport(None)
 
253
        try:
 
254
            wt_trans.stat("FoRMaT")
 
255
        except errors.NoSuchFile:
 
256
            self.case_sensitive = True
 
257
        else:
 
258
            self.case_sensitive = False
 
259
 
 
260
        self._setup_directory_is_tree_reference()
 
261
 
 
262
    branch = property(
 
263
        fget=lambda self: self._branch,
 
264
        doc="""The branch this WorkingTree is connected to.
 
265
 
 
266
            This cannot be set - it is reflective of the actual disk structure
 
267
            the working tree has been constructed from.
 
268
            """)
 
269
 
 
270
    def break_lock(self):
 
271
        """Break a lock if one is present from another instance.
 
272
 
 
273
        Uses the ui factory to ask for confirmation if the lock may be from
 
274
        an active process.
 
275
 
 
276
        This will probe the repository for its lock as well.
 
277
        """
 
278
        self._control_files.break_lock()
 
279
        self.branch.break_lock()
 
280
 
 
281
    def requires_rich_root(self):
 
282
        return self._format.requires_rich_root
 
283
 
 
284
    def supports_tree_reference(self):
 
285
        return False
 
286
 
 
287
    def _set_inventory(self, inv, dirty):
 
288
        """Set the internal cached inventory.
 
289
 
 
290
        :param inv: The inventory to set.
 
291
        :param dirty: A boolean indicating whether the inventory is the same
 
292
            logical inventory as whats on disk. If True the inventory is not
 
293
            the same and should be written to disk or data will be lost, if
 
294
            False then the inventory is the same as that on disk and any
 
295
            serialisation would be unneeded overhead.
 
296
        """
286
297
        self._inventory = inv
287
 
        self.path2id = self._inventory.path2id
288
 
 
289
 
    def is_control_filename(self, filename):
290
 
        """True if filename is the name of a control file in this tree.
291
 
        
292
 
        This is true IF and ONLY IF the filename is part of the meta data
293
 
        that bzr controls in this tree. I.E. a random .bzr directory placed
294
 
        on disk will not be a control file for this tree.
295
 
        """
296
 
        try:
297
 
            self.bzrdir.transport.relpath(self.abspath(filename))
298
 
            return True
299
 
        except errors.PathNotChild:
300
 
            return False
 
298
        self._inventory_is_modified = dirty
301
299
 
302
300
    @staticmethod
303
301
    def open(path=None, _unsupported=False):
319
317
        run into /.  If there isn't one, raises NotBranchError.
320
318
        TODO: give this a new exception.
321
319
        If there is one, it is returned, along with the unused portion of path.
 
320
 
 
321
        :return: The WorkingTree that contains 'path', and the rest of path
322
322
        """
323
323
        if path is None:
324
 
            path = os.getcwdu()
 
324
            path = osutils.getcwd()
325
325
        control, relpath = bzrdir.BzrDir.open_containing(path)
 
326
 
326
327
        return control.open_workingtree(), relpath
327
328
 
328
329
    @staticmethod
333
334
        """
334
335
        return WorkingTree.open(path, _unsupported=True)
335
336
 
 
337
    @staticmethod
 
338
    def find_trees(location):
 
339
        def list_current(transport):
 
340
            return [d for d in transport.list_dir('') if d != '.bzr']
 
341
        def evaluate(bzrdir):
 
342
            try:
 
343
                tree = bzrdir.open_workingtree()
 
344
            except errors.NoWorkingTree:
 
345
                return True, None
 
346
            else:
 
347
                return True, tree
 
348
        transport = get_transport(location)
 
349
        iterator = bzrdir.BzrDir.find_bzrdirs(transport, evaluate=evaluate,
 
350
                                              list_current=list_current)
 
351
        return [t for t in iterator if t is not None]
 
352
 
 
353
    # should be deprecated - this is slow and in any case treating them as a
 
354
    # container is (we now know) bad style -- mbp 20070302
 
355
    ## @deprecated_method(zero_fifteen)
336
356
    def __iter__(self):
337
357
        """Iterate through file_ids for this tree.
338
358
 
341
361
        """
342
362
        inv = self._inventory
343
363
        for path, ie in inv.iter_entries():
344
 
            if bzrlib.osutils.lexists(self.abspath(path)):
 
364
            if osutils.lexists(self.abspath(path)):
345
365
                yield ie.file_id
346
366
 
 
367
    def all_file_ids(self):
 
368
        """See Tree.iter_all_file_ids"""
 
369
        return set(self.inventory)
 
370
 
347
371
    def __repr__(self):
348
372
        return "<%s of %s>" % (self.__class__.__name__,
349
373
                               getattr(self, 'basedir', None))
350
374
 
351
375
    def abspath(self, filename):
352
376
        return pathjoin(self.basedir, filename)
353
 
    
 
377
 
354
378
    def basis_tree(self):
355
 
        """Return RevisionTree for the current last revision."""
356
 
        revision_id = self.last_revision()
357
 
        if revision_id is not None:
358
 
            try:
359
 
                xml = self.read_basis_inventory()
360
 
                inv = bzrlib.xml5.serializer_v5.read_inventory_from_string(xml)
361
 
            except NoSuchFile:
362
 
                inv = None
363
 
            if inv is not None and inv.revision_id == revision_id:
364
 
                return bzrlib.tree.RevisionTree(self.branch.repository, inv,
365
 
                                                revision_id)
366
 
        # FIXME? RBC 20060403 should we cache the inventory here ?
367
 
        return self.branch.repository.revision_tree(revision_id)
368
 
 
369
 
    @staticmethod
370
 
    @deprecated_method(zero_eight)
371
 
    def create(branch, directory):
372
 
        """Create a workingtree for branch at directory.
373
 
 
374
 
        If existing_directory already exists it must have a .bzr directory.
375
 
        If it does not exist, it will be created.
376
 
 
377
 
        This returns a new WorkingTree object for the new checkout.
378
 
 
379
 
        TODO FIXME RBC 20060124 when we have checkout formats in place this
380
 
        should accept an optional revisionid to checkout [and reject this if
381
 
        checking out into the same dir as a pre-checkout-aware branch format.]
382
 
 
383
 
        XXX: When BzrDir is present, these should be created through that 
384
 
        interface instead.
385
 
        """
386
 
        warn('delete WorkingTree.create', stacklevel=3)
387
 
        transport = get_transport(directory)
388
 
        if branch.bzrdir.root_transport.base == transport.base:
389
 
            # same dir 
390
 
            return branch.bzrdir.create_workingtree()
391
 
        # different directory, 
392
 
        # create a branch reference
393
 
        # and now a working tree.
394
 
        raise NotImplementedError
395
 
 
396
 
    @staticmethod
397
 
    @deprecated_method(zero_eight)
398
 
    def create_standalone(directory):
399
 
        """Create a checkout and a branch and a repo at directory.
400
 
 
401
 
        Directory must exist and be empty.
402
 
 
403
 
        please use BzrDir.create_standalone_workingtree
404
 
        """
405
 
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
406
 
 
407
 
    def relpath(self, abs):
408
 
        """Return the local path portion from a given absolute path."""
409
 
        return relpath(self.basedir, abs)
 
379
        """Return RevisionTree for the current last revision.
 
380
        
 
381
        If the left most parent is a ghost then the returned tree will be an
 
382
        empty tree - one obtained by calling repository.revision_tree(None).
 
383
        """
 
384
        try:
 
385
            revision_id = self.get_parent_ids()[0]
 
386
        except IndexError:
 
387
            # no parents, return an empty revision tree.
 
388
            # in the future this should return the tree for
 
389
            # 'empty:' - the implicit root empty tree.
 
390
            return self.branch.repository.revision_tree(None)
 
391
        try:
 
392
            return self.revision_tree(revision_id)
 
393
        except errors.NoSuchRevision:
 
394
            pass
 
395
        # No cached copy available, retrieve from the repository.
 
396
        # FIXME? RBC 20060403 should we cache the inventory locally
 
397
        # at this point ?
 
398
        try:
 
399
            return self.branch.repository.revision_tree(revision_id)
 
400
        except (errors.RevisionNotPresent, errors.NoSuchRevision):
 
401
            # the basis tree *may* be a ghost or a low level error may have
 
402
            # occured. If the revision is present, its a problem, if its not
 
403
            # its a ghost.
 
404
            if self.branch.repository.has_revision(revision_id):
 
405
                raise
 
406
            # the basis tree is a ghost so return an empty tree.
 
407
            return self.branch.repository.revision_tree(None)
 
408
 
 
409
    def _cleanup(self):
 
410
        self._flush_ignore_list_cache()
 
411
 
 
412
    def relpath(self, path):
 
413
        """Return the local path portion from a given path.
 
414
        
 
415
        The path may be absolute or relative. If its a relative path it is 
 
416
        interpreted relative to the python current working directory.
 
417
        """
 
418
        return osutils.relpath(self.basedir, path)
410
419
 
411
420
    def has_filename(self, filename):
412
 
        return bzrlib.osutils.lexists(self.abspath(filename))
413
 
 
414
 
    def get_file(self, file_id):
415
 
        return self.get_file_byname(self.id2path(file_id))
 
421
        return osutils.lexists(self.abspath(filename))
 
422
 
 
423
    def get_file(self, file_id, path=None):
 
424
        if path is None:
 
425
            path = self.id2path(file_id)
 
426
        return self.get_file_byname(path)
 
427
 
 
428
    def get_file_text(self, file_id):
 
429
        return self.get_file(file_id).read()
416
430
 
417
431
    def get_file_byname(self, filename):
418
432
        return file(self.abspath(filename), 'rb')
419
433
 
 
434
    @needs_read_lock
 
435
    def annotate_iter(self, file_id, default_revision=CURRENT_REVISION):
 
436
        """See Tree.annotate_iter
 
437
 
 
438
        This implementation will use the basis tree implementation if possible.
 
439
        Lines not in the basis are attributed to CURRENT_REVISION
 
440
 
 
441
        If there are pending merges, lines added by those merges will be
 
442
        incorrectly attributed to CURRENT_REVISION (but after committing, the
 
443
        attribution will be correct).
 
444
        """
 
445
        basis = self.basis_tree()
 
446
        basis.lock_read()
 
447
        try:
 
448
            changes = self.iter_changes(basis, True, [self.id2path(file_id)],
 
449
                require_versioned=True).next()
 
450
            changed_content, kind = changes[2], changes[6]
 
451
            if not changed_content:
 
452
                return basis.annotate_iter(file_id)
 
453
            if kind[1] is None:
 
454
                return None
 
455
            import annotate
 
456
            if kind[0] != 'file':
 
457
                old_lines = []
 
458
            else:
 
459
                old_lines = list(basis.annotate_iter(file_id))
 
460
            old = [old_lines]
 
461
            for tree in self.branch.repository.revision_trees(
 
462
                self.get_parent_ids()[1:]):
 
463
                if file_id not in tree:
 
464
                    continue
 
465
                old.append(list(tree.annotate_iter(file_id)))
 
466
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
 
467
                                       default_revision)
 
468
        finally:
 
469
            basis.unlock()
 
470
 
 
471
    def _get_ancestors(self, default_revision):
 
472
        ancestors = set([default_revision])
 
473
        for parent_id in self.get_parent_ids():
 
474
            ancestors.update(self.branch.repository.get_ancestry(
 
475
                             parent_id, topo_sorted=False))
 
476
        return ancestors
 
477
 
 
478
    def get_parent_ids(self):
 
479
        """See Tree.get_parent_ids.
 
480
        
 
481
        This implementation reads the pending merges list and last_revision
 
482
        value and uses that to decide what the parents list should be.
 
483
        """
 
484
        last_rev = _mod_revision.ensure_null(self._last_revision())
 
485
        if _mod_revision.NULL_REVISION == last_rev:
 
486
            parents = []
 
487
        else:
 
488
            parents = [last_rev]
 
489
        try:
 
490
            merges_file = self._transport.get('pending-merges')
 
491
        except errors.NoSuchFile:
 
492
            pass
 
493
        else:
 
494
            for l in merges_file.readlines():
 
495
                revision_id = l.rstrip('\n')
 
496
                parents.append(revision_id)
 
497
        return parents
 
498
 
 
499
    @needs_read_lock
420
500
    def get_root_id(self):
421
501
        """Return the id of this trees root"""
422
 
        inv = self.read_working_inventory()
423
 
        return inv.root.file_id
 
502
        return self._inventory.root.file_id
424
503
        
425
504
    def _get_store_filename(self, file_id):
426
505
        ## XXX: badly named; this is not in the store at all
427
506
        return self.abspath(self.id2path(file_id))
428
507
 
429
508
    @needs_read_lock
430
 
    def clone(self, to_bzrdir, revision_id=None, basis=None):
 
509
    def clone(self, to_bzrdir, revision_id=None):
431
510
        """Duplicate this working tree into to_bzr, including all state.
432
511
        
433
512
        Specifically modified files are kept as modified, but
439
518
            If not None, the cloned tree will have its last revision set to 
440
519
            revision, and and difference between the source trees last revision
441
520
            and this one merged in.
442
 
 
443
 
        basis
444
 
            If not None, a closer copy of a tree which may have some files in
445
 
            common, and which file content should be preferentially copied from.
446
521
        """
447
522
        # assumes the target bzr dir format is compatible.
448
523
        result = self._format.initialize(to_bzrdir)
452
527
    @needs_read_lock
453
528
    def copy_content_into(self, tree, revision_id=None):
454
529
        """Copy the current content and user files of this tree into tree."""
 
530
        tree.set_root_id(self.get_root_id())
455
531
        if revision_id is None:
456
 
            transform_tree(tree, self)
 
532
            merge.transform_tree(tree, self)
457
533
        else:
458
 
            # TODO now merge from tree.last_revision to revision
459
 
            transform_tree(tree, self)
460
 
            tree.set_last_revision(revision_id)
461
 
 
462
 
    @needs_write_lock
463
 
    def commit(self, message=None, revprops=None, *args, **kwargs):
464
 
        # avoid circular imports
465
 
        from bzrlib.commit import Commit
466
 
        if revprops is None:
467
 
            revprops = {}
468
 
        if not 'branch-nick' in revprops:
469
 
            revprops['branch-nick'] = self.branch.nick
470
 
        # args for wt.commit start at message from the Commit.commit method,
471
 
        # but with branch a kwarg now, passing in args as is results in the
472
 
        #message being used for the branch
473
 
        args = (DEPRECATED_PARAMETER, message, ) + args
474
 
        Commit().commit(working_tree=self, revprops=revprops, *args, **kwargs)
475
 
        self._set_inventory(self.read_working_inventory())
 
534
            # TODO now merge from tree.last_revision to revision (to preserve
 
535
            # user local changes)
 
536
            merge.transform_tree(tree, self)
 
537
            tree.set_parent_ids([revision_id])
476
538
 
477
539
    def id2abspath(self, file_id):
478
540
        return self.abspath(self.id2path(file_id))
479
541
 
480
542
    def has_id(self, file_id):
481
543
        # files that have been deleted are excluded
482
 
        inv = self._inventory
 
544
        inv = self.inventory
483
545
        if not inv.has_id(file_id):
484
546
            return False
485
547
        path = inv.id2path(file_id)
486
 
        return bzrlib.osutils.lexists(self.abspath(path))
 
548
        return osutils.lexists(self.abspath(path))
487
549
 
488
550
    def has_or_had_id(self, file_id):
489
551
        if file_id == self.inventory.root.file_id:
493
555
    __contains__ = has_id
494
556
 
495
557
    def get_file_size(self, file_id):
496
 
        return os.path.getsize(self.id2abspath(file_id))
 
558
        """See Tree.get_file_size"""
 
559
        try:
 
560
            return os.path.getsize(self.id2abspath(file_id))
 
561
        except OSError, e:
 
562
            if e.errno != errno.ENOENT:
 
563
                raise
 
564
            else:
 
565
                return None
497
566
 
498
567
    @needs_read_lock
499
 
    def get_file_sha1(self, file_id):
500
 
        path = self._inventory.id2path(file_id)
501
 
        return self._hashcache.get_sha1(path)
502
 
 
503
 
    def is_executable(self, file_id):
504
 
        if not supports_executable():
 
568
    def get_file_sha1(self, file_id, path=None, stat_value=None):
 
569
        if not path:
 
570
            path = self._inventory.id2path(file_id)
 
571
        return self._hashcache.get_sha1(path, stat_value)
 
572
 
 
573
    def get_file_mtime(self, file_id, path=None):
 
574
        if not path:
 
575
            path = self.inventory.id2path(file_id)
 
576
        return os.lstat(self.abspath(path)).st_mtime
 
577
 
 
578
    def _is_executable_from_path_and_stat_from_basis(self, path, stat_result):
 
579
        file_id = self.path2id(path)
 
580
        return self._inventory[file_id].executable
 
581
 
 
582
    def _is_executable_from_path_and_stat_from_stat(self, path, stat_result):
 
583
        mode = stat_result.st_mode
 
584
        return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
585
 
 
586
    if not supports_executable():
 
587
        def is_executable(self, file_id, path=None):
505
588
            return self._inventory[file_id].executable
506
 
        else:
507
 
            path = self._inventory.id2path(file_id)
 
589
 
 
590
        _is_executable_from_path_and_stat = \
 
591
            _is_executable_from_path_and_stat_from_basis
 
592
    else:
 
593
        def is_executable(self, file_id, path=None):
 
594
            if not path:
 
595
                path = self.id2path(file_id)
508
596
            mode = os.lstat(self.abspath(path)).st_mode
509
 
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC&mode)
510
 
 
511
 
    @needs_write_lock
512
 
    def add(self, files, ids=None):
513
 
        """Make files versioned.
514
 
 
515
 
        Note that the command line normally calls smart_add instead,
516
 
        which can automatically recurse.
517
 
 
518
 
        This adds the files to the inventory, so that they will be
519
 
        recorded by the next commit.
520
 
 
521
 
        files
522
 
            List of paths to add, relative to the base of the tree.
523
 
 
524
 
        ids
525
 
            If set, use these instead of automatically generated ids.
526
 
            Must be the same length as the list of files, but may
527
 
            contain None for ids that are to be autogenerated.
528
 
 
529
 
        TODO: Perhaps have an option to add the ids even if the files do
530
 
              not (yet) exist.
531
 
 
532
 
        TODO: Perhaps callback with the ids and paths as they're added.
533
 
        """
 
597
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
598
 
 
599
        _is_executable_from_path_and_stat = \
 
600
            _is_executable_from_path_and_stat_from_stat
 
601
 
 
602
    @needs_tree_write_lock
 
603
    def _add(self, files, ids, kinds):
 
604
        """See MutableTree._add."""
534
605
        # TODO: Re-adding a file that is removed in the working copy
535
606
        # should probably put it back with the previous ID.
536
 
        if isinstance(files, basestring):
537
 
            assert(ids is None or isinstance(ids, basestring))
538
 
            files = [files]
539
 
            if ids is not None:
540
 
                ids = [ids]
541
 
 
542
 
        if ids is None:
543
 
            ids = [None] * len(files)
544
 
        else:
545
 
            assert(len(ids) == len(files))
546
 
 
547
 
        inv = self.read_working_inventory()
548
 
        for f,file_id in zip(files, ids):
549
 
            if self.is_control_filename(f):
550
 
                raise BzrError("cannot add control file %s" % quotefn(f))
551
 
 
552
 
            fp = splitpath(f)
553
 
 
554
 
            if len(fp) == 0:
555
 
                raise BzrError("cannot add top-level %r" % f)
556
 
 
557
 
            fullpath = normpath(self.abspath(f))
558
 
 
559
 
            try:
560
 
                kind = file_kind(fullpath)
561
 
            except OSError, e:
562
 
                if e.errno == errno.ENOENT:
563
 
                    raise NoSuchFile(fullpath)
564
 
                # maybe something better?
565
 
                raise BzrError('cannot add: not a regular file, symlink or directory: %s' % quotefn(f))
566
 
 
567
 
            if not InventoryEntry.versionable_kind(kind):
568
 
                raise BzrError('cannot add: not a versionable file ('
569
 
                               'i.e. regular file, symlink or directory): %s' % quotefn(f))
570
 
 
 
607
        # the read and write working inventory should not occur in this 
 
608
        # function - they should be part of lock_write and unlock.
 
609
        inv = self.inventory
 
610
        for f, file_id, kind in zip(files, ids, kinds):
571
611
            if file_id is None:
572
 
                file_id = gen_file_id(f)
573
 
            inv.add_path(f, kind=kind, file_id=file_id)
 
612
                inv.add_path(f, kind=kind)
 
613
            else:
 
614
                inv.add_path(f, kind=kind, file_id=file_id)
 
615
            self._inventory_is_modified = True
574
616
 
575
 
            mutter("add file %s file_id:{%s} kind=%r" % (f, file_id, kind))
576
 
        self._write_inventory(inv)
 
617
    @needs_tree_write_lock
 
618
    def _gather_kinds(self, files, kinds):
 
619
        """See MutableTree._gather_kinds."""
 
620
        for pos, f in enumerate(files):
 
621
            if kinds[pos] is None:
 
622
                fullpath = normpath(self.abspath(f))
 
623
                try:
 
624
                    kinds[pos] = file_kind(fullpath)
 
625
                except OSError, e:
 
626
                    if e.errno == errno.ENOENT:
 
627
                        raise errors.NoSuchFile(fullpath)
577
628
 
578
629
    @needs_write_lock
 
630
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
 
631
        """Add revision_id as a parent.
 
632
 
 
633
        This is equivalent to retrieving the current list of parent ids
 
634
        and setting the list to its value plus revision_id.
 
635
 
 
636
        :param revision_id: The revision id to add to the parent list. It may
 
637
        be a ghost revision as long as its not the first parent to be added,
 
638
        or the allow_leftmost_as_ghost parameter is set True.
 
639
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
 
640
        """
 
641
        parents = self.get_parent_ids() + [revision_id]
 
642
        self.set_parent_ids(parents, allow_leftmost_as_ghost=len(parents) > 1
 
643
            or allow_leftmost_as_ghost)
 
644
 
 
645
    @needs_tree_write_lock
 
646
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
 
647
        """Add revision_id, tree tuple as a parent.
 
648
 
 
649
        This is equivalent to retrieving the current list of parent trees
 
650
        and setting the list to its value plus parent_tuple. See also
 
651
        add_parent_tree_id - if you only have a parent id available it will be
 
652
        simpler to use that api. If you have the parent already available, using
 
653
        this api is preferred.
 
654
 
 
655
        :param parent_tuple: The (revision id, tree) to add to the parent list.
 
656
            If the revision_id is a ghost, pass None for the tree.
 
657
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
 
658
        """
 
659
        parent_ids = self.get_parent_ids() + [parent_tuple[0]]
 
660
        if len(parent_ids) > 1:
 
661
            # the leftmost may have already been a ghost, preserve that if it
 
662
            # was.
 
663
            allow_leftmost_as_ghost = True
 
664
        self.set_parent_ids(parent_ids,
 
665
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
666
 
 
667
    @needs_tree_write_lock
579
668
    def add_pending_merge(self, *revision_ids):
580
669
        # TODO: Perhaps should check at this point that the
581
670
        # history of the revision is actually present?
582
 
        p = self.pending_merges()
 
671
        parents = self.get_parent_ids()
583
672
        updated = False
584
673
        for rev_id in revision_ids:
585
 
            if rev_id in p:
 
674
            if rev_id in parents:
586
675
                continue
587
 
            p.append(rev_id)
 
676
            parents.append(rev_id)
588
677
            updated = True
589
678
        if updated:
590
 
            self.set_pending_merges(p)
591
 
 
592
 
    @needs_read_lock
593
 
    def pending_merges(self):
594
 
        """Return a list of pending merges.
595
 
 
596
 
        These are revisions that have been merged into the working
597
 
        directory but not yet committed.
598
 
        """
 
679
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
 
680
 
 
681
    def path_content_summary(self, path, _lstat=os.lstat,
 
682
        _mapper=osutils.file_kind_from_stat_mode):
 
683
        """See Tree.path_content_summary."""
 
684
        abspath = self.abspath(path)
599
685
        try:
600
 
            merges_file = self._control_files.get_utf8('pending-merges')
 
686
            stat_result = _lstat(abspath)
601
687
        except OSError, e:
602
 
            if e.errno != errno.ENOENT:
603
 
                raise
604
 
            return []
605
 
        p = []
606
 
        for l in merges_file.readlines():
607
 
            p.append(l.rstrip('\n'))
608
 
        return p
609
 
 
610
 
    @needs_write_lock
 
688
            if getattr(e, 'errno', None) == errno.ENOENT:
 
689
                # no file.
 
690
                return ('missing', None, None, None)
 
691
            # propagate other errors
 
692
            raise
 
693
        kind = _mapper(stat_result.st_mode)
 
694
        if kind == 'file':
 
695
            size = stat_result.st_size
 
696
            # try for a stat cache lookup
 
697
            executable = self._is_executable_from_path_and_stat(path, stat_result)
 
698
            return (kind, size, executable, self._sha_from_stat(
 
699
                path, stat_result))
 
700
        elif kind == 'directory':
 
701
            # perhaps it looks like a plain directory, but it's really a
 
702
            # reference.
 
703
            if self._directory_is_tree_reference(path):
 
704
                kind = 'tree-reference'
 
705
            return kind, None, None, None
 
706
        elif kind == 'symlink':
 
707
            return ('symlink', None, None, os.readlink(abspath))
 
708
        else:
 
709
            return (kind, None, None, None)
 
710
 
 
711
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
 
712
        """Common ghost checking functionality from set_parent_*.
 
713
 
 
714
        This checks that the left hand-parent exists if there are any
 
715
        revisions present.
 
716
        """
 
717
        if len(revision_ids) > 0:
 
718
            leftmost_id = revision_ids[0]
 
719
            if (not allow_leftmost_as_ghost and not
 
720
                self.branch.repository.has_revision(leftmost_id)):
 
721
                raise errors.GhostRevisionUnusableHere(leftmost_id)
 
722
 
 
723
    def _set_merges_from_parent_ids(self, parent_ids):
 
724
        merges = parent_ids[1:]
 
725
        self._transport.put_bytes('pending-merges', '\n'.join(merges),
 
726
            mode=self._control_files._file_mode)
 
727
 
 
728
    def _filter_parent_ids_by_ancestry(self, revision_ids):
 
729
        """Check that all merged revisions are proper 'heads'.
 
730
 
 
731
        This will always return the first revision_id, and any merged revisions
 
732
        which are 
 
733
        """
 
734
        if len(revision_ids) == 0:
 
735
            return revision_ids
 
736
        graph = self.branch.repository.get_graph()
 
737
        heads = graph.heads(revision_ids)
 
738
        new_revision_ids = revision_ids[:1]
 
739
        for revision_id in revision_ids[1:]:
 
740
            if revision_id in heads and revision_id not in new_revision_ids:
 
741
                new_revision_ids.append(revision_id)
 
742
        if new_revision_ids != revision_ids:
 
743
            trace.mutter('requested to set revision_ids = %s,'
 
744
                         ' but filtered to %s', revision_ids, new_revision_ids)
 
745
        return new_revision_ids
 
746
 
 
747
    @needs_tree_write_lock
 
748
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
 
749
        """Set the parent ids to revision_ids.
 
750
        
 
751
        See also set_parent_trees. This api will try to retrieve the tree data
 
752
        for each element of revision_ids from the trees repository. If you have
 
753
        tree data already available, it is more efficient to use
 
754
        set_parent_trees rather than set_parent_ids. set_parent_ids is however
 
755
        an easier API to use.
 
756
 
 
757
        :param revision_ids: The revision_ids to set as the parent ids of this
 
758
            working tree. Any of these may be ghosts.
 
759
        """
 
760
        self._check_parents_for_ghosts(revision_ids,
 
761
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
762
        for revision_id in revision_ids:
 
763
            _mod_revision.check_not_reserved_id(revision_id)
 
764
 
 
765
        revision_ids = self._filter_parent_ids_by_ancestry(revision_ids)
 
766
 
 
767
        if len(revision_ids) > 0:
 
768
            self.set_last_revision(revision_ids[0])
 
769
        else:
 
770
            self.set_last_revision(_mod_revision.NULL_REVISION)
 
771
 
 
772
        self._set_merges_from_parent_ids(revision_ids)
 
773
 
 
774
    @needs_tree_write_lock
 
775
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
 
776
        """See MutableTree.set_parent_trees."""
 
777
        parent_ids = [rev for (rev, tree) in parents_list]
 
778
        for revision_id in parent_ids:
 
779
            _mod_revision.check_not_reserved_id(revision_id)
 
780
 
 
781
        self._check_parents_for_ghosts(parent_ids,
 
782
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
783
 
 
784
        parent_ids = self._filter_parent_ids_by_ancestry(parent_ids)
 
785
 
 
786
        if len(parent_ids) == 0:
 
787
            leftmost_parent_id = _mod_revision.NULL_REVISION
 
788
            leftmost_parent_tree = None
 
789
        else:
 
790
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
 
791
 
 
792
        if self._change_last_revision(leftmost_parent_id):
 
793
            if leftmost_parent_tree is None:
 
794
                # If we don't have a tree, fall back to reading the
 
795
                # parent tree from the repository.
 
796
                self._cache_basis_inventory(leftmost_parent_id)
 
797
            else:
 
798
                inv = leftmost_parent_tree.inventory
 
799
                xml = self._create_basis_xml_from_inventory(
 
800
                                        leftmost_parent_id, inv)
 
801
                self._write_basis_inventory(xml)
 
802
        self._set_merges_from_parent_ids(parent_ids)
 
803
 
 
804
    @needs_tree_write_lock
611
805
    def set_pending_merges(self, rev_list):
612
 
        self._control_files.put_utf8('pending-merges', '\n'.join(rev_list))
 
806
        parents = self.get_parent_ids()
 
807
        leftmost = parents[:1]
 
808
        new_parents = leftmost + rev_list
 
809
        self.set_parent_ids(new_parents)
613
810
 
614
 
    @needs_write_lock
 
811
    @needs_tree_write_lock
615
812
    def set_merge_modified(self, modified_hashes):
616
813
        def iter_stanzas():
617
814
            for file_id, hash in modified_hashes.iteritems():
618
 
                yield Stanza(file_id=file_id, hash=hash)
 
815
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
619
816
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
620
817
 
621
 
    @needs_write_lock
 
818
    def _sha_from_stat(self, path, stat_result):
 
819
        """Get a sha digest from the tree's stat cache.
 
820
 
 
821
        The default implementation assumes no stat cache is present.
 
822
 
 
823
        :param path: The path.
 
824
        :param stat_result: The stat result being looked up.
 
825
        """
 
826
        return None
 
827
 
622
828
    def _put_rio(self, filename, stanzas, header):
 
829
        self._must_be_locked()
623
830
        my_file = rio_file(stanzas, header)
624
 
        self._control_files.put(filename, my_file)
 
831
        self._transport.put_file(filename, my_file,
 
832
            mode=self._control_files._file_mode)
 
833
 
 
834
    @needs_write_lock # because merge pulls data into the branch.
 
835
    def merge_from_branch(self, branch, to_revision=None, from_revision=None,
 
836
        merge_type=None):
 
837
        """Merge from a branch into this working tree.
 
838
 
 
839
        :param branch: The branch to merge from.
 
840
        :param to_revision: If non-None, the merge will merge to to_revision,
 
841
            but not beyond it. to_revision does not need to be in the history
 
842
            of the branch when it is supplied. If None, to_revision defaults to
 
843
            branch.last_revision().
 
844
        """
 
845
        from bzrlib.merge import Merger, Merge3Merger
 
846
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
847
        try:
 
848
            merger = Merger(self.branch, this_tree=self, pb=pb)
 
849
            merger.pp = ProgressPhase("Merge phase", 5, pb)
 
850
            merger.pp.next_phase()
 
851
            # check that there are no
 
852
            # local alterations
 
853
            merger.check_basis(check_clean=True, require_commits=False)
 
854
            if to_revision is None:
 
855
                to_revision = _mod_revision.ensure_null(branch.last_revision())
 
856
            merger.other_rev_id = to_revision
 
857
            if _mod_revision.is_null(merger.other_rev_id):
 
858
                raise errors.NoCommits(branch)
 
859
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
 
860
            merger.other_basis = merger.other_rev_id
 
861
            merger.other_tree = self.branch.repository.revision_tree(
 
862
                merger.other_rev_id)
 
863
            merger.other_branch = branch
 
864
            merger.pp.next_phase()
 
865
            if from_revision is None:
 
866
                merger.find_base()
 
867
            else:
 
868
                merger.set_base_revision(from_revision, branch)
 
869
            if merger.base_rev_id == merger.other_rev_id:
 
870
                raise errors.PointlessMerge
 
871
            merger.backup_files = False
 
872
            if merge_type is None:
 
873
                merger.merge_type = Merge3Merger
 
874
            else:
 
875
                merger.merge_type = merge_type
 
876
            merger.set_interesting_files(None)
 
877
            merger.show_base = False
 
878
            merger.reprocess = False
 
879
            conflicts = merger.do_merge()
 
880
            merger.set_pending()
 
881
        finally:
 
882
            pb.finished()
 
883
        return conflicts
625
884
 
626
885
    @needs_read_lock
627
886
    def merge_modified(self):
 
887
        """Return a dictionary of files modified by a merge.
 
888
 
 
889
        The list is initialized by WorkingTree.set_merge_modified, which is 
 
890
        typically called after we make some automatic updates to the tree
 
891
        because of a merge.
 
892
 
 
893
        This returns a map of file_id->sha1, containing only files which are
 
894
        still in the working inventory and have that text hash.
 
895
        """
628
896
        try:
629
 
            hashfile = self._control_files.get('merge-hashes')
630
 
        except NoSuchFile:
 
897
            hashfile = self._transport.get('merge-hashes')
 
898
        except errors.NoSuchFile:
631
899
            return {}
632
900
        merge_hashes = {}
633
901
        try:
634
902
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
635
 
                raise MergeModifiedFormatError()
 
903
                raise errors.MergeModifiedFormatError()
636
904
        except StopIteration:
637
 
            raise MergeModifiedFormatError()
 
905
            raise errors.MergeModifiedFormatError()
638
906
        for s in RioReader(hashfile):
639
 
            file_id = s.get("file_id")
 
907
            # RioReader reads in Unicode, so convert file_ids back to utf8
 
908
            file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
640
909
            if file_id not in self.inventory:
641
910
                continue
642
 
            hash = s.get("hash")
643
 
            if hash == self.get_file_sha1(file_id):
644
 
                merge_hashes[file_id] = hash
 
911
            text_hash = s.get("hash")
 
912
            if text_hash == self.get_file_sha1(file_id):
 
913
                merge_hashes[file_id] = text_hash
645
914
        return merge_hashes
646
915
 
 
916
    @needs_write_lock
 
917
    def mkdir(self, path, file_id=None):
 
918
        """See MutableTree.mkdir()."""
 
919
        if file_id is None:
 
920
            file_id = generate_ids.gen_file_id(os.path.basename(path))
 
921
        os.mkdir(self.abspath(path))
 
922
        self.add(path, file_id, 'directory')
 
923
        return file_id
 
924
 
647
925
    def get_symlink_target(self, file_id):
648
926
        return os.readlink(self.id2abspath(file_id))
649
927
 
650
 
    def file_class(self, filename):
651
 
        if self.path2id(filename):
652
 
            return 'V'
653
 
        elif self.is_ignored(filename):
654
 
            return 'I'
655
 
        else:
656
 
            return '?'
657
 
 
658
 
    def list_files(self):
659
 
        """Recursively list all files as (path, class, kind, id).
 
928
    @needs_write_lock
 
929
    def subsume(self, other_tree):
 
930
        def add_children(inventory, entry):
 
931
            for child_entry in entry.children.values():
 
932
                inventory._byid[child_entry.file_id] = child_entry
 
933
                if child_entry.kind == 'directory':
 
934
                    add_children(inventory, child_entry)
 
935
        if other_tree.get_root_id() == self.get_root_id():
 
936
            raise errors.BadSubsumeSource(self, other_tree,
 
937
                                          'Trees have the same root')
 
938
        try:
 
939
            other_tree_path = self.relpath(other_tree.basedir)
 
940
        except errors.PathNotChild:
 
941
            raise errors.BadSubsumeSource(self, other_tree,
 
942
                'Tree is not contained by the other')
 
943
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
 
944
        if new_root_parent is None:
 
945
            raise errors.BadSubsumeSource(self, other_tree,
 
946
                'Parent directory is not versioned.')
 
947
        # We need to ensure that the result of a fetch will have a
 
948
        # versionedfile for the other_tree root, and only fetching into
 
949
        # RepositoryKnit2 guarantees that.
 
950
        if not self.branch.repository.supports_rich_root():
 
951
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
 
952
        other_tree.lock_tree_write()
 
953
        try:
 
954
            new_parents = other_tree.get_parent_ids()
 
955
            other_root = other_tree.inventory.root
 
956
            other_root.parent_id = new_root_parent
 
957
            other_root.name = osutils.basename(other_tree_path)
 
958
            self.inventory.add(other_root)
 
959
            add_children(self.inventory, other_root)
 
960
            self._write_inventory(self.inventory)
 
961
            # normally we don't want to fetch whole repositories, but i think
 
962
            # here we really do want to consolidate the whole thing.
 
963
            for parent_id in other_tree.get_parent_ids():
 
964
                self.branch.fetch(other_tree.branch, parent_id)
 
965
                self.add_parent_tree_id(parent_id)
 
966
        finally:
 
967
            other_tree.unlock()
 
968
        other_tree.bzrdir.retire_bzrdir()
 
969
 
 
970
    def _setup_directory_is_tree_reference(self):
 
971
        if self._branch.repository._format.supports_tree_reference:
 
972
            self._directory_is_tree_reference = \
 
973
                self._directory_may_be_tree_reference
 
974
        else:
 
975
            self._directory_is_tree_reference = \
 
976
                self._directory_is_never_tree_reference
 
977
 
 
978
    def _directory_is_never_tree_reference(self, relpath):
 
979
        return False
 
980
 
 
981
    def _directory_may_be_tree_reference(self, relpath):
 
982
        # as a special case, if a directory contains control files then 
 
983
        # it's a tree reference, except that the root of the tree is not
 
984
        return relpath and osutils.isdir(self.abspath(relpath) + u"/.bzr")
 
985
        # TODO: We could ask all the control formats whether they
 
986
        # recognize this directory, but at the moment there's no cheap api
 
987
        # to do that.  Since we probably can only nest bzr checkouts and
 
988
        # they always use this name it's ok for now.  -- mbp 20060306
 
989
        #
 
990
        # FIXME: There is an unhandled case here of a subdirectory
 
991
        # containing .bzr but not a branch; that will probably blow up
 
992
        # when you try to commit it.  It might happen if there is a
 
993
        # checkout in a subdirectory.  This can be avoided by not adding
 
994
        # it.  mbp 20070306
 
995
 
 
996
    @needs_tree_write_lock
 
997
    def extract(self, file_id, format=None):
 
998
        """Extract a subtree from this tree.
 
999
        
 
1000
        A new branch will be created, relative to the path for this tree.
 
1001
        """
 
1002
        self.flush()
 
1003
        def mkdirs(path):
 
1004
            segments = osutils.splitpath(path)
 
1005
            transport = self.branch.bzrdir.root_transport
 
1006
            for name in segments:
 
1007
                transport = transport.clone(name)
 
1008
                transport.ensure_base()
 
1009
            return transport
 
1010
            
 
1011
        sub_path = self.id2path(file_id)
 
1012
        branch_transport = mkdirs(sub_path)
 
1013
        if format is None:
 
1014
            format = self.bzrdir.cloning_metadir()
 
1015
        branch_transport.ensure_base()
 
1016
        branch_bzrdir = format.initialize_on_transport(branch_transport)
 
1017
        try:
 
1018
            repo = branch_bzrdir.find_repository()
 
1019
        except errors.NoRepositoryPresent:
 
1020
            repo = branch_bzrdir.create_repository()
 
1021
        if not repo.supports_rich_root():
 
1022
            raise errors.RootNotRich()
 
1023
        new_branch = branch_bzrdir.create_branch()
 
1024
        new_branch.pull(self.branch)
 
1025
        for parent_id in self.get_parent_ids():
 
1026
            new_branch.fetch(self.branch, parent_id)
 
1027
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
 
1028
        if tree_transport.base != branch_transport.base:
 
1029
            tree_bzrdir = format.initialize_on_transport(tree_transport)
 
1030
            branch.BranchReferenceFormat().initialize(tree_bzrdir, new_branch)
 
1031
        else:
 
1032
            tree_bzrdir = branch_bzrdir
 
1033
        wt = tree_bzrdir.create_workingtree(NULL_REVISION)
 
1034
        wt.set_parent_ids(self.get_parent_ids())
 
1035
        my_inv = self.inventory
 
1036
        child_inv = Inventory(root_id=None)
 
1037
        new_root = my_inv[file_id]
 
1038
        my_inv.remove_recursive_id(file_id)
 
1039
        new_root.parent_id = None
 
1040
        child_inv.add(new_root)
 
1041
        self._write_inventory(my_inv)
 
1042
        wt._write_inventory(child_inv)
 
1043
        return wt
 
1044
 
 
1045
    def _serialize(self, inventory, out_file):
 
1046
        xml5.serializer_v5.write_inventory(self._inventory, out_file,
 
1047
            working=True)
 
1048
 
 
1049
    def _deserialize(selt, in_file):
 
1050
        return xml5.serializer_v5.read_inventory(in_file)
 
1051
 
 
1052
    def flush(self):
 
1053
        """Write the in memory inventory to disk."""
 
1054
        # TODO: Maybe this should only write on dirty ?
 
1055
        if self._control_files._lock_mode != 'w':
 
1056
            raise errors.NotWriteLocked(self)
 
1057
        sio = StringIO()
 
1058
        self._serialize(self._inventory, sio)
 
1059
        sio.seek(0)
 
1060
        self._transport.put_file('inventory', sio,
 
1061
            mode=self._control_files._file_mode)
 
1062
        self._inventory_is_modified = False
 
1063
 
 
1064
    def _kind(self, relpath):
 
1065
        return osutils.file_kind(self.abspath(relpath))
 
1066
 
 
1067
    def list_files(self, include_root=False):
 
1068
        """Recursively list all files as (path, class, kind, id, entry).
660
1069
 
661
1070
        Lists, but does not descend into unversioned directories.
662
1071
 
665
1074
 
666
1075
        Skips the control directory.
667
1076
        """
668
 
        inv = self._inventory
669
 
 
670
 
        def descend(from_dir_relpath, from_dir_id, dp):
671
 
            ls = os.listdir(dp)
672
 
            ls.sort()
673
 
            for f in ls:
 
1077
        # list_files is an iterator, so @needs_read_lock doesn't work properly
 
1078
        # with it. So callers should be careful to always read_lock the tree.
 
1079
        if not self.is_locked():
 
1080
            raise errors.ObjectNotLocked(self)
 
1081
 
 
1082
        inv = self.inventory
 
1083
        if include_root is True:
 
1084
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
 
1085
        # Convert these into local objects to save lookup times
 
1086
        pathjoin = osutils.pathjoin
 
1087
        file_kind = self._kind
 
1088
 
 
1089
        # transport.base ends in a slash, we want the piece
 
1090
        # between the last two slashes
 
1091
        transport_base_dir = self.bzrdir.transport.base.rsplit('/', 2)[1]
 
1092
 
 
1093
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
 
1094
 
 
1095
        # directory file_id, relative path, absolute path, reverse sorted children
 
1096
        children = os.listdir(self.basedir)
 
1097
        children.sort()
 
1098
        # jam 20060527 The kernel sized tree seems equivalent whether we 
 
1099
        # use a deque and popleft to keep them sorted, or if we use a plain
 
1100
        # list and just reverse() them.
 
1101
        children = collections.deque(children)
 
1102
        stack = [(inv.root.file_id, u'', self.basedir, children)]
 
1103
        while stack:
 
1104
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
 
1105
 
 
1106
            while children:
 
1107
                f = children.popleft()
674
1108
                ## TODO: If we find a subdirectory with its own .bzr
675
1109
                ## directory, then that is a separate tree and we
676
1110
                ## should exclude it.
677
1111
 
678
1112
                # the bzrdir for this tree
679
 
                if self.bzrdir.transport.base.endswith(f + '/'):
 
1113
                if transport_base_dir == f:
680
1114
                    continue
681
1115
 
682
 
                # path within tree
683
 
                fp = appendpath(from_dir_relpath, f)
 
1116
                # we know that from_dir_relpath and from_dir_abspath never end in a slash
 
1117
                # and 'f' doesn't begin with one, we can do a string op, rather
 
1118
                # than the checks of pathjoin(), all relative paths will have an extra slash
 
1119
                # at the beginning
 
1120
                fp = from_dir_relpath + '/' + f
684
1121
 
685
1122
                # absolute path
686
 
                fap = appendpath(dp, f)
 
1123
                fap = from_dir_abspath + '/' + f
687
1124
                
688
1125
                f_ie = inv.get_child(from_dir_id, f)
689
1126
                if f_ie:
690
1127
                    c = 'V'
691
 
                elif self.is_ignored(fp):
 
1128
                elif self.is_ignored(fp[1:]):
692
1129
                    c = 'I'
693
1130
                else:
694
 
                    c = '?'
 
1131
                    # we may not have found this file, because of a unicode issue
 
1132
                    f_norm, can_access = osutils.normalized_filename(f)
 
1133
                    if f == f_norm or not can_access:
 
1134
                        # No change, so treat this file normally
 
1135
                        c = '?'
 
1136
                    else:
 
1137
                        # this file can be accessed by a normalized path
 
1138
                        # check again if it is versioned
 
1139
                        # these lines are repeated here for performance
 
1140
                        f = f_norm
 
1141
                        fp = from_dir_relpath + '/' + f
 
1142
                        fap = from_dir_abspath + '/' + f
 
1143
                        f_ie = inv.get_child(from_dir_id, f)
 
1144
                        if f_ie:
 
1145
                            c = 'V'
 
1146
                        elif self.is_ignored(fp[1:]):
 
1147
                            c = 'I'
 
1148
                        else:
 
1149
                            c = '?'
695
1150
 
696
1151
                fk = file_kind(fap)
697
1152
 
698
 
                if f_ie:
699
 
                    if f_ie.kind != fk:
700
 
                        raise BzrCheckError("file %r entered as kind %r id %r, "
701
 
                                            "now of kind %r"
702
 
                                            % (fap, f_ie.kind, f_ie.file_id, fk))
703
 
 
704
1153
                # make a last minute entry
705
1154
                if f_ie:
706
 
                    entry = f_ie
 
1155
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
707
1156
                else:
708
 
                    if fk == 'directory':
709
 
                        entry = TreeDirectory()
710
 
                    elif fk == 'file':
711
 
                        entry = TreeFile()
712
 
                    elif fk == 'symlink':
713
 
                        entry = TreeLink()
714
 
                    else:
715
 
                        entry = TreeEntry()
 
1157
                    try:
 
1158
                        yield fp[1:], c, fk, None, fk_entries[fk]()
 
1159
                    except KeyError:
 
1160
                        yield fp[1:], c, fk, None, TreeEntry()
 
1161
                    continue
716
1162
                
717
 
                yield fp, c, fk, (f_ie and f_ie.file_id), entry
718
 
 
719
1163
                if fk != 'directory':
720
1164
                    continue
721
1165
 
722
 
                if c != 'V':
723
 
                    # don't descend unversioned directories
724
 
                    continue
725
 
                
726
 
                for ff in descend(fp, f_ie.file_id, fap):
727
 
                    yield ff
728
 
 
729
 
        for f in descend(u'', inv.root.file_id, self.basedir):
730
 
            yield f
731
 
 
732
 
    @needs_write_lock
733
 
    def move(self, from_paths, to_name):
 
1166
                # But do this child first
 
1167
                new_children = os.listdir(fap)
 
1168
                new_children.sort()
 
1169
                new_children = collections.deque(new_children)
 
1170
                stack.append((f_ie.file_id, fp, fap, new_children))
 
1171
                # Break out of inner loop,
 
1172
                # so that we start outer loop with child
 
1173
                break
 
1174
            else:
 
1175
                # if we finished all children, pop it off the stack
 
1176
                stack.pop()
 
1177
 
 
1178
    @needs_tree_write_lock
 
1179
    def move(self, from_paths, to_dir=None, after=False, **kwargs):
734
1180
        """Rename files.
735
1181
 
736
 
        to_name must exist in the inventory.
 
1182
        to_dir must exist in the inventory.
737
1183
 
738
 
        If to_name exists and is a directory, the files are moved into
 
1184
        If to_dir exists and is a directory, the files are moved into
739
1185
        it, keeping their old names.  
740
1186
 
741
 
        Note that to_name is only the last component of the new name;
 
1187
        Note that to_dir is only the last component of the new name;
742
1188
        this doesn't change the directory.
743
1189
 
 
1190
        For each entry in from_paths the move mode will be determined
 
1191
        independently.
 
1192
 
 
1193
        The first mode moves the file in the filesystem and updates the
 
1194
        inventory. The second mode only updates the inventory without
 
1195
        touching the file on the filesystem. This is the new mode introduced
 
1196
        in version 0.15.
 
1197
 
 
1198
        move uses the second mode if 'after == True' and the target is not
 
1199
        versioned but present in the working tree.
 
1200
 
 
1201
        move uses the second mode if 'after == False' and the source is
 
1202
        versioned but no longer in the working tree, and the target is not
 
1203
        versioned but present in the working tree.
 
1204
 
 
1205
        move uses the first mode if 'after == False' and the source is
 
1206
        versioned and present in the working tree, and the target is not
 
1207
        versioned and not present in the working tree.
 
1208
 
 
1209
        Everything else results in an error.
 
1210
 
744
1211
        This returns a list of (from_path, to_path) pairs for each
745
1212
        entry that is moved.
746
1213
        """
747
 
        result = []
748
 
        ## TODO: Option to move IDs only
749
 
        assert not isinstance(from_paths, basestring)
 
1214
        rename_entries = []
 
1215
        rename_tuples = []
 
1216
 
 
1217
        # check for deprecated use of signature
 
1218
        if to_dir is None:
 
1219
            to_dir = kwargs.get('to_name', None)
 
1220
            if to_dir is None:
 
1221
                raise TypeError('You must supply a target directory')
 
1222
            else:
 
1223
                symbol_versioning.warn('The parameter to_name was deprecated'
 
1224
                                       ' in version 0.13. Use to_dir instead',
 
1225
                                       DeprecationWarning)
 
1226
 
 
1227
        # check destination directory
 
1228
        if isinstance(from_paths, basestring):
 
1229
            raise ValueError()
750
1230
        inv = self.inventory
751
 
        to_abs = self.abspath(to_name)
 
1231
        to_abs = self.abspath(to_dir)
752
1232
        if not isdir(to_abs):
753
 
            raise BzrError("destination %r is not a directory" % to_abs)
754
 
        if not self.has_filename(to_name):
755
 
            raise BzrError("destination %r not in working directory" % to_abs)
756
 
        to_dir_id = inv.path2id(to_name)
757
 
        if to_dir_id == None and to_name != '':
758
 
            raise BzrError("destination %r is not a versioned directory" % to_name)
 
1233
            raise errors.BzrMoveFailedError('',to_dir,
 
1234
                errors.NotADirectory(to_abs))
 
1235
        if not self.has_filename(to_dir):
 
1236
            raise errors.BzrMoveFailedError('',to_dir,
 
1237
                errors.NotInWorkingDirectory(to_dir))
 
1238
        to_dir_id = inv.path2id(to_dir)
 
1239
        if to_dir_id is None:
 
1240
            raise errors.BzrMoveFailedError('',to_dir,
 
1241
                errors.NotVersionedError(path=str(to_dir)))
 
1242
 
759
1243
        to_dir_ie = inv[to_dir_id]
760
 
        if to_dir_ie.kind not in ('directory', 'root_directory'):
761
 
            raise BzrError("destination %r is not a directory" % to_abs)
762
 
 
763
 
        to_idpath = inv.get_idpath(to_dir_id)
764
 
 
765
 
        for f in from_paths:
766
 
            if not self.has_filename(f):
767
 
                raise BzrError("%r does not exist in working tree" % f)
768
 
            f_id = inv.path2id(f)
769
 
            if f_id == None:
770
 
                raise BzrError("%r is not versioned" % f)
771
 
            name_tail = splitpath(f)[-1]
772
 
            dest_path = appendpath(to_name, name_tail)
773
 
            if self.has_filename(dest_path):
774
 
                raise BzrError("destination %r already exists" % dest_path)
775
 
            if f_id in to_idpath:
776
 
                raise BzrError("can't move %r to a subdirectory of itself" % f)
777
 
 
778
 
        # OK, so there's a race here, it's possible that someone will
779
 
        # create a file in this interval and then the rename might be
780
 
        # left half-done.  But we should have caught most problems.
781
 
        orig_inv = deepcopy(self.inventory)
 
1244
        if to_dir_ie.kind != 'directory':
 
1245
            raise errors.BzrMoveFailedError('',to_dir,
 
1246
                errors.NotADirectory(to_abs))
 
1247
 
 
1248
        # create rename entries and tuples
 
1249
        for from_rel in from_paths:
 
1250
            from_tail = splitpath(from_rel)[-1]
 
1251
            from_id = inv.path2id(from_rel)
 
1252
            if from_id is None:
 
1253
                raise errors.BzrMoveFailedError(from_rel,to_dir,
 
1254
                    errors.NotVersionedError(path=str(from_rel)))
 
1255
 
 
1256
            from_entry = inv[from_id]
 
1257
            from_parent_id = from_entry.parent_id
 
1258
            to_rel = pathjoin(to_dir, from_tail)
 
1259
            rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
 
1260
                                         from_id=from_id,
 
1261
                                         from_tail=from_tail,
 
1262
                                         from_parent_id=from_parent_id,
 
1263
                                         to_rel=to_rel, to_tail=from_tail,
 
1264
                                         to_parent_id=to_dir_id)
 
1265
            rename_entries.append(rename_entry)
 
1266
            rename_tuples.append((from_rel, to_rel))
 
1267
 
 
1268
        # determine which move mode to use. checks also for movability
 
1269
        rename_entries = self._determine_mv_mode(rename_entries, after)
 
1270
 
 
1271
        original_modified = self._inventory_is_modified
782
1272
        try:
783
 
            for f in from_paths:
784
 
                name_tail = splitpath(f)[-1]
785
 
                dest_path = appendpath(to_name, name_tail)
786
 
                result.append((f, dest_path))
787
 
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
788
 
                try:
789
 
                    rename(self.abspath(f), self.abspath(dest_path))
790
 
                except OSError, e:
791
 
                    raise BzrError("failed to rename %r to %r: %s" %
792
 
                                   (f, dest_path, e[1]),
793
 
                            ["rename rolled back"])
 
1273
            if len(from_paths):
 
1274
                self._inventory_is_modified = True
 
1275
            self._move(rename_entries)
794
1276
        except:
795
1277
            # restore the inventory on error
796
 
            self._set_inventory(orig_inv)
 
1278
            self._inventory_is_modified = original_modified
797
1279
            raise
798
1280
        self._write_inventory(inv)
799
 
        return result
800
 
 
801
 
    @needs_write_lock
802
 
    def rename_one(self, from_rel, to_rel):
 
1281
        return rename_tuples
 
1282
 
 
1283
    def _determine_mv_mode(self, rename_entries, after=False):
 
1284
        """Determines for each from-to pair if both inventory and working tree
 
1285
        or only the inventory has to be changed.
 
1286
 
 
1287
        Also does basic plausability tests.
 
1288
        """
 
1289
        inv = self.inventory
 
1290
 
 
1291
        for rename_entry in rename_entries:
 
1292
            # store to local variables for easier reference
 
1293
            from_rel = rename_entry.from_rel
 
1294
            from_id = rename_entry.from_id
 
1295
            to_rel = rename_entry.to_rel
 
1296
            to_id = inv.path2id(to_rel)
 
1297
            only_change_inv = False
 
1298
 
 
1299
            # check the inventory for source and destination
 
1300
            if from_id is None:
 
1301
                raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1302
                    errors.NotVersionedError(path=str(from_rel)))
 
1303
            if to_id is not None:
 
1304
                raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1305
                    errors.AlreadyVersionedError(path=str(to_rel)))
 
1306
 
 
1307
            # try to determine the mode for rename (only change inv or change
 
1308
            # inv and file system)
 
1309
            if after:
 
1310
                if not self.has_filename(to_rel):
 
1311
                    raise errors.BzrMoveFailedError(from_id,to_rel,
 
1312
                        errors.NoSuchFile(path=str(to_rel),
 
1313
                        extra="New file has not been created yet"))
 
1314
                only_change_inv = True
 
1315
            elif not self.has_filename(from_rel) and self.has_filename(to_rel):
 
1316
                only_change_inv = True
 
1317
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
 
1318
                only_change_inv = False
 
1319
            elif (sys.platform == 'win32'
 
1320
                and from_rel.lower() == to_rel.lower()
 
1321
                and self.has_filename(from_rel)):
 
1322
                only_change_inv = False
 
1323
            else:
 
1324
                # something is wrong, so lets determine what exactly
 
1325
                if not self.has_filename(from_rel) and \
 
1326
                   not self.has_filename(to_rel):
 
1327
                    raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1328
                        errors.PathsDoNotExist(paths=(str(from_rel),
 
1329
                        str(to_rel))))
 
1330
                else:
 
1331
                    raise errors.RenameFailedFilesExist(from_rel, to_rel)
 
1332
            rename_entry.only_change_inv = only_change_inv
 
1333
        return rename_entries
 
1334
 
 
1335
    def _move(self, rename_entries):
 
1336
        """Moves a list of files.
 
1337
 
 
1338
        Depending on the value of the flag 'only_change_inv', the
 
1339
        file will be moved on the file system or not.
 
1340
        """
 
1341
        inv = self.inventory
 
1342
        moved = []
 
1343
 
 
1344
        for entry in rename_entries:
 
1345
            try:
 
1346
                self._move_entry(entry)
 
1347
            except:
 
1348
                self._rollback_move(moved)
 
1349
                raise
 
1350
            moved.append(entry)
 
1351
 
 
1352
    def _rollback_move(self, moved):
 
1353
        """Try to rollback a previous move in case of an filesystem error."""
 
1354
        inv = self.inventory
 
1355
        for entry in moved:
 
1356
            try:
 
1357
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
 
1358
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
 
1359
                    entry.from_tail, entry.from_parent_id,
 
1360
                    entry.only_change_inv))
 
1361
            except errors.BzrMoveFailedError, e:
 
1362
                raise errors.BzrMoveFailedError( '', '', "Rollback failed."
 
1363
                        " The working tree is in an inconsistent state."
 
1364
                        " Please consider doing a 'bzr revert'."
 
1365
                        " Error message is: %s" % e)
 
1366
 
 
1367
    def _move_entry(self, entry):
 
1368
        inv = self.inventory
 
1369
        from_rel_abs = self.abspath(entry.from_rel)
 
1370
        to_rel_abs = self.abspath(entry.to_rel)
 
1371
        if from_rel_abs == to_rel_abs:
 
1372
            raise errors.BzrMoveFailedError(entry.from_rel, entry.to_rel,
 
1373
                "Source and target are identical.")
 
1374
 
 
1375
        if not entry.only_change_inv:
 
1376
            try:
 
1377
                osutils.rename(from_rel_abs, to_rel_abs)
 
1378
            except OSError, e:
 
1379
                raise errors.BzrMoveFailedError(entry.from_rel,
 
1380
                    entry.to_rel, e[1])
 
1381
        inv.rename(entry.from_id, entry.to_parent_id, entry.to_tail)
 
1382
 
 
1383
    @needs_tree_write_lock
 
1384
    def rename_one(self, from_rel, to_rel, after=False):
803
1385
        """Rename one file.
804
1386
 
805
1387
        This can change the directory or the filename or both.
 
1388
 
 
1389
        rename_one has several 'modes' to work. First, it can rename a physical
 
1390
        file and change the file_id. That is the normal mode. Second, it can
 
1391
        only change the file_id without touching any physical file. This is
 
1392
        the new mode introduced in version 0.15.
 
1393
 
 
1394
        rename_one uses the second mode if 'after == True' and 'to_rel' is not
 
1395
        versioned but present in the working tree.
 
1396
 
 
1397
        rename_one uses the second mode if 'after == False' and 'from_rel' is
 
1398
        versioned but no longer in the working tree, and 'to_rel' is not
 
1399
        versioned but present in the working tree.
 
1400
 
 
1401
        rename_one uses the first mode if 'after == False' and 'from_rel' is
 
1402
        versioned and present in the working tree, and 'to_rel' is not
 
1403
        versioned and not present in the working tree.
 
1404
 
 
1405
        Everything else results in an error.
806
1406
        """
807
1407
        inv = self.inventory
808
 
        if not self.has_filename(from_rel):
809
 
            raise BzrError("can't rename: old working file %r does not exist" % from_rel)
810
 
        if self.has_filename(to_rel):
811
 
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
812
 
 
813
 
        file_id = inv.path2id(from_rel)
814
 
        if file_id == None:
815
 
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
816
 
 
817
 
        entry = inv[file_id]
818
 
        from_parent = entry.parent_id
819
 
        from_name = entry.name
820
 
        
821
 
        if inv.path2id(to_rel):
822
 
            raise BzrError("can't rename: new name %r is already versioned" % to_rel)
823
 
 
 
1408
        rename_entries = []
 
1409
 
 
1410
        # create rename entries and tuples
 
1411
        from_tail = splitpath(from_rel)[-1]
 
1412
        from_id = inv.path2id(from_rel)
 
1413
        if from_id is None:
 
1414
            raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1415
                errors.NotVersionedError(path=str(from_rel)))
 
1416
        from_entry = inv[from_id]
 
1417
        from_parent_id = from_entry.parent_id
824
1418
        to_dir, to_tail = os.path.split(to_rel)
825
1419
        to_dir_id = inv.path2id(to_dir)
826
 
        if to_dir_id == None and to_dir != '':
827
 
            raise BzrError("can't determine destination directory id for %r" % to_dir)
828
 
 
829
 
        mutter("rename_one:")
830
 
        mutter("  file_id    {%s}" % file_id)
831
 
        mutter("  from_rel   %r" % from_rel)
832
 
        mutter("  to_rel     %r" % to_rel)
833
 
        mutter("  to_dir     %r" % to_dir)
834
 
        mutter("  to_dir_id  {%s}" % to_dir_id)
835
 
 
836
 
        inv.rename(file_id, to_dir_id, to_tail)
837
 
 
838
 
        from_abs = self.abspath(from_rel)
839
 
        to_abs = self.abspath(to_rel)
840
 
        try:
841
 
            rename(from_abs, to_abs)
842
 
        except OSError, e:
843
 
            inv.rename(file_id, from_parent, from_name)
844
 
            raise BzrError("failed to rename %r to %r: %s"
845
 
                    % (from_abs, to_abs, e[1]),
846
 
                    ["rename rolled back"])
 
1420
        rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
 
1421
                                     from_id=from_id,
 
1422
                                     from_tail=from_tail,
 
1423
                                     from_parent_id=from_parent_id,
 
1424
                                     to_rel=to_rel, to_tail=to_tail,
 
1425
                                     to_parent_id=to_dir_id)
 
1426
        rename_entries.append(rename_entry)
 
1427
 
 
1428
        # determine which move mode to use. checks also for movability
 
1429
        rename_entries = self._determine_mv_mode(rename_entries, after)
 
1430
 
 
1431
        # check if the target changed directory and if the target directory is
 
1432
        # versioned
 
1433
        if to_dir_id is None:
 
1434
            raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1435
                errors.NotVersionedError(path=str(to_dir)))
 
1436
 
 
1437
        # all checks done. now we can continue with our actual work
 
1438
        mutter('rename_one:\n'
 
1439
               '  from_id   {%s}\n'
 
1440
               '  from_rel: %r\n'
 
1441
               '  to_rel:   %r\n'
 
1442
               '  to_dir    %r\n'
 
1443
               '  to_dir_id {%s}\n',
 
1444
               from_id, from_rel, to_rel, to_dir, to_dir_id)
 
1445
 
 
1446
        self._move(rename_entries)
847
1447
        self._write_inventory(inv)
848
1448
 
 
1449
    class _RenameEntry(object):
 
1450
        def __init__(self, from_rel, from_id, from_tail, from_parent_id,
 
1451
                     to_rel, to_tail, to_parent_id, only_change_inv=False):
 
1452
            self.from_rel = from_rel
 
1453
            self.from_id = from_id
 
1454
            self.from_tail = from_tail
 
1455
            self.from_parent_id = from_parent_id
 
1456
            self.to_rel = to_rel
 
1457
            self.to_tail = to_tail
 
1458
            self.to_parent_id = to_parent_id
 
1459
            self.only_change_inv = only_change_inv
 
1460
 
849
1461
    @needs_read_lock
850
1462
    def unknowns(self):
851
1463
        """Return all unknown files.
852
1464
 
853
1465
        These are files in the working directory that are not versioned or
854
1466
        control files or ignored.
855
 
        
856
 
        >>> from bzrlib.bzrdir import ScratchDir
857
 
        >>> d = ScratchDir(files=['foo', 'foo~'])
858
 
        >>> b = d.open_branch()
859
 
        >>> tree = d.open_workingtree()
860
 
        >>> map(str, tree.unknowns())
861
 
        ['foo']
862
 
        >>> tree.add('foo')
863
 
        >>> list(b.unknowns())
864
 
        []
865
 
        >>> tree.remove('foo')
866
 
        >>> list(b.unknowns())
867
 
        [u'foo']
868
 
        """
869
 
        for subp in self.extras():
870
 
            if not self.is_ignored(subp):
871
 
                yield subp
872
 
 
873
 
    @deprecated_method(zero_eight)
874
 
    def iter_conflicts(self):
875
 
        """List all files in the tree that have text or content conflicts.
876
 
        DEPRECATED.  Use conflicts instead."""
877
 
        return self._iter_conflicts()
878
 
 
 
1467
        """
 
1468
        # force the extras method to be fully executed before returning, to 
 
1469
        # prevent race conditions with the lock
 
1470
        return iter(
 
1471
            [subp for subp in self.extras() if not self.is_ignored(subp)])
 
1472
 
 
1473
    @needs_tree_write_lock
 
1474
    def unversion(self, file_ids):
 
1475
        """Remove the file ids in file_ids from the current versioned set.
 
1476
 
 
1477
        When a file_id is unversioned, all of its children are automatically
 
1478
        unversioned.
 
1479
 
 
1480
        :param file_ids: The file ids to stop versioning.
 
1481
        :raises: NoSuchId if any fileid is not currently versioned.
 
1482
        """
 
1483
        for file_id in file_ids:
 
1484
            if self._inventory.has_id(file_id):
 
1485
                self._inventory.remove_recursive_id(file_id)
 
1486
            else:
 
1487
                raise errors.NoSuchId(self, file_id)
 
1488
        if len(file_ids):
 
1489
            # in the future this should just set a dirty bit to wait for the 
 
1490
            # final unlock. However, until all methods of workingtree start
 
1491
            # with the current in -memory inventory rather than triggering 
 
1492
            # a read, it is more complex - we need to teach read_inventory
 
1493
            # to know when to read, and when to not read first... and possibly
 
1494
            # to save first when the in memory one may be corrupted.
 
1495
            # so for now, we just only write it if it is indeed dirty.
 
1496
            # - RBC 20060907
 
1497
            self._write_inventory(self._inventory)
 
1498
    
879
1499
    def _iter_conflicts(self):
880
1500
        conflicted = set()
881
 
        for path in (s[0] for s in self.list_files()):
 
1501
        for info in self.list_files():
 
1502
            path = info[0]
882
1503
            stem = get_conflicted_stem(path)
883
1504
            if stem is None:
884
1505
                continue
887
1508
                yield stem
888
1509
 
889
1510
    @needs_write_lock
890
 
    def pull(self, source, overwrite=False, stop_revision=None):
 
1511
    def pull(self, source, overwrite=False, stop_revision=None,
 
1512
             change_reporter=None, possible_transports=None):
891
1513
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
892
1514
        source.lock_read()
893
1515
        try:
894
1516
            pp = ProgressPhase("Pull phase", 2, top_pb)
895
1517
            pp.next_phase()
896
 
            old_revision_history = self.branch.revision_history()
 
1518
            old_revision_info = self.branch.last_revision_info()
897
1519
            basis_tree = self.basis_tree()
898
 
            count = self.branch.pull(source, overwrite, stop_revision)
899
 
            new_revision_history = self.branch.revision_history()
900
 
            if new_revision_history != old_revision_history:
 
1520
            count = self.branch.pull(source, overwrite, stop_revision,
 
1521
                                     possible_transports=possible_transports)
 
1522
            new_revision_info = self.branch.last_revision_info()
 
1523
            if new_revision_info != old_revision_info:
901
1524
                pp.next_phase()
902
 
                if len(old_revision_history):
903
 
                    other_revision = old_revision_history[-1]
904
 
                else:
905
 
                    other_revision = None
906
1525
                repository = self.branch.repository
907
1526
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
1527
                basis_tree.lock_read()
908
1528
                try:
909
 
                    merge_inner(self.branch,
910
 
                                self.branch.basis_tree(),
911
 
                                basis_tree, 
912
 
                                this_tree=self, 
913
 
                                pb=pb)
 
1529
                    new_basis_tree = self.branch.basis_tree()
 
1530
                    merge.merge_inner(
 
1531
                                self.branch,
 
1532
                                new_basis_tree,
 
1533
                                basis_tree,
 
1534
                                this_tree=self,
 
1535
                                pb=pb,
 
1536
                                change_reporter=change_reporter)
 
1537
                    if (basis_tree.inventory.root is None and
 
1538
                        new_basis_tree.inventory.root is not None):
 
1539
                        self.set_root_id(new_basis_tree.get_root_id())
914
1540
                finally:
915
1541
                    pb.finished()
916
 
                self.set_last_revision(self.branch.last_revision())
 
1542
                    basis_tree.unlock()
 
1543
                # TODO - dedup parents list with things merged by pull ?
 
1544
                # reuse the revisiontree we merged against to set the new
 
1545
                # tree data.
 
1546
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
 
1547
                # we have to pull the merge trees out again, because 
 
1548
                # merge_inner has set the ids. - this corner is not yet 
 
1549
                # layered well enough to prevent double handling.
 
1550
                # XXX TODO: Fix the double handling: telling the tree about
 
1551
                # the already known parent data is wasteful.
 
1552
                merges = self.get_parent_ids()[1:]
 
1553
                parent_trees.extend([
 
1554
                    (parent, repository.revision_tree(parent)) for
 
1555
                     parent in merges])
 
1556
                self.set_parent_trees(parent_trees)
917
1557
            return count
918
1558
        finally:
919
1559
            source.unlock()
920
1560
            top_pb.finished()
921
1561
 
 
1562
    @needs_write_lock
 
1563
    def put_file_bytes_non_atomic(self, file_id, bytes):
 
1564
        """See MutableTree.put_file_bytes_non_atomic."""
 
1565
        stream = file(self.id2abspath(file_id), 'wb')
 
1566
        try:
 
1567
            stream.write(bytes)
 
1568
        finally:
 
1569
            stream.close()
 
1570
        # TODO: update the hashcache here ?
 
1571
 
922
1572
    def extras(self):
923
 
        """Yield all unknown files in this WorkingTree.
 
1573
        """Yield all unversioned files in this WorkingTree.
924
1574
 
925
 
        If there are any unknown directories then only the directory is
926
 
        returned, not all its children.  But if there are unknown files
 
1575
        If there are any unversioned directories then only the directory is
 
1576
        returned, not all its children.  But if there are unversioned files
927
1577
        under a versioned subdirectory, they are returned.
928
1578
 
929
1579
        Currently returned depth-first, sorted by name within directories.
 
1580
        This is the same order used by 'osutils.walkdirs'.
930
1581
        """
931
1582
        ## TODO: Work from given directory downwards
932
1583
        for path, dir_entry in self.inventory.directories():
933
 
            mutter("search for unknowns in %r", path)
 
1584
            # mutter("search for unknowns in %r", path)
934
1585
            dirabs = self.abspath(path)
935
1586
            if not isdir(dirabs):
936
1587
                # e.g. directory deleted
938
1589
 
939
1590
            fl = []
940
1591
            for subf in os.listdir(dirabs):
941
 
                if (subf != '.bzr'
942
 
                    and (subf not in dir_entry.children)):
943
 
                    fl.append(subf)
 
1592
                if subf == '.bzr':
 
1593
                    continue
 
1594
                if subf not in dir_entry.children:
 
1595
                    try:
 
1596
                        (subf_norm,
 
1597
                         can_access) = osutils.normalized_filename(subf)
 
1598
                    except UnicodeDecodeError:
 
1599
                        path_os_enc = path.encode(osutils._fs_enc)
 
1600
                        relpath = path_os_enc + '/' + subf
 
1601
                        raise errors.BadFilenameEncoding(relpath,
 
1602
                                                         osutils._fs_enc)
 
1603
                    if subf_norm != subf and can_access:
 
1604
                        if subf_norm not in dir_entry.children:
 
1605
                            fl.append(subf_norm)
 
1606
                    else:
 
1607
                        fl.append(subf)
944
1608
            
945
1609
            fl.sort()
946
1610
            for subf in fl:
947
 
                subp = appendpath(path, subf)
 
1611
                subp = pathjoin(path, subf)
948
1612
                yield subp
949
1613
 
950
 
 
951
1614
    def ignored_files(self):
952
1615
        """Yield list of PATH, IGNORE_PATTERN"""
953
1616
        for subp in self.extras():
954
1617
            pat = self.is_ignored(subp)
955
 
            if pat != None:
 
1618
            if pat is not None:
956
1619
                yield subp, pat
957
1620
 
958
 
 
959
1621
    def get_ignore_list(self):
960
1622
        """Return list of ignore patterns.
961
1623
 
962
1624
        Cached in the Tree object after the first call.
963
1625
        """
964
 
        if hasattr(self, '_ignorelist'):
965
 
            return self._ignorelist
 
1626
        ignoreset = getattr(self, '_ignoreset', None)
 
1627
        if ignoreset is not None:
 
1628
            return ignoreset
966
1629
 
967
 
        l = bzrlib.DEFAULT_IGNORE[:]
 
1630
        ignore_globs = set()
 
1631
        ignore_globs.update(ignores.get_runtime_ignores())
 
1632
        ignore_globs.update(ignores.get_user_ignores())
968
1633
        if self.has_filename(bzrlib.IGNORE_FILENAME):
969
1634
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
970
 
            l.extend([line.rstrip("\n\r") for line in f.readlines()])
971
 
        self._ignorelist = l
972
 
        return l
 
1635
            try:
 
1636
                ignore_globs.update(ignores.parse_ignore_file(f))
 
1637
            finally:
 
1638
                f.close()
 
1639
        self._ignoreset = ignore_globs
 
1640
        return ignore_globs
973
1641
 
 
1642
    def _flush_ignore_list_cache(self):
 
1643
        """Resets the cached ignore list to force a cache rebuild."""
 
1644
        self._ignoreset = None
 
1645
        self._ignoreglobster = None
974
1646
 
975
1647
    def is_ignored(self, filename):
976
1648
        r"""Check whether the filename matches an ignore pattern.
981
1653
        If the file is ignored, returns the pattern which caused it to
982
1654
        be ignored, otherwise None.  So this can simply be used as a
983
1655
        boolean if desired."""
984
 
 
985
 
        # TODO: Use '**' to match directories, and other extended
986
 
        # globbing stuff from cvs/rsync.
987
 
 
988
 
        # XXX: fnmatch is actually not quite what we want: it's only
989
 
        # approximately the same as real Unix fnmatch, and doesn't
990
 
        # treat dotfiles correctly and allows * to match /.
991
 
        # Eventually it should be replaced with something more
992
 
        # accurate.
993
 
        
994
 
        for pat in self.get_ignore_list():
995
 
            if '/' in pat or '\\' in pat:
996
 
                
997
 
                # as a special case, you can put ./ at the start of a
998
 
                # pattern; this is good to match in the top-level
999
 
                # only;
1000
 
                
1001
 
                if (pat[:2] == './') or (pat[:2] == '.\\'):
1002
 
                    newpat = pat[2:]
1003
 
                else:
1004
 
                    newpat = pat
1005
 
                if fnmatch.fnmatchcase(filename, newpat):
1006
 
                    return pat
1007
 
            else:
1008
 
                if fnmatch.fnmatchcase(splitpath(filename)[-1], pat):
1009
 
                    return pat
1010
 
        else:
1011
 
            return None
 
1656
        if getattr(self, '_ignoreglobster', None) is None:
 
1657
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
 
1658
        return self._ignoreglobster.match(filename)
1012
1659
 
1013
1660
    def kind(self, file_id):
1014
1661
        return file_kind(self.id2abspath(file_id))
1015
1662
 
1016
 
    @needs_read_lock
 
1663
    def stored_kind(self, file_id):
 
1664
        """See Tree.stored_kind"""
 
1665
        return self.inventory[file_id].kind
 
1666
 
 
1667
    def _comparison_data(self, entry, path):
 
1668
        abspath = self.abspath(path)
 
1669
        try:
 
1670
            stat_value = os.lstat(abspath)
 
1671
        except OSError, e:
 
1672
            if getattr(e, 'errno', None) == errno.ENOENT:
 
1673
                stat_value = None
 
1674
                kind = None
 
1675
                executable = False
 
1676
            else:
 
1677
                raise
 
1678
        else:
 
1679
            mode = stat_value.st_mode
 
1680
            kind = osutils.file_kind_from_stat_mode(mode)
 
1681
            if not supports_executable():
 
1682
                executable = entry is not None and entry.executable
 
1683
            else:
 
1684
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
1685
        return kind, executable, stat_value
 
1686
 
 
1687
    def _file_size(self, entry, stat_value):
 
1688
        return stat_value.st_size
 
1689
 
1017
1690
    def last_revision(self):
1018
 
        """Return the last revision id of this working tree.
1019
 
 
1020
 
        In early branch formats this was == the branch last_revision,
1021
 
        but that cannot be relied upon - for working tree operations,
1022
 
        always use tree.last_revision().
 
1691
        """Return the last revision of the branch for this tree.
 
1692
 
 
1693
        This format tree does not support a separate marker for last-revision
 
1694
        compared to the branch.
 
1695
 
 
1696
        See MutableTree.last_revision
1023
1697
        """
1024
 
        return self.branch.last_revision()
 
1698
        return self._last_revision()
 
1699
 
 
1700
    @needs_read_lock
 
1701
    def _last_revision(self):
 
1702
        """helper for get_parent_ids."""
 
1703
        return _mod_revision.ensure_null(self.branch.last_revision())
 
1704
 
 
1705
    def is_locked(self):
 
1706
        return self._control_files.is_locked()
 
1707
 
 
1708
    def _must_be_locked(self):
 
1709
        if not self.is_locked():
 
1710
            raise errors.ObjectNotLocked(self)
1025
1711
 
1026
1712
    def lock_read(self):
1027
1713
        """See Branch.lock_read, and WorkingTree.unlock."""
 
1714
        if not self.is_locked():
 
1715
            self._reset_data()
1028
1716
        self.branch.lock_read()
1029
1717
        try:
1030
1718
            return self._control_files.lock_read()
1032
1720
            self.branch.unlock()
1033
1721
            raise
1034
1722
 
 
1723
    def lock_tree_write(self):
 
1724
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
 
1725
        if not self.is_locked():
 
1726
            self._reset_data()
 
1727
        self.branch.lock_read()
 
1728
        try:
 
1729
            return self._control_files.lock_write()
 
1730
        except:
 
1731
            self.branch.unlock()
 
1732
            raise
 
1733
 
1035
1734
    def lock_write(self):
1036
 
        """See Branch.lock_write, and WorkingTree.unlock."""
 
1735
        """See MutableTree.lock_write, and WorkingTree.unlock."""
 
1736
        if not self.is_locked():
 
1737
            self._reset_data()
1037
1738
        self.branch.lock_write()
1038
1739
        try:
1039
1740
            return self._control_files.lock_write()
1041
1742
            self.branch.unlock()
1042
1743
            raise
1043
1744
 
 
1745
    def get_physical_lock_status(self):
 
1746
        return self._control_files.get_physical_lock_status()
 
1747
 
1044
1748
    def _basis_inventory_name(self):
1045
 
        return 'basis-inventory'
1046
 
 
1047
 
    @needs_write_lock
 
1749
        return 'basis-inventory-cache'
 
1750
 
 
1751
    def _reset_data(self):
 
1752
        """Reset transient data that cannot be revalidated."""
 
1753
        self._inventory_is_modified = False
 
1754
        result = self._deserialize(self._transport.get('inventory'))
 
1755
        self._set_inventory(result, dirty=False)
 
1756
 
 
1757
    @needs_tree_write_lock
1048
1758
    def set_last_revision(self, new_revision):
1049
1759
        """Change the last revision in the working tree."""
1050
1760
        if self._change_last_revision(new_revision):
1056
1766
        This is used to allow WorkingTree3 instances to not affect branch
1057
1767
        when their last revision is set.
1058
1768
        """
1059
 
        if new_revision is None:
 
1769
        if _mod_revision.is_null(new_revision):
1060
1770
            self.branch.set_revision_history([])
1061
1771
            return False
1062
 
        # current format is locked in with the branch
1063
 
        revision_history = self.branch.revision_history()
1064
1772
        try:
1065
 
            position = revision_history.index(new_revision)
1066
 
        except ValueError:
1067
 
            raise errors.NoSuchRevision(self.branch, new_revision)
1068
 
        self.branch.set_revision_history(revision_history[:position + 1])
 
1773
            self.branch.generate_revision_history(new_revision)
 
1774
        except errors.NoSuchRevision:
 
1775
            # not present in the repo - dont try to set it deeper than the tip
 
1776
            self.branch.set_revision_history([new_revision])
1069
1777
        return True
1070
1778
 
 
1779
    def _write_basis_inventory(self, xml):
 
1780
        """Write the basis inventory XML to the basis-inventory file"""
 
1781
        path = self._basis_inventory_name()
 
1782
        sio = StringIO(xml)
 
1783
        self._transport.put_file(path, sio,
 
1784
            mode=self._control_files._file_mode)
 
1785
 
 
1786
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
 
1787
        """Create the text that will be saved in basis-inventory"""
 
1788
        inventory.revision_id = revision_id
 
1789
        return xml7.serializer_v7.write_inventory_to_string(inventory)
 
1790
 
1071
1791
    def _cache_basis_inventory(self, new_revision):
1072
1792
        """Cache new_revision as the basis inventory."""
 
1793
        # TODO: this should allow the ready-to-use inventory to be passed in,
 
1794
        # as commit already has that ready-to-use [while the format is the
 
1795
        # same, that is].
1073
1796
        try:
1074
1797
            # this double handles the inventory - unpack and repack - 
1075
1798
            # but is easier to understand. We can/should put a conditional
1076
1799
            # in here based on whether the inventory is in the latest format
1077
1800
            # - perhaps we should repack all inventories on a repository
1078
1801
            # upgrade ?
1079
 
            inv = self.branch.repository.get_inventory(new_revision)
1080
 
            inv.revision_id = new_revision
1081
 
            xml = bzrlib.xml5.serializer_v5.write_inventory_to_string(inv)
1082
 
 
1083
 
            path = self._basis_inventory_name()
1084
 
            self._control_files.put_utf8(path, xml)
1085
 
        except WeaveRevisionNotPresent:
 
1802
            # the fast path is to copy the raw xml from the repository. If the
 
1803
            # xml contains 'revision_id="', then we assume the right 
 
1804
            # revision_id is set. We must check for this full string, because a
 
1805
            # root node id can legitimately look like 'revision_id' but cannot
 
1806
            # contain a '"'.
 
1807
            xml = self.branch.repository.get_inventory_xml(new_revision)
 
1808
            firstline = xml.split('\n', 1)[0]
 
1809
            if (not 'revision_id="' in firstline or 
 
1810
                'format="7"' not in firstline):
 
1811
                inv = self.branch.repository.deserialise_inventory(
 
1812
                    new_revision, xml)
 
1813
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
 
1814
            self._write_basis_inventory(xml)
 
1815
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1086
1816
            pass
1087
1817
 
1088
1818
    def read_basis_inventory(self):
1089
1819
        """Read the cached basis inventory."""
1090
1820
        path = self._basis_inventory_name()
1091
 
        return self._control_files.get_utf8(path).read()
 
1821
        return self._transport.get_bytes(path)
1092
1822
        
1093
1823
    @needs_read_lock
1094
1824
    def read_working_inventory(self):
1095
 
        """Read the working inventory."""
 
1825
        """Read the working inventory.
 
1826
        
 
1827
        :raises errors.InventoryModified: read_working_inventory will fail
 
1828
            when the current in memory inventory has been modified.
 
1829
        """
 
1830
        # conceptually this should be an implementation detail of the tree. 
 
1831
        # XXX: Deprecate this.
1096
1832
        # ElementTree does its own conversion from UTF-8, so open in
1097
1833
        # binary.
1098
 
        result = bzrlib.xml5.serializer_v5.read_inventory(
1099
 
            self._control_files.get('inventory'))
1100
 
        self._set_inventory(result)
 
1834
        if self._inventory_is_modified:
 
1835
            raise errors.InventoryModified(self)
 
1836
        result = self._deserialize(self._transport.get('inventory'))
 
1837
        self._set_inventory(result, dirty=False)
1101
1838
        return result
1102
1839
 
1103
 
    @needs_write_lock
1104
 
    def remove(self, files, verbose=False):
1105
 
        """Remove nominated files from the working inventory..
1106
 
 
1107
 
        This does not remove their text.  This does not run on XXX on what? RBC
1108
 
 
1109
 
        TODO: Refuse to remove modified files unless --force is given?
1110
 
 
1111
 
        TODO: Do something useful with directories.
1112
 
 
1113
 
        TODO: Should this remove the text or not?  Tough call; not
1114
 
        removing may be useful and the user can just use use rm, and
1115
 
        is the opposite of add.  Removing it is consistent with most
1116
 
        other tools.  Maybe an option.
 
1840
    @needs_tree_write_lock
 
1841
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
 
1842
        force=False):
 
1843
        """Remove nominated files from the working inventory.
 
1844
 
 
1845
        :files: File paths relative to the basedir.
 
1846
        :keep_files: If true, the files will also be kept.
 
1847
        :force: Delete files and directories, even if they are changed and
 
1848
            even if the directories are not empty.
1117
1849
        """
1118
 
        ## TODO: Normalize names
1119
 
        ## TODO: Remove nested loops; better scalability
1120
1850
        if isinstance(files, basestring):
1121
1851
            files = [files]
1122
1852
 
1123
 
        inv = self.inventory
1124
 
 
1125
 
        # do this before any modifications
 
1853
        inv_delta = []
 
1854
 
 
1855
        new_files=set()
 
1856
        unknown_nested_files=set()
 
1857
 
 
1858
        def recurse_directory_to_add_files(directory):
 
1859
            # Recurse directory and add all files
 
1860
            # so we can check if they have changed.
 
1861
            for parent_info, file_infos in\
 
1862
                self.walkdirs(directory):
 
1863
                for relpath, basename, kind, lstat, fileid, kind in file_infos:
 
1864
                    # Is it versioned or ignored?
 
1865
                    if self.path2id(relpath) or self.is_ignored(relpath):
 
1866
                        # Add nested content for deletion.
 
1867
                        new_files.add(relpath)
 
1868
                    else:
 
1869
                        # Files which are not versioned and not ignored
 
1870
                        # should be treated as unknown.
 
1871
                        unknown_nested_files.add((relpath, None, kind))
 
1872
 
 
1873
        for filename in files:
 
1874
            # Get file name into canonical form.
 
1875
            abspath = self.abspath(filename)
 
1876
            filename = self.relpath(abspath)
 
1877
            if len(filename) > 0:
 
1878
                new_files.add(filename)
 
1879
                recurse_directory_to_add_files(filename)
 
1880
 
 
1881
        files = list(new_files)
 
1882
 
 
1883
        if len(files) == 0:
 
1884
            return # nothing to do
 
1885
 
 
1886
        # Sort needed to first handle directory content before the directory
 
1887
        files.sort(reverse=True)
 
1888
 
 
1889
        # Bail out if we are going to delete files we shouldn't
 
1890
        if not keep_files and not force:
 
1891
            has_changed_files = len(unknown_nested_files) > 0
 
1892
            if not has_changed_files:
 
1893
                for (file_id, path, content_change, versioned, parent_id, name,
 
1894
                     kind, executable) in self.iter_changes(self.basis_tree(),
 
1895
                         include_unchanged=True, require_versioned=False,
 
1896
                         want_unversioned=True, specific_files=files):
 
1897
                    if versioned == (False, False):
 
1898
                        # The record is unknown ...
 
1899
                        if not self.is_ignored(path[1]):
 
1900
                            # ... but not ignored
 
1901
                            has_changed_files = True
 
1902
                            break
 
1903
                    elif content_change and (kind[1] is not None):
 
1904
                        # Versioned and changed, but not deleted
 
1905
                        has_changed_files = True
 
1906
                        break
 
1907
 
 
1908
            if has_changed_files:
 
1909
                # Make delta show ALL applicable changes in error message.
 
1910
                tree_delta = self.changes_from(self.basis_tree(),
 
1911
                    require_versioned=False, want_unversioned=True,
 
1912
                    specific_files=files)
 
1913
                for unknown_file in unknown_nested_files:
 
1914
                    if unknown_file not in tree_delta.unversioned:
 
1915
                        tree_delta.unversioned.extend((unknown_file,))
 
1916
                raise errors.BzrRemoveChangedFilesError(tree_delta)
 
1917
 
 
1918
        # Build inv_delta and delete files where applicaple,
 
1919
        # do this before any modifications to inventory.
1126
1920
        for f in files:
1127
 
            fid = inv.path2id(f)
 
1921
            fid = self.path2id(f)
 
1922
            message = None
1128
1923
            if not fid:
1129
 
                # TODO: Perhaps make this just a warning, and continue?
1130
 
                # This tends to happen when 
1131
 
                raise NotVersionedError(path=f)
1132
 
            mutter("remove inventory entry %s {%s}", quotefn(f), fid)
1133
 
            if verbose:
1134
 
                # having remove it, it must be either ignored or unknown
1135
 
                if self.is_ignored(f):
1136
 
                    new_status = 'I'
1137
 
                else:
1138
 
                    new_status = '?'
1139
 
                show_status(new_status, inv[fid].kind, quotefn(f))
1140
 
            del inv[fid]
1141
 
 
1142
 
        self._write_inventory(inv)
1143
 
 
1144
 
    @needs_write_lock
1145
 
    def revert(self, filenames, old_tree=None, backups=True, 
1146
 
               pb=DummyProgress()):
1147
 
        from transform import revert
1148
 
        from conflicts import resolve
 
1924
                message = "%s is not versioned." % (f,)
 
1925
            else:
 
1926
                if verbose:
 
1927
                    # having removed it, it must be either ignored or unknown
 
1928
                    if self.is_ignored(f):
 
1929
                        new_status = 'I'
 
1930
                    else:
 
1931
                        new_status = '?'
 
1932
                    textui.show_status(new_status, self.kind(fid), f,
 
1933
                                       to_file=to_file)
 
1934
                # Unversion file
 
1935
                inv_delta.append((f, None, fid, None))
 
1936
                message = "removed %s" % (f,)
 
1937
 
 
1938
            if not keep_files:
 
1939
                abs_path = self.abspath(f)
 
1940
                if osutils.lexists(abs_path):
 
1941
                    if (osutils.isdir(abs_path) and
 
1942
                        len(os.listdir(abs_path)) > 0):
 
1943
                        if force:
 
1944
                            osutils.rmtree(abs_path)
 
1945
                        else:
 
1946
                            message = "%s is not an empty directory "\
 
1947
                                "and won't be deleted." % (f,)
 
1948
                    else:
 
1949
                        osutils.delete_any(abs_path)
 
1950
                        message = "deleted %s" % (f,)
 
1951
                elif message is not None:
 
1952
                    # Only care if we haven't done anything yet.
 
1953
                    message = "%s does not exist." % (f,)
 
1954
 
 
1955
            # Print only one message (if any) per file.
 
1956
            if message is not None:
 
1957
                note(message)
 
1958
        self.apply_inventory_delta(inv_delta)
 
1959
 
 
1960
    @needs_tree_write_lock
 
1961
    def revert(self, filenames=None, old_tree=None, backups=True,
 
1962
               pb=DummyProgress(), report_changes=False):
 
1963
        from bzrlib.conflicts import resolve
 
1964
        if filenames == []:
 
1965
            filenames = None
 
1966
            symbol_versioning.warn('Using [] to revert all files is deprecated'
 
1967
                ' as of bzr 0.91.  Please use None (the default) instead.',
 
1968
                DeprecationWarning, stacklevel=2)
1149
1969
        if old_tree is None:
1150
 
            old_tree = self.basis_tree()
1151
 
        conflicts = revert(self, old_tree, filenames, backups, pb)
1152
 
        if not len(filenames):
1153
 
            self.set_pending_merges([])
1154
 
            resolve(self)
 
1970
            basis_tree = self.basis_tree()
 
1971
            basis_tree.lock_read()
 
1972
            old_tree = basis_tree
1155
1973
        else:
1156
 
            resolve(self, filenames, ignore_misses=True)
 
1974
            basis_tree = None
 
1975
        try:
 
1976
            conflicts = transform.revert(self, old_tree, filenames, backups, pb,
 
1977
                                         report_changes)
 
1978
            if filenames is None and len(self.get_parent_ids()) > 1:
 
1979
                parent_trees = []
 
1980
                last_revision = self.last_revision()
 
1981
                if last_revision != NULL_REVISION:
 
1982
                    if basis_tree is None:
 
1983
                        basis_tree = self.basis_tree()
 
1984
                        basis_tree.lock_read()
 
1985
                    parent_trees.append((last_revision, basis_tree))
 
1986
                self.set_parent_trees(parent_trees)
 
1987
                resolve(self)
 
1988
            else:
 
1989
                resolve(self, filenames, ignore_misses=True, recursive=True)
 
1990
        finally:
 
1991
            if basis_tree is not None:
 
1992
                basis_tree.unlock()
1157
1993
        return conflicts
1158
1994
 
 
1995
    def revision_tree(self, revision_id):
 
1996
        """See Tree.revision_tree.
 
1997
 
 
1998
        WorkingTree can supply revision_trees for the basis revision only
 
1999
        because there is only one cached inventory in the bzr directory.
 
2000
        """
 
2001
        if revision_id == self.last_revision():
 
2002
            try:
 
2003
                xml = self.read_basis_inventory()
 
2004
            except errors.NoSuchFile:
 
2005
                pass
 
2006
            else:
 
2007
                try:
 
2008
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
 
2009
                    # dont use the repository revision_tree api because we want
 
2010
                    # to supply the inventory.
 
2011
                    if inv.revision_id == revision_id:
 
2012
                        return revisiontree.RevisionTree(self.branch.repository,
 
2013
                            inv, revision_id)
 
2014
                except errors.BadInventoryFormat:
 
2015
                    pass
 
2016
        # raise if there was no inventory, or if we read the wrong inventory.
 
2017
        raise errors.NoSuchRevisionInTree(self, revision_id)
 
2018
 
1159
2019
    # XXX: This method should be deprecated in favour of taking in a proper
1160
2020
    # new Inventory object.
1161
 
    @needs_write_lock
 
2021
    @needs_tree_write_lock
1162
2022
    def set_inventory(self, new_inventory_list):
1163
2023
        from bzrlib.inventory import (Inventory,
1164
2024
                                      InventoryDirectory,
1178
2038
            elif kind == 'symlink':
1179
2039
                inv.add(InventoryLink(file_id, name, parent))
1180
2040
            else:
1181
 
                raise BzrError("unknown kind %r" % kind)
 
2041
                raise errors.BzrError("unknown kind %r" % kind)
1182
2042
        self._write_inventory(inv)
1183
2043
 
1184
 
    @needs_write_lock
 
2044
    @needs_tree_write_lock
1185
2045
    def set_root_id(self, file_id):
1186
2046
        """Set the root id for this tree."""
1187
 
        inv = self.read_working_inventory()
 
2047
        # for compatability 
 
2048
        if file_id is None:
 
2049
            raise ValueError(
 
2050
                'WorkingTree.set_root_id with fileid=None')
 
2051
        file_id = osutils.safe_file_id(file_id)
 
2052
        self._set_root_id(file_id)
 
2053
 
 
2054
    def _set_root_id(self, file_id):
 
2055
        """Set the root id for this tree, in a format specific manner.
 
2056
 
 
2057
        :param file_id: The file id to assign to the root. It must not be 
 
2058
            present in the current inventory or an error will occur. It must
 
2059
            not be None, but rather a valid file id.
 
2060
        """
 
2061
        inv = self._inventory
1188
2062
        orig_root_id = inv.root.file_id
 
2063
        # TODO: it might be nice to exit early if there was nothing
 
2064
        # to do, saving us from trigger a sync on unlock.
 
2065
        self._inventory_is_modified = True
 
2066
        # we preserve the root inventory entry object, but
 
2067
        # unlinkit from the byid index
1189
2068
        del inv._byid[inv.root.file_id]
1190
2069
        inv.root.file_id = file_id
 
2070
        # and link it into the index with the new changed id.
1191
2071
        inv._byid[inv.root.file_id] = inv.root
 
2072
        # and finally update all children to reference the new id.
 
2073
        # XXX: this should be safe to just look at the root.children
 
2074
        # list, not the WHOLE INVENTORY.
1192
2075
        for fid in inv:
1193
2076
            entry = inv[fid]
1194
2077
            if entry.parent_id == orig_root_id:
1195
2078
                entry.parent_id = inv.root.file_id
1196
 
        self._write_inventory(inv)
1197
2079
 
1198
2080
    def unlock(self):
1199
2081
        """See Branch.unlock.
1204
2086
        between multiple working trees, i.e. via shared storage, then we 
1205
2087
        would probably want to lock both the local tree, and the branch.
1206
2088
        """
1207
 
        # FIXME: We want to write out the hashcache only when the last lock on
1208
 
        # this working copy is released.  Peeking at the lock count is a bit
1209
 
        # of a nasty hack; probably it's better to have a transaction object,
1210
 
        # which can do some finalization when it's either successfully or
1211
 
        # unsuccessfully completed.  (Denys's original patch did that.)
1212
 
        # RBC 20060206 hookinhg into transaction will couple lock and transaction
1213
 
        # wrongly. Hookinh into unllock on the control files object is fine though.
1214
 
        
1215
 
        # TODO: split this per format so there is no ugly if block
1216
 
        if self._hashcache.needs_write and (
1217
 
            # dedicated lock files
1218
 
            self._control_files._lock_count==1 or 
1219
 
            # shared lock files
1220
 
            (self._control_files is self.branch.control_files and 
1221
 
             self._control_files._lock_count==3)):
1222
 
            self._hashcache.write()
1223
 
        # reverse order of locking.
1224
 
        result = self._control_files.unlock()
1225
 
        try:
1226
 
            self.branch.unlock()
1227
 
        finally:
1228
 
            return result
 
2089
        raise NotImplementedError(self.unlock)
1229
2090
 
1230
 
    @needs_write_lock
1231
 
    def update(self):
 
2091
    def update(self, change_reporter=None, possible_transports=None):
1232
2092
        """Update a working tree along its branch.
1233
2093
 
1234
 
        This will update the branch if its bound too, which means we have multiple trees involved:
1235
 
        The new basis tree of the master.
1236
 
        The old basis tree of the branch.
1237
 
        The old basis tree of the working tree.
1238
 
        The current working tree state.
1239
 
        pathologically all three may be different, and non ancestors of each other.
1240
 
        Conceptually we want to:
1241
 
        Preserve the wt.basis->wt.state changes
1242
 
        Transform the wt.basis to the new master basis.
1243
 
        Apply a merge of the old branch basis to get any 'local' changes from it into the tree.
1244
 
        Restore the wt.basis->wt.state changes.
 
2094
        This will update the branch if its bound too, which means we have
 
2095
        multiple trees involved:
 
2096
 
 
2097
        - The new basis tree of the master.
 
2098
        - The old basis tree of the branch.
 
2099
        - The old basis tree of the working tree.
 
2100
        - The current working tree state.
 
2101
 
 
2102
        Pathologically, all three may be different, and non-ancestors of each
 
2103
        other.  Conceptually we want to:
 
2104
 
 
2105
        - Preserve the wt.basis->wt.state changes
 
2106
        - Transform the wt.basis to the new master basis.
 
2107
        - Apply a merge of the old branch basis to get any 'local' changes from
 
2108
          it into the tree.
 
2109
        - Restore the wt.basis->wt.state changes.
1245
2110
 
1246
2111
        There isn't a single operation at the moment to do that, so we:
1247
 
        Merge current state -> basis tree of the master w.r.t. the old tree basis.
1248
 
        Do a 'normal' merge of the old branch basis if it is relevant.
1249
 
        """
1250
 
        old_tip = self.branch.update()
1251
 
        if old_tip is not None:
1252
 
            self.add_pending_merge(old_tip)
1253
 
        self.branch.lock_read()
1254
 
        try:
1255
 
            result = 0
1256
 
            if self.last_revision() != self.branch.last_revision():
1257
 
                # merge tree state up to new branch tip.
1258
 
                basis = self.basis_tree()
 
2112
        - Merge current state -> basis tree of the master w.r.t. the old tree
 
2113
          basis.
 
2114
        - Do a 'normal' merge of the old branch basis if it is relevant.
 
2115
        """
 
2116
        if self.branch.get_bound_location() is not None:
 
2117
            self.lock_write()
 
2118
            update_branch = True
 
2119
        else:
 
2120
            self.lock_tree_write()
 
2121
            update_branch = False
 
2122
        try:
 
2123
            if update_branch:
 
2124
                old_tip = self.branch.update(possible_transports)
 
2125
            else:
 
2126
                old_tip = None
 
2127
            return self._update_tree(old_tip, change_reporter)
 
2128
        finally:
 
2129
            self.unlock()
 
2130
 
 
2131
    @needs_tree_write_lock
 
2132
    def _update_tree(self, old_tip=None, change_reporter=None):
 
2133
        """Update a tree to the master branch.
 
2134
 
 
2135
        :param old_tip: if supplied, the previous tip revision the branch,
 
2136
            before it was changed to the master branch's tip.
 
2137
        """
 
2138
        # here if old_tip is not None, it is the old tip of the branch before
 
2139
        # it was updated from the master branch. This should become a pending
 
2140
        # merge in the working tree to preserve the user existing work.  we
 
2141
        # cant set that until we update the working trees last revision to be
 
2142
        # one from the new branch, because it will just get absorbed by the
 
2143
        # parent de-duplication logic.
 
2144
        # 
 
2145
        # We MUST save it even if an error occurs, because otherwise the users
 
2146
        # local work is unreferenced and will appear to have been lost.
 
2147
        # 
 
2148
        result = 0
 
2149
        try:
 
2150
            last_rev = self.get_parent_ids()[0]
 
2151
        except IndexError:
 
2152
            last_rev = _mod_revision.NULL_REVISION
 
2153
        if last_rev != _mod_revision.ensure_null(self.branch.last_revision()):
 
2154
            # merge tree state up to new branch tip.
 
2155
            basis = self.basis_tree()
 
2156
            basis.lock_read()
 
2157
            try:
1259
2158
                to_tree = self.branch.basis_tree()
1260
 
                result += merge_inner(self.branch,
 
2159
                if basis.inventory.root is None:
 
2160
                    self.set_root_id(to_tree.get_root_id())
 
2161
                    self.flush()
 
2162
                result += merge.merge_inner(
 
2163
                                      self.branch,
1261
2164
                                      to_tree,
1262
2165
                                      basis,
1263
 
                                      this_tree=self)
1264
 
                self.set_last_revision(self.branch.last_revision())
1265
 
            if old_tip and old_tip != self.last_revision():
1266
 
                # our last revision was not the prior branch last reivison
1267
 
                # and we have converted that last revision to a pending merge.
1268
 
                # base is somewhere between the branch tip now
1269
 
                # and the now pending merge
1270
 
                from bzrlib.revision import common_ancestor
1271
 
                try:
1272
 
                    base_rev_id = common_ancestor(self.branch.last_revision(),
1273
 
                                                  old_tip,
1274
 
                                                  self.branch.repository)
1275
 
                except errors.NoCommonAncestor:
1276
 
                    base_rev_id = None
1277
 
                base_tree = self.branch.repository.revision_tree(base_rev_id)
1278
 
                other_tree = self.branch.repository.revision_tree(old_tip)
1279
 
                result += merge_inner(self.branch,
1280
 
                                      other_tree,
1281
 
                                      base_tree,
1282
 
                                      this_tree=self)
1283
 
            return result
1284
 
        finally:
1285
 
            self.branch.unlock()
1286
 
 
1287
 
    @needs_write_lock
 
2166
                                      this_tree=self,
 
2167
                                      change_reporter=change_reporter)
 
2168
            finally:
 
2169
                basis.unlock()
 
2170
            # TODO - dedup parents list with things merged by pull ?
 
2171
            # reuse the tree we've updated to to set the basis:
 
2172
            parent_trees = [(self.branch.last_revision(), to_tree)]
 
2173
            merges = self.get_parent_ids()[1:]
 
2174
            # Ideally we ask the tree for the trees here, that way the working
 
2175
            # tree can decide whether to give us teh entire tree or give us a
 
2176
            # lazy initialised tree. dirstate for instance will have the trees
 
2177
            # in ram already, whereas a last-revision + basis-inventory tree
 
2178
            # will not, but also does not need them when setting parents.
 
2179
            for parent in merges:
 
2180
                parent_trees.append(
 
2181
                    (parent, self.branch.repository.revision_tree(parent)))
 
2182
            if (old_tip is not None and not _mod_revision.is_null(old_tip)):
 
2183
                parent_trees.append(
 
2184
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
 
2185
            self.set_parent_trees(parent_trees)
 
2186
            last_rev = parent_trees[0][0]
 
2187
        else:
 
2188
            # the working tree had the same last-revision as the master
 
2189
            # branch did. We may still have pivot local work from the local
 
2190
            # branch into old_tip:
 
2191
            if (old_tip is not None and not _mod_revision.is_null(old_tip)):
 
2192
                self.add_parent_tree_id(old_tip)
 
2193
        if (old_tip is not None and not _mod_revision.is_null(old_tip)
 
2194
            and old_tip != last_rev):
 
2195
            # our last revision was not the prior branch last revision
 
2196
            # and we have converted that last revision to a pending merge.
 
2197
            # base is somewhere between the branch tip now
 
2198
            # and the now pending merge
 
2199
 
 
2200
            # Since we just modified the working tree and inventory, flush out
 
2201
            # the current state, before we modify it again.
 
2202
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
 
2203
            #       requires it only because TreeTransform directly munges the
 
2204
            #       inventory and calls tree._write_inventory(). Ultimately we
 
2205
            #       should be able to remove this extra flush.
 
2206
            self.flush()
 
2207
            graph = self.branch.repository.get_graph()
 
2208
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
 
2209
                                                old_tip)
 
2210
            base_tree = self.branch.repository.revision_tree(base_rev_id)
 
2211
            other_tree = self.branch.repository.revision_tree(old_tip)
 
2212
            result += merge.merge_inner(
 
2213
                                  self.branch,
 
2214
                                  other_tree,
 
2215
                                  base_tree,
 
2216
                                  this_tree=self,
 
2217
                                  change_reporter=change_reporter)
 
2218
        return result
 
2219
 
 
2220
    def _write_hashcache_if_dirty(self):
 
2221
        """Write out the hashcache if it is dirty."""
 
2222
        if self._hashcache.needs_write:
 
2223
            try:
 
2224
                self._hashcache.write()
 
2225
            except OSError, e:
 
2226
                if e.errno not in (errno.EPERM, errno.EACCES):
 
2227
                    raise
 
2228
                # TODO: jam 20061219 Should this be a warning? A single line
 
2229
                #       warning might be sufficient to let the user know what
 
2230
                #       is going on.
 
2231
                mutter('Could not write hashcache for %s\nError: %s',
 
2232
                       self._hashcache.cache_file_name(), e)
 
2233
 
 
2234
    @needs_tree_write_lock
1288
2235
    def _write_inventory(self, inv):
1289
2236
        """Write inventory as the current inventory."""
1290
 
        sio = StringIO()
1291
 
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
1292
 
        sio.seek(0)
1293
 
        self._control_files.put('inventory', sio)
1294
 
        self._set_inventory(inv)
1295
 
        mutter('wrote working inventory')
 
2237
        self._set_inventory(inv, dirty=True)
 
2238
        self.flush()
1296
2239
 
1297
2240
    def set_conflicts(self, arg):
1298
 
        raise UnsupportedOperation(self.set_conflicts, self)
 
2241
        raise errors.UnsupportedOperation(self.set_conflicts, self)
 
2242
 
 
2243
    def add_conflicts(self, arg):
 
2244
        raise errors.UnsupportedOperation(self.add_conflicts, self)
1299
2245
 
1300
2246
    @needs_read_lock
1301
2247
    def conflicts(self):
1302
 
        conflicts = ConflictList()
 
2248
        conflicts = _mod_conflicts.ConflictList()
1303
2249
        for conflicted in self._iter_conflicts():
1304
2250
            text = True
1305
2251
            try:
1306
2252
                if file_kind(self.abspath(conflicted)) != "file":
1307
2253
                    text = False
1308
 
            except OSError, e:
1309
 
                if e.errno == errno.ENOENT:
1310
 
                    text = False
1311
 
                else:
1312
 
                    raise
 
2254
            except errors.NoSuchFile:
 
2255
                text = False
1313
2256
            if text is True:
1314
2257
                for suffix in ('.THIS', '.OTHER'):
1315
2258
                    try:
1316
2259
                        kind = file_kind(self.abspath(conflicted+suffix))
1317
 
                    except OSError, e:
1318
 
                        if e.errno == errno.ENOENT:
 
2260
                        if kind != "file":
1319
2261
                            text = False
1320
 
                            break
1321
 
                        else:
1322
 
                            raise
1323
 
                    if kind != "file":
 
2262
                    except errors.NoSuchFile:
1324
2263
                        text = False
 
2264
                    if text == False:
1325
2265
                        break
1326
2266
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
1327
 
            conflicts.append(Conflict.factory(ctype, path=conflicted,
 
2267
            conflicts.append(_mod_conflicts.Conflict.factory(ctype,
 
2268
                             path=conflicted,
1328
2269
                             file_id=self.path2id(conflicted)))
1329
2270
        return conflicts
1330
2271
 
 
2272
    def walkdirs(self, prefix=""):
 
2273
        """Walk the directories of this tree.
 
2274
 
 
2275
        returns a generator which yields items in the form:
 
2276
                ((curren_directory_path, fileid),
 
2277
                 [(file1_path, file1_name, file1_kind, (lstat), file1_id,
 
2278
                   file1_kind), ... ])
 
2279
 
 
2280
        This API returns a generator, which is only valid during the current
 
2281
        tree transaction - within a single lock_read or lock_write duration.
 
2282
 
 
2283
        If the tree is not locked, it may cause an error to be raised,
 
2284
        depending on the tree implementation.
 
2285
        """
 
2286
        disk_top = self.abspath(prefix)
 
2287
        if disk_top.endswith('/'):
 
2288
            disk_top = disk_top[:-1]
 
2289
        top_strip_len = len(disk_top) + 1
 
2290
        inventory_iterator = self._walkdirs(prefix)
 
2291
        disk_iterator = osutils.walkdirs(disk_top, prefix)
 
2292
        try:
 
2293
            current_disk = disk_iterator.next()
 
2294
            disk_finished = False
 
2295
        except OSError, e:
 
2296
            if not (e.errno == errno.ENOENT or
 
2297
                (sys.platform == 'win32' and e.errno == ERROR_PATH_NOT_FOUND)):
 
2298
                raise
 
2299
            current_disk = None
 
2300
            disk_finished = True
 
2301
        try:
 
2302
            current_inv = inventory_iterator.next()
 
2303
            inv_finished = False
 
2304
        except StopIteration:
 
2305
            current_inv = None
 
2306
            inv_finished = True
 
2307
        while not inv_finished or not disk_finished:
 
2308
            if current_disk:
 
2309
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
 
2310
                    cur_disk_dir_content) = current_disk
 
2311
            else:
 
2312
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
 
2313
                    cur_disk_dir_content) = ((None, None), None)
 
2314
            if not disk_finished:
 
2315
                # strip out .bzr dirs
 
2316
                if (cur_disk_dir_path_from_top[top_strip_len:] == '' and
 
2317
                    len(cur_disk_dir_content) > 0):
 
2318
                    # osutils.walkdirs can be made nicer -
 
2319
                    # yield the path-from-prefix rather than the pathjoined
 
2320
                    # value.
 
2321
                    bzrdir_loc = bisect_left(cur_disk_dir_content,
 
2322
                        ('.bzr', '.bzr'))
 
2323
                    if cur_disk_dir_content[bzrdir_loc][0] == '.bzr':
 
2324
                        # we dont yield the contents of, or, .bzr itself.
 
2325
                        del cur_disk_dir_content[bzrdir_loc]
 
2326
            if inv_finished:
 
2327
                # everything is unknown
 
2328
                direction = 1
 
2329
            elif disk_finished:
 
2330
                # everything is missing
 
2331
                direction = -1
 
2332
            else:
 
2333
                direction = cmp(current_inv[0][0], cur_disk_dir_relpath)
 
2334
            if direction > 0:
 
2335
                # disk is before inventory - unknown
 
2336
                dirblock = [(relpath, basename, kind, stat, None, None) for
 
2337
                    relpath, basename, kind, stat, top_path in
 
2338
                    cur_disk_dir_content]
 
2339
                yield (cur_disk_dir_relpath, None), dirblock
 
2340
                try:
 
2341
                    current_disk = disk_iterator.next()
 
2342
                except StopIteration:
 
2343
                    disk_finished = True
 
2344
            elif direction < 0:
 
2345
                # inventory is before disk - missing.
 
2346
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
 
2347
                    for relpath, basename, dkind, stat, fileid, kind in
 
2348
                    current_inv[1]]
 
2349
                yield (current_inv[0][0], current_inv[0][1]), dirblock
 
2350
                try:
 
2351
                    current_inv = inventory_iterator.next()
 
2352
                except StopIteration:
 
2353
                    inv_finished = True
 
2354
            else:
 
2355
                # versioned present directory
 
2356
                # merge the inventory and disk data together
 
2357
                dirblock = []
 
2358
                for relpath, subiterator in itertools.groupby(sorted(
 
2359
                    current_inv[1] + cur_disk_dir_content,
 
2360
                    key=operator.itemgetter(0)), operator.itemgetter(1)):
 
2361
                    path_elements = list(subiterator)
 
2362
                    if len(path_elements) == 2:
 
2363
                        inv_row, disk_row = path_elements
 
2364
                        # versioned, present file
 
2365
                        dirblock.append((inv_row[0],
 
2366
                            inv_row[1], disk_row[2],
 
2367
                            disk_row[3], inv_row[4],
 
2368
                            inv_row[5]))
 
2369
                    elif len(path_elements[0]) == 5:
 
2370
                        # unknown disk file
 
2371
                        dirblock.append((path_elements[0][0],
 
2372
                            path_elements[0][1], path_elements[0][2],
 
2373
                            path_elements[0][3], None, None))
 
2374
                    elif len(path_elements[0]) == 6:
 
2375
                        # versioned, absent file.
 
2376
                        dirblock.append((path_elements[0][0],
 
2377
                            path_elements[0][1], 'unknown', None,
 
2378
                            path_elements[0][4], path_elements[0][5]))
 
2379
                    else:
 
2380
                        raise NotImplementedError('unreachable code')
 
2381
                yield current_inv[0], dirblock
 
2382
                try:
 
2383
                    current_inv = inventory_iterator.next()
 
2384
                except StopIteration:
 
2385
                    inv_finished = True
 
2386
                try:
 
2387
                    current_disk = disk_iterator.next()
 
2388
                except StopIteration:
 
2389
                    disk_finished = True
 
2390
 
 
2391
    def _walkdirs(self, prefix=""):
 
2392
        """Walk the directories of this tree.
 
2393
 
 
2394
           :prefix: is used as the directrory to start with.
 
2395
           returns a generator which yields items in the form:
 
2396
                ((curren_directory_path, fileid),
 
2397
                 [(file1_path, file1_name, file1_kind, None, file1_id,
 
2398
                   file1_kind), ... ])
 
2399
        """
 
2400
        _directory = 'directory'
 
2401
        # get the root in the inventory
 
2402
        inv = self.inventory
 
2403
        top_id = inv.path2id(prefix)
 
2404
        if top_id is None:
 
2405
            pending = []
 
2406
        else:
 
2407
            pending = [(prefix, '', _directory, None, top_id, None)]
 
2408
        while pending:
 
2409
            dirblock = []
 
2410
            currentdir = pending.pop()
 
2411
            # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-id, 5-kind
 
2412
            top_id = currentdir[4]
 
2413
            if currentdir[0]:
 
2414
                relroot = currentdir[0] + '/'
 
2415
            else:
 
2416
                relroot = ""
 
2417
            # FIXME: stash the node in pending
 
2418
            entry = inv[top_id]
 
2419
            if entry.kind == 'directory':
 
2420
                for name, child in entry.sorted_children():
 
2421
                    dirblock.append((relroot + name, name, child.kind, None,
 
2422
                        child.file_id, child.kind
 
2423
                        ))
 
2424
            yield (currentdir[0], entry.file_id), dirblock
 
2425
            # push the user specified dirs from dirblock
 
2426
            for dir in reversed(dirblock):
 
2427
                if dir[2] == _directory:
 
2428
                    pending.append(dir)
 
2429
 
 
2430
    @needs_tree_write_lock
 
2431
    def auto_resolve(self):
 
2432
        """Automatically resolve text conflicts according to contents.
 
2433
 
 
2434
        Only text conflicts are auto_resolvable. Files with no conflict markers
 
2435
        are considered 'resolved', because bzr always puts conflict markers
 
2436
        into files that have text conflicts.  The corresponding .THIS .BASE and
 
2437
        .OTHER files are deleted, as per 'resolve'.
 
2438
        :return: a tuple of ConflictLists: (un_resolved, resolved).
 
2439
        """
 
2440
        un_resolved = _mod_conflicts.ConflictList()
 
2441
        resolved = _mod_conflicts.ConflictList()
 
2442
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
 
2443
        for conflict in self.conflicts():
 
2444
            if (conflict.typestring != 'text conflict' or
 
2445
                self.kind(conflict.file_id) != 'file'):
 
2446
                un_resolved.append(conflict)
 
2447
                continue
 
2448
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
 
2449
            try:
 
2450
                for line in my_file:
 
2451
                    if conflict_re.search(line):
 
2452
                        un_resolved.append(conflict)
 
2453
                        break
 
2454
                else:
 
2455
                    resolved.append(conflict)
 
2456
            finally:
 
2457
                my_file.close()
 
2458
        resolved.remove_files(self)
 
2459
        self.set_conflicts(un_resolved)
 
2460
        return un_resolved, resolved
 
2461
 
 
2462
    @needs_read_lock
 
2463
    def _check(self):
 
2464
        tree_basis = self.basis_tree()
 
2465
        tree_basis.lock_read()
 
2466
        try:
 
2467
            repo_basis = self.branch.repository.revision_tree(
 
2468
                self.last_revision())
 
2469
            if len(list(repo_basis.iter_changes(tree_basis))) > 0:
 
2470
                raise errors.BzrCheckError(
 
2471
                    "Mismatched basis inventory content.")
 
2472
            self._validate()
 
2473
        finally:
 
2474
            tree_basis.unlock()
 
2475
 
 
2476
    def _validate(self):
 
2477
        """Validate internal structures.
 
2478
 
 
2479
        This is meant mostly for the test suite. To give it a chance to detect
 
2480
        corruption after actions have occurred. The default implementation is a
 
2481
        just a no-op.
 
2482
 
 
2483
        :return: None. An exception should be raised if there is an error.
 
2484
        """
 
2485
        return
 
2486
 
 
2487
    @needs_read_lock
 
2488
    def _get_rules_searcher(self, default_searcher):
 
2489
        """See Tree._get_rules_searcher."""
 
2490
        if self._rules_searcher is None:
 
2491
            self._rules_searcher = super(WorkingTree,
 
2492
                self)._get_rules_searcher(default_searcher)
 
2493
        return self._rules_searcher
 
2494
 
 
2495
 
 
2496
class WorkingTree2(WorkingTree):
 
2497
    """This is the Format 2 working tree.
 
2498
 
 
2499
    This was the first weave based working tree. 
 
2500
     - uses os locks for locking.
 
2501
     - uses the branch last-revision.
 
2502
    """
 
2503
 
 
2504
    def __init__(self, *args, **kwargs):
 
2505
        super(WorkingTree2, self).__init__(*args, **kwargs)
 
2506
        # WorkingTree2 has more of a constraint that self._inventory must
 
2507
        # exist. Because this is an older format, we don't mind the overhead
 
2508
        # caused by the extra computation here.
 
2509
 
 
2510
        # Newer WorkingTree's should only have self._inventory set when they
 
2511
        # have a read lock.
 
2512
        if self._inventory is None:
 
2513
            self.read_working_inventory()
 
2514
 
 
2515
    def lock_tree_write(self):
 
2516
        """See WorkingTree.lock_tree_write().
 
2517
 
 
2518
        In Format2 WorkingTrees we have a single lock for the branch and tree
 
2519
        so lock_tree_write() degrades to lock_write().
 
2520
        """
 
2521
        self.branch.lock_write()
 
2522
        try:
 
2523
            return self._control_files.lock_write()
 
2524
        except:
 
2525
            self.branch.unlock()
 
2526
            raise
 
2527
 
 
2528
    def unlock(self):
 
2529
        # do non-implementation specific cleanup
 
2530
        self._cleanup()
 
2531
 
 
2532
        # we share control files:
 
2533
        if self._control_files._lock_count == 3:
 
2534
            # _inventory_is_modified is always False during a read lock.
 
2535
            if self._inventory_is_modified:
 
2536
                self.flush()
 
2537
            self._write_hashcache_if_dirty()
 
2538
                    
 
2539
        # reverse order of locking.
 
2540
        try:
 
2541
            return self._control_files.unlock()
 
2542
        finally:
 
2543
            self.branch.unlock()
 
2544
 
1331
2545
 
1332
2546
class WorkingTree3(WorkingTree):
1333
2547
    """This is the Format 3 working tree.
1340
2554
    """
1341
2555
 
1342
2556
    @needs_read_lock
1343
 
    def last_revision(self):
1344
 
        """See WorkingTree.last_revision."""
 
2557
    def _last_revision(self):
 
2558
        """See Mutable.last_revision."""
1345
2559
        try:
1346
 
            return self._control_files.get_utf8('last-revision').read()
1347
 
        except NoSuchFile:
1348
 
            return None
 
2560
            return self._transport.get_bytes('last-revision')
 
2561
        except errors.NoSuchFile:
 
2562
            return _mod_revision.NULL_REVISION
1349
2563
 
1350
2564
    def _change_last_revision(self, revision_id):
1351
2565
        """See WorkingTree._change_last_revision."""
1352
2566
        if revision_id is None or revision_id == NULL_REVISION:
1353
2567
            try:
1354
 
                self._control_files._transport.delete('last-revision')
 
2568
                self._transport.delete('last-revision')
1355
2569
            except errors.NoSuchFile:
1356
2570
                pass
1357
2571
            return False
1358
2572
        else:
1359
 
            try:
1360
 
                self.branch.revision_history().index(revision_id)
1361
 
            except ValueError:
1362
 
                raise errors.NoSuchRevision(self.branch, revision_id)
1363
 
            self._control_files.put_utf8('last-revision', revision_id)
 
2573
            self._transport.put_bytes('last-revision', revision_id,
 
2574
                mode=self._control_files._file_mode)
1364
2575
            return True
1365
2576
 
1366
 
    @needs_write_lock
 
2577
    @needs_tree_write_lock
1367
2578
    def set_conflicts(self, conflicts):
1368
2579
        self._put_rio('conflicts', conflicts.to_stanzas(), 
1369
2580
                      CONFLICT_HEADER_1)
1370
2581
 
 
2582
    @needs_tree_write_lock
 
2583
    def add_conflicts(self, new_conflicts):
 
2584
        conflict_set = set(self.conflicts())
 
2585
        conflict_set.update(set(list(new_conflicts)))
 
2586
        self.set_conflicts(_mod_conflicts.ConflictList(sorted(conflict_set,
 
2587
                                       key=_mod_conflicts.Conflict.sort_key)))
 
2588
 
1371
2589
    @needs_read_lock
1372
2590
    def conflicts(self):
1373
2591
        try:
1374
 
            confile = self._control_files.get('conflicts')
1375
 
        except NoSuchFile:
1376
 
            return ConflictList()
 
2592
            confile = self._transport.get('conflicts')
 
2593
        except errors.NoSuchFile:
 
2594
            return _mod_conflicts.ConflictList()
1377
2595
        try:
1378
2596
            if confile.next() != CONFLICT_HEADER_1 + '\n':
1379
 
                raise ConflictFormatError()
 
2597
                raise errors.ConflictFormatError()
1380
2598
        except StopIteration:
1381
 
            raise ConflictFormatError()
1382
 
        return ConflictList.from_stanzas(RioReader(confile))
 
2599
            raise errors.ConflictFormatError()
 
2600
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
 
2601
 
 
2602
    def unlock(self):
 
2603
        # do non-implementation specific cleanup
 
2604
        self._cleanup()
 
2605
        if self._control_files._lock_count == 1:
 
2606
            # _inventory_is_modified is always False during a read lock.
 
2607
            if self._inventory_is_modified:
 
2608
                self.flush()
 
2609
            self._write_hashcache_if_dirty()
 
2610
        # reverse order of locking.
 
2611
        try:
 
2612
            return self._control_files.unlock()
 
2613
        finally:
 
2614
            self.branch.unlock()
1383
2615
 
1384
2616
 
1385
2617
def get_conflicted_stem(path):
1386
 
    for suffix in CONFLICT_SUFFIXES:
 
2618
    for suffix in _mod_conflicts.CONFLICT_SUFFIXES:
1387
2619
        if path.endswith(suffix):
1388
2620
            return path[:-len(suffix)]
1389
2621
 
1390
 
@deprecated_function(zero_eight)
1391
 
def is_control_file(filename):
1392
 
    """See WorkingTree.is_control_filename(filename)."""
1393
 
    ## FIXME: better check
1394
 
    filename = normpath(filename)
1395
 
    while filename != '':
1396
 
        head, tail = os.path.split(filename)
1397
 
        ## mutter('check %r for control file' % ((head, tail),))
1398
 
        if tail == '.bzr':
1399
 
            return True
1400
 
        if filename == head:
1401
 
            break
1402
 
        filename = head
1403
 
    return False
1404
 
 
1405
2622
 
1406
2623
class WorkingTreeFormat(object):
1407
2624
    """An encapsulation of the initialization and open routines for a format.
1427
2644
    _formats = {}
1428
2645
    """The known formats."""
1429
2646
 
 
2647
    requires_rich_root = False
 
2648
 
 
2649
    upgrade_recommended = False
 
2650
 
1430
2651
    @classmethod
1431
2652
    def find_format(klass, a_bzrdir):
1432
2653
        """Return the format for the working tree object in a_bzrdir."""
1434
2655
            transport = a_bzrdir.get_workingtree_transport(None)
1435
2656
            format_string = transport.get("format").read()
1436
2657
            return klass._formats[format_string]
1437
 
        except NoSuchFile:
 
2658
        except errors.NoSuchFile:
1438
2659
            raise errors.NoWorkingTree(base=transport.base)
1439
2660
        except KeyError:
1440
 
            raise errors.UnknownFormatError(format_string)
 
2661
            raise errors.UnknownFormatError(format=format_string,
 
2662
                                            kind="working tree")
 
2663
 
 
2664
    def __eq__(self, other):
 
2665
        return self.__class__ is other.__class__
 
2666
 
 
2667
    def __ne__(self, other):
 
2668
        return not (self == other)
1441
2669
 
1442
2670
    @classmethod
1443
2671
    def get_default_format(klass):
1471
2699
 
1472
2700
    @classmethod
1473
2701
    def unregister_format(klass, format):
1474
 
        assert klass._formats[format.get_format_string()] is format
1475
2702
        del klass._formats[format.get_format_string()]
1476
2703
 
1477
2704
 
1478
 
 
1479
2705
class WorkingTreeFormat2(WorkingTreeFormat):
1480
2706
    """The second working tree format. 
1481
2707
 
1482
2708
    This format modified the hash cache from the format 1 hash cache.
1483
2709
    """
1484
2710
 
 
2711
    upgrade_recommended = True
 
2712
 
1485
2713
    def get_format_description(self):
1486
2714
        """See WorkingTreeFormat.get_format_description()."""
1487
2715
        return "Working tree format 2"
1488
2716
 
1489
 
    def initialize(self, a_bzrdir, revision_id=None):
 
2717
    def _stub_initialize_remote(self, branch):
 
2718
        """As a special workaround create critical control files for a remote working tree.
 
2719
        
 
2720
        This ensures that it can later be updated and dealt with locally,
 
2721
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
 
2722
        no working tree.  (See bug #43064).
 
2723
        """
 
2724
        sio = StringIO()
 
2725
        inv = Inventory()
 
2726
        xml5.serializer_v5.write_inventory(inv, sio, working=True)
 
2727
        sio.seek(0)
 
2728
        branch._transport.put_file('inventory', sio,
 
2729
            mode=branch.control_files._file_mode)
 
2730
        branch._transport.put_bytes('pending-merges', '',
 
2731
            mode=branch.control_files._file_mode)
 
2732
        
 
2733
 
 
2734
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
 
2735
                   accelerator_tree=None, hardlink=False):
1490
2736
        """See WorkingTreeFormat.initialize()."""
1491
2737
        if not isinstance(a_bzrdir.transport, LocalTransport):
1492
2738
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1493
 
        branch = a_bzrdir.open_branch()
1494
 
        if revision_id is not None:
1495
 
            branch.lock_write()
1496
 
            try:
1497
 
                revision_history = branch.revision_history()
1498
 
                try:
1499
 
                    position = revision_history.index(revision_id)
1500
 
                except ValueError:
1501
 
                    raise errors.NoSuchRevision(branch, revision_id)
1502
 
                branch.set_revision_history(revision_history[:position + 1])
1503
 
            finally:
1504
 
                branch.unlock()
1505
 
        revision = branch.last_revision()
1506
 
        inv = Inventory() 
1507
 
        wt = WorkingTree(a_bzrdir.root_transport.base,
 
2739
        if from_branch is not None:
 
2740
            branch = from_branch
 
2741
        else:
 
2742
            branch = a_bzrdir.open_branch()
 
2743
        if revision_id is None:
 
2744
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2745
        branch.lock_write()
 
2746
        try:
 
2747
            branch.generate_revision_history(revision_id)
 
2748
        finally:
 
2749
            branch.unlock()
 
2750
        inv = Inventory()
 
2751
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1508
2752
                         branch,
1509
2753
                         inv,
1510
2754
                         _internal=True,
1511
2755
                         _format=self,
1512
2756
                         _bzrdir=a_bzrdir)
1513
 
        wt._write_inventory(inv)
1514
 
        wt.set_root_id(inv.root.file_id)
1515
 
        wt.set_last_revision(revision)
1516
 
        wt.set_pending_merges([])
1517
 
        build_tree(wt.basis_tree(), wt)
 
2757
        basis_tree = branch.repository.revision_tree(revision_id)
 
2758
        if basis_tree.inventory.root is not None:
 
2759
            wt.set_root_id(basis_tree.get_root_id())
 
2760
        # set the parent list and cache the basis tree.
 
2761
        if _mod_revision.is_null(revision_id):
 
2762
            parent_trees = []
 
2763
        else:
 
2764
            parent_trees = [(revision_id, basis_tree)]
 
2765
        wt.set_parent_trees(parent_trees)
 
2766
        transform.build_tree(basis_tree, wt)
1518
2767
        return wt
1519
2768
 
1520
2769
    def __init__(self):
1532
2781
            raise NotImplementedError
1533
2782
        if not isinstance(a_bzrdir.transport, LocalTransport):
1534
2783
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1535
 
        return WorkingTree(a_bzrdir.root_transport.base,
 
2784
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1536
2785
                           _internal=True,
1537
2786
                           _format=self,
1538
2787
                           _bzrdir=a_bzrdir)
1539
 
 
 
2788
        return wt
1540
2789
 
1541
2790
class WorkingTreeFormat3(WorkingTreeFormat):
1542
2791
    """The second working tree format updated to record a format marker.
1547
2796
          files, separate from the BzrDir format
1548
2797
        - modifies the hash cache format
1549
2798
        - is new in bzr 0.8
1550
 
        - uses a LockDir to guard access to the repository
 
2799
        - uses a LockDir to guard access for writes.
1551
2800
    """
 
2801
    
 
2802
    upgrade_recommended = True
1552
2803
 
1553
2804
    def get_format_string(self):
1554
2805
        """See WorkingTreeFormat.get_format_string()."""
1561
2812
    _lock_file_name = 'lock'
1562
2813
    _lock_class = LockDir
1563
2814
 
 
2815
    _tree_class = WorkingTree3
 
2816
 
 
2817
    def __get_matchingbzrdir(self):
 
2818
        return bzrdir.BzrDirMetaFormat1()
 
2819
 
 
2820
    _matchingbzrdir = property(__get_matchingbzrdir)
 
2821
 
1564
2822
    def _open_control_files(self, a_bzrdir):
1565
2823
        transport = a_bzrdir.get_workingtree_transport(None)
1566
2824
        return LockableFiles(transport, self._lock_file_name, 
1567
2825
                             self._lock_class)
1568
2826
 
1569
 
    def initialize(self, a_bzrdir, revision_id=None):
 
2827
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
 
2828
                   accelerator_tree=None, hardlink=False):
1570
2829
        """See WorkingTreeFormat.initialize().
1571
2830
        
1572
 
        revision_id allows creating a working tree at a differnet
1573
 
        revision than the branch is at.
 
2831
        :param revision_id: if supplied, create a working tree at a different
 
2832
            revision than the branch is at.
 
2833
        :param accelerator_tree: A tree which can be used for retrieving file
 
2834
            contents more quickly than the revision tree, i.e. a workingtree.
 
2835
            The revision tree will be used for cases where accelerator_tree's
 
2836
            content is different.
 
2837
        :param hardlink: If true, hard-link files from accelerator_tree,
 
2838
            where possible.
1574
2839
        """
1575
2840
        if not isinstance(a_bzrdir.transport, LocalTransport):
1576
2841
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1577
2842
        transport = a_bzrdir.get_workingtree_transport(self)
1578
2843
        control_files = self._open_control_files(a_bzrdir)
1579
2844
        control_files.create_lock()
1580
 
        control_files.put_utf8('format', self.get_format_string())
1581
 
        branch = a_bzrdir.open_branch()
 
2845
        control_files.lock_write()
 
2846
        transport.put_bytes('format', self.get_format_string(),
 
2847
            mode=control_files._file_mode)
 
2848
        if from_branch is not None:
 
2849
            branch = from_branch
 
2850
        else:
 
2851
            branch = a_bzrdir.open_branch()
1582
2852
        if revision_id is None:
1583
 
            revision_id = branch.last_revision()
1584
 
        inv = Inventory() 
1585
 
        wt = WorkingTree3(a_bzrdir.root_transport.base,
 
2853
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2854
        # WorkingTree3 can handle an inventory which has a unique root id.
 
2855
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
 
2856
        # those trees. And because there isn't a format bump inbetween, we
 
2857
        # are maintaining compatibility with older clients.
 
2858
        # inv = Inventory(root_id=gen_root_id())
 
2859
        inv = self._initial_inventory()
 
2860
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
1586
2861
                         branch,
1587
2862
                         inv,
1588
2863
                         _internal=True,
1589
2864
                         _format=self,
1590
2865
                         _bzrdir=a_bzrdir,
1591
2866
                         _control_files=control_files)
1592
 
        wt._write_inventory(inv)
1593
 
        wt.set_root_id(inv.root.file_id)
1594
 
        wt.set_last_revision(revision_id)
1595
 
        wt.set_pending_merges([])
1596
 
        build_tree(wt.basis_tree(), wt)
 
2867
        wt.lock_tree_write()
 
2868
        try:
 
2869
            basis_tree = branch.repository.revision_tree(revision_id)
 
2870
            # only set an explicit root id if there is one to set.
 
2871
            if basis_tree.inventory.root is not None:
 
2872
                wt.set_root_id(basis_tree.get_root_id())
 
2873
            if revision_id == NULL_REVISION:
 
2874
                wt.set_parent_trees([])
 
2875
            else:
 
2876
                wt.set_parent_trees([(revision_id, basis_tree)])
 
2877
            transform.build_tree(basis_tree, wt)
 
2878
        finally:
 
2879
            # Unlock in this order so that the unlock-triggers-flush in
 
2880
            # WorkingTree is given a chance to fire.
 
2881
            control_files.unlock()
 
2882
            wt.unlock()
1597
2883
        return wt
1598
2884
 
 
2885
    def _initial_inventory(self):
 
2886
        return Inventory()
 
2887
 
1599
2888
    def __init__(self):
1600
2889
        super(WorkingTreeFormat3, self).__init__()
1601
 
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
1602
2890
 
1603
2891
    def open(self, a_bzrdir, _found=False):
1604
2892
        """Return the WorkingTree object for a_bzrdir
1611
2899
            raise NotImplementedError
1612
2900
        if not isinstance(a_bzrdir.transport, LocalTransport):
1613
2901
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1614
 
        control_files = self._open_control_files(a_bzrdir)
1615
 
        return WorkingTree3(a_bzrdir.root_transport.base,
1616
 
                           _internal=True,
1617
 
                           _format=self,
1618
 
                           _bzrdir=a_bzrdir,
1619
 
                           _control_files=control_files)
 
2902
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
 
2903
        return wt
 
2904
 
 
2905
    def _open(self, a_bzrdir, control_files):
 
2906
        """Open the tree itself.
 
2907
        
 
2908
        :param a_bzrdir: the dir for the tree.
 
2909
        :param control_files: the control files for the tree.
 
2910
        """
 
2911
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
2912
                                _internal=True,
 
2913
                                _format=self,
 
2914
                                _bzrdir=a_bzrdir,
 
2915
                                _control_files=control_files)
1620
2916
 
1621
2917
    def __str__(self):
1622
2918
        return self.get_format_string()
1623
2919
 
1624
2920
 
 
2921
__default_format = WorkingTreeFormat4()
 
2922
WorkingTreeFormat.register_format(__default_format)
 
2923
WorkingTreeFormat.register_format(WorkingTreeFormat3())
 
2924
WorkingTreeFormat.set_default_format(__default_format)
1625
2925
# formats which have no format string are not discoverable
1626
2926
# and not independently creatable, so are not registered.
1627
 
__default_format = WorkingTreeFormat3()
1628
 
WorkingTreeFormat.register_format(__default_format)
1629
 
WorkingTreeFormat.set_default_format(__default_format)
1630
2927
_legacy_formats = [WorkingTreeFormat2(),
1631
2928
                   ]
1632
 
 
1633
 
 
1634
 
class WorkingTreeTestProviderAdapter(object):
1635
 
    """A tool to generate a suite testing multiple workingtree formats at once.
1636
 
 
1637
 
    This is done by copying the test once for each transport and injecting
1638
 
    the transport_server, transport_readonly_server, and workingtree_format
1639
 
    classes into each copy. Each copy is also given a new id() to make it
1640
 
    easy to identify.
1641
 
    """
1642
 
 
1643
 
    def __init__(self, transport_server, transport_readonly_server, formats):
1644
 
        self._transport_server = transport_server
1645
 
        self._transport_readonly_server = transport_readonly_server
1646
 
        self._formats = formats
1647
 
    
1648
 
    def adapt(self, test):
1649
 
        from bzrlib.tests import TestSuite
1650
 
        result = TestSuite()
1651
 
        for workingtree_format, bzrdir_format in self._formats:
1652
 
            new_test = deepcopy(test)
1653
 
            new_test.transport_server = self._transport_server
1654
 
            new_test.transport_readonly_server = self._transport_readonly_server
1655
 
            new_test.bzrdir_format = bzrdir_format
1656
 
            new_test.workingtree_format = workingtree_format
1657
 
            def make_new_test_id():
1658
 
                new_id = "%s(%s)" % (new_test.id(), workingtree_format.__class__.__name__)
1659
 
                return lambda: new_id
1660
 
            new_test.id = make_new_test_id()
1661
 
            result.addTest(new_test)
1662
 
        return result