/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2008-06-05 03:02:10 UTC
  • mfrom: (3472.1.1 ianc-integration)
  • Revision ID: pqm@pqm.ubuntu.com-20080605030210-xwokghqkg4sqo1xy
Isolate the test HTTPServer from chdir calls (Robert Collins)

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005, 2006 Canonical Ltd
2
 
 
 
1
# Copyright (C) 2005, 2006, 2007 Canonical Ltd
 
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
 
 
7
#
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
 
 
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
29
29
WorkingTree.open(dir).
30
30
"""
31
31
 
32
 
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
33
 
CONFLICT_HEADER_1 = "BZR conflict list format 1"
34
 
 
35
32
# TODO: Give the workingtree sole responsibility for the working inventory;
36
33
# remove the variable and references to it from the branch.  This may require
37
34
# updating the commit code so as to update the inventory within the working
39
36
# At the moment they may alias the inventory and have old copies of it in
40
37
# memory.  (Now done? -- mbp 20060309)
41
38
 
42
 
from copy import deepcopy
43
39
from cStringIO import StringIO
 
40
import os
 
41
import sys
 
42
 
 
43
from bzrlib.lazy_import import lazy_import
 
44
lazy_import(globals(), """
 
45
from bisect import bisect_left
 
46
import collections
44
47
import errno
45
 
import fnmatch
46
 
import os
 
48
import itertools
 
49
import operator
47
50
import stat
48
 
 
49
 
 
50
 
from bzrlib.atomicfile import AtomicFile
51
 
from bzrlib.branch import (Branch,
52
 
                           quotefn)
53
 
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
54
 
import bzrlib.bzrdir as bzrdir
 
51
from time import time
 
52
import warnings
 
53
import re
 
54
 
 
55
import bzrlib
 
56
from bzrlib import (
 
57
    branch,
 
58
    bzrdir,
 
59
    conflicts as _mod_conflicts,
 
60
    dirstate,
 
61
    errors,
 
62
    generate_ids,
 
63
    globbing,
 
64
    hashcache,
 
65
    ignores,
 
66
    merge,
 
67
    revision as _mod_revision,
 
68
    revisiontree,
 
69
    repository,
 
70
    textui,
 
71
    trace,
 
72
    transform,
 
73
    ui,
 
74
    urlutils,
 
75
    xml5,
 
76
    xml6,
 
77
    xml7,
 
78
    )
 
79
import bzrlib.branch
 
80
from bzrlib.transport import get_transport
 
81
import bzrlib.ui
 
82
from bzrlib.workingtree_4 import WorkingTreeFormat4
 
83
""")
 
84
 
 
85
from bzrlib import symbol_versioning
55
86
from bzrlib.decorators import needs_read_lock, needs_write_lock
56
 
import bzrlib.errors as errors
57
 
from bzrlib.errors import (BzrCheckError,
58
 
                           BzrError,
59
 
                           ConflictFormatError,
60
 
                           DivergedBranches,
61
 
                           WeaveRevisionNotPresent,
62
 
                           NotBranchError,
63
 
                           NoSuchFile,
64
 
                           NotVersionedError,
65
 
                           MergeModifiedFormatError,
66
 
                           UnsupportedOperation,
67
 
                           )
68
 
from bzrlib.inventory import InventoryEntry, Inventory
 
87
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID, TreeReference
69
88
from bzrlib.lockable_files import LockableFiles, TransportLock
70
89
from bzrlib.lockdir import LockDir
71
 
from bzrlib.merge import merge_inner, transform_tree
 
90
import bzrlib.mutabletree
 
91
from bzrlib.mutabletree import needs_tree_write_lock
 
92
from bzrlib import osutils
72
93
from bzrlib.osutils import (
73
 
                            abspath,
74
 
                            appendpath,
75
 
                            compact_date,
76
 
                            file_kind,
77
 
                            isdir,
78
 
                            getcwd,
79
 
                            pathjoin,
80
 
                            pumpfile,
81
 
                            safe_unicode,
82
 
                            splitpath,
83
 
                            rand_bytes,
84
 
                            normpath,
85
 
                            realpath,
86
 
                            relpath,
87
 
                            rename,
88
 
                            supports_executable,
89
 
                            )
 
94
    compact_date,
 
95
    file_kind,
 
96
    isdir,
 
97
    normpath,
 
98
    pathjoin,
 
99
    rand_chars,
 
100
    realpath,
 
101
    safe_unicode,
 
102
    splitpath,
 
103
    supports_executable,
 
104
    )
 
105
from bzrlib.trace import mutter, note
 
106
from bzrlib.transport.local import LocalTransport
90
107
from bzrlib.progress import DummyProgress, ProgressPhase
91
 
from bzrlib.revision import NULL_REVISION
 
108
from bzrlib.revision import NULL_REVISION, CURRENT_REVISION
92
109
from bzrlib.rio import RioReader, rio_file, Stanza
93
 
from bzrlib.symbol_versioning import *
94
 
from bzrlib.textui import show_status
95
 
import bzrlib.tree
96
 
from bzrlib.transform import build_tree
97
 
from bzrlib.trace import mutter, note
98
 
from bzrlib.transport import get_transport
99
 
from bzrlib.transport.local import LocalTransport
100
 
import bzrlib.ui
101
 
import bzrlib.xml5
102
 
 
103
 
 
104
 
def gen_file_id(name):
105
 
    """Return new file id.
106
 
 
107
 
    This should probably generate proper UUIDs, but for the moment we
108
 
    cope with just randomness because running uuidgen every time is
109
 
    slow."""
110
 
    import re
111
 
    from binascii import hexlify
112
 
    from time import time
113
 
 
114
 
    # get last component
115
 
    idx = name.rfind('/')
116
 
    if idx != -1:
117
 
        name = name[idx+1 : ]
118
 
    idx = name.rfind('\\')
119
 
    if idx != -1:
120
 
        name = name[idx+1 : ]
121
 
 
122
 
    # make it not a hidden file
123
 
    name = name.lstrip('.')
124
 
 
125
 
    # remove any wierd characters; we don't escape them but rather
126
 
    # just pull them out
127
 
    name = re.sub(r'[^\w.]', '', name)
128
 
 
129
 
    s = hexlify(rand_bytes(8))
130
 
    return '-'.join((name, compact_date(time()), s))
131
 
 
132
 
 
133
 
def gen_root_id():
134
 
    """Return a new tree-root file id."""
135
 
    return gen_file_id('TREE_ROOT')
 
110
from bzrlib.symbol_versioning import (deprecated_passed,
 
111
        deprecated_method,
 
112
        deprecated_function,
 
113
        DEPRECATED_PARAMETER,
 
114
        )
 
115
 
 
116
 
 
117
MERGE_MODIFIED_HEADER_1 = "BZR merge-modified list format 1"
 
118
CONFLICT_HEADER_1 = "BZR conflict list format 1"
 
119
 
 
120
ERROR_PATH_NOT_FOUND = 3    # WindowsError errno code, equivalent to ENOENT
136
121
 
137
122
 
138
123
class TreeEntry(object):
139
 
    """An entry that implements the minium interface used by commands.
 
124
    """An entry that implements the minimum interface used by commands.
140
125
 
141
126
    This needs further inspection, it may be better to have 
142
127
    InventoryEntries without ids - though that seems wrong. For now,
190
175
        return ''
191
176
 
192
177
 
193
 
class WorkingTree(bzrlib.tree.Tree):
 
178
class WorkingTree(bzrlib.mutabletree.MutableTree):
194
179
    """Working copy tree.
195
180
 
196
181
    The inventory is held in the `Branch` working-inventory, and the
207
192
                 _internal=False,
208
193
                 _format=None,
209
194
                 _bzrdir=None):
210
 
        """Construct a WorkingTree for basedir.
 
195
        """Construct a WorkingTree instance. This is not a public API.
211
196
 
212
 
        If the branch is not supplied, it is opened automatically.
213
 
        If the branch is supplied, it must be the branch for this basedir.
214
 
        (branch.base is not cross checked, because for remote branches that
215
 
        would be meaningless).
 
197
        :param branch: A branch to override probing for the branch.
216
198
        """
217
199
        self._format = _format
218
200
        self.bzrdir = _bzrdir
219
201
        if not _internal:
220
 
            # not created via open etc.
221
 
            warn("WorkingTree() is deprecated as of bzr version 0.8. "
222
 
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
223
 
                 DeprecationWarning,
224
 
                 stacklevel=2)
225
 
            wt = WorkingTree.open(basedir)
226
 
            self.branch = wt.branch
227
 
            self.basedir = wt.basedir
228
 
            self._control_files = wt._control_files
229
 
            self._hashcache = wt._hashcache
230
 
            self._set_inventory(wt._inventory)
231
 
            self._format = wt._format
232
 
            self.bzrdir = wt.bzrdir
233
 
        from bzrlib.hashcache import HashCache
234
 
        from bzrlib.trace import note, mutter
235
 
        assert isinstance(basedir, basestring), \
236
 
            "base directory %r is not a string" % basedir
 
202
            raise errors.BzrError("Please use bzrdir.open_workingtree or "
 
203
                "WorkingTree.open() to obtain a WorkingTree.")
237
204
        basedir = safe_unicode(basedir)
238
205
        mutter("opening working tree %r", basedir)
239
206
        if deprecated_passed(branch):
240
 
            if not _internal:
241
 
                warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
242
 
                     " Please use bzrdir.open_workingtree() or"
243
 
                     " WorkingTree.open().",
244
 
                     DeprecationWarning,
245
 
                     stacklevel=2
246
 
                     )
247
 
            self.branch = branch
 
207
            self._branch = branch
248
208
        else:
249
 
            self.branch = self.bzrdir.open_branch()
250
 
        assert isinstance(self.branch, Branch), \
251
 
            "branch %r is not a Branch" % self.branch
 
209
            self._branch = self.bzrdir.open_branch()
252
210
        self.basedir = realpath(basedir)
253
211
        # if branch is at our basedir and is a format 6 or less
254
212
        if isinstance(self._format, WorkingTreeFormat2):
255
213
            # share control object
256
214
            self._control_files = self.branch.control_files
257
215
        else:
258
 
            # only ready for format 3
259
 
            assert isinstance(self._format, WorkingTreeFormat3)
260
 
            assert isinstance(_control_files, LockableFiles), \
261
 
                    "_control_files must be a LockableFiles, not %r" \
262
 
                    % _control_files
 
216
            # assume all other formats have their own control files.
263
217
            self._control_files = _control_files
 
218
        self._transport = self._control_files._transport
264
219
        # update the whole cache up front and write to disk if anything changed;
265
220
        # in the future we might want to do this more selectively
266
221
        # two possible ways offer themselves : in self._unlock, write the cache
267
222
        # if needed, or, when the cache sees a change, append it to the hash
268
223
        # cache file, and have the parser take the most recent entry for a
269
224
        # given path only.
270
 
        cache_filename = self.bzrdir.get_workingtree_transport(None).abspath('stat-cache')
271
 
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
 
225
        wt_trans = self.bzrdir.get_workingtree_transport(None)
 
226
        cache_filename = wt_trans.local_abspath('stat-cache')
 
227
        self._hashcache = hashcache.HashCache(basedir, cache_filename,
 
228
            self.bzrdir._get_file_mode())
 
229
        hc = self._hashcache
272
230
        hc.read()
273
231
        # is this scan needed ? it makes things kinda slow.
274
 
        hc.scan()
 
232
        #hc.scan()
275
233
 
276
234
        if hc.needs_write:
277
235
            mutter("write hc")
278
236
            hc.write()
279
237
 
280
238
        if _inventory is None:
281
 
            self._set_inventory(self.read_working_inventory())
282
 
        else:
283
 
            self._set_inventory(_inventory)
284
 
 
285
 
    def _set_inventory(self, inv):
 
239
            # This will be acquired on lock_read() or lock_write()
 
240
            self._inventory_is_modified = False
 
241
            self._inventory = None
 
242
        else:
 
243
            # the caller of __init__ has provided an inventory,
 
244
            # we assume they know what they are doing - as its only
 
245
            # the Format factory and creation methods that are
 
246
            # permitted to do this.
 
247
            self._set_inventory(_inventory, dirty=False)
 
248
        self._detect_case_handling()
 
249
 
 
250
    def _detect_case_handling(self):
 
251
        wt_trans = self.bzrdir.get_workingtree_transport(None)
 
252
        try:
 
253
            wt_trans.stat("FoRMaT")
 
254
        except errors.NoSuchFile:
 
255
            self.case_sensitive = True
 
256
        else:
 
257
            self.case_sensitive = False
 
258
 
 
259
        self._setup_directory_is_tree_reference()
 
260
 
 
261
    branch = property(
 
262
        fget=lambda self: self._branch,
 
263
        doc="""The branch this WorkingTree is connected to.
 
264
 
 
265
            This cannot be set - it is reflective of the actual disk structure
 
266
            the working tree has been constructed from.
 
267
            """)
 
268
 
 
269
    def break_lock(self):
 
270
        """Break a lock if one is present from another instance.
 
271
 
 
272
        Uses the ui factory to ask for confirmation if the lock may be from
 
273
        an active process.
 
274
 
 
275
        This will probe the repository for its lock as well.
 
276
        """
 
277
        self._control_files.break_lock()
 
278
        self.branch.break_lock()
 
279
 
 
280
    def requires_rich_root(self):
 
281
        return self._format.requires_rich_root
 
282
 
 
283
    def supports_tree_reference(self):
 
284
        return False
 
285
 
 
286
    def _set_inventory(self, inv, dirty):
 
287
        """Set the internal cached inventory.
 
288
 
 
289
        :param inv: The inventory to set.
 
290
        :param dirty: A boolean indicating whether the inventory is the same
 
291
            logical inventory as whats on disk. If True the inventory is not
 
292
            the same and should be written to disk or data will be lost, if
 
293
            False then the inventory is the same as that on disk and any
 
294
            serialisation would be unneeded overhead.
 
295
        """
286
296
        self._inventory = inv
287
 
        self.path2id = self._inventory.path2id
288
 
 
289
 
    def is_control_filename(self, filename):
290
 
        """True if filename is the name of a control file in this tree.
291
 
        
292
 
        This is true IF and ONLY IF the filename is part of the meta data
293
 
        that bzr controls in this tree. I.E. a random .bzr directory placed
294
 
        on disk will not be a control file for this tree.
295
 
        """
296
 
        try:
297
 
            self.bzrdir.transport.relpath(self.abspath(filename))
298
 
            return True
299
 
        except errors.PathNotChild:
300
 
            return False
 
297
        self._inventory_is_modified = dirty
301
298
 
302
299
    @staticmethod
303
300
    def open(path=None, _unsupported=False):
319
316
        run into /.  If there isn't one, raises NotBranchError.
320
317
        TODO: give this a new exception.
321
318
        If there is one, it is returned, along with the unused portion of path.
 
319
 
 
320
        :return: The WorkingTree that contains 'path', and the rest of path
322
321
        """
323
322
        if path is None:
324
 
            path = os.getcwdu()
 
323
            path = osutils.getcwd()
325
324
        control, relpath = bzrdir.BzrDir.open_containing(path)
 
325
 
326
326
        return control.open_workingtree(), relpath
327
327
 
328
328
    @staticmethod
333
333
        """
334
334
        return WorkingTree.open(path, _unsupported=True)
335
335
 
 
336
    @staticmethod
 
337
    def find_trees(location):
 
338
        def list_current(transport):
 
339
            return [d for d in transport.list_dir('') if d != '.bzr']
 
340
        def evaluate(bzrdir):
 
341
            try:
 
342
                tree = bzrdir.open_workingtree()
 
343
            except errors.NoWorkingTree:
 
344
                return True, None
 
345
            else:
 
346
                return True, tree
 
347
        transport = get_transport(location)
 
348
        iterator = bzrdir.BzrDir.find_bzrdirs(transport, evaluate=evaluate,
 
349
                                              list_current=list_current)
 
350
        return [t for t in iterator if t is not None]
 
351
 
 
352
    # should be deprecated - this is slow and in any case treating them as a
 
353
    # container is (we now know) bad style -- mbp 20070302
 
354
    ## @deprecated_method(zero_fifteen)
336
355
    def __iter__(self):
337
356
        """Iterate through file_ids for this tree.
338
357
 
341
360
        """
342
361
        inv = self._inventory
343
362
        for path, ie in inv.iter_entries():
344
 
            if bzrlib.osutils.lexists(self.abspath(path)):
 
363
            if osutils.lexists(self.abspath(path)):
345
364
                yield ie.file_id
346
365
 
 
366
    def all_file_ids(self):
 
367
        """See Tree.iter_all_file_ids"""
 
368
        return set(self.inventory)
 
369
 
347
370
    def __repr__(self):
348
371
        return "<%s of %s>" % (self.__class__.__name__,
349
372
                               getattr(self, 'basedir', None))
350
373
 
351
374
    def abspath(self, filename):
352
375
        return pathjoin(self.basedir, filename)
353
 
    
 
376
 
354
377
    def basis_tree(self):
355
 
        """Return RevisionTree for the current last revision."""
356
 
        revision_id = self.last_revision()
357
 
        if revision_id is not None:
358
 
            try:
359
 
                xml = self.read_basis_inventory()
360
 
                inv = bzrlib.xml5.serializer_v5.read_inventory_from_string(xml)
361
 
            except NoSuchFile:
362
 
                inv = None
363
 
            if inv is not None and inv.revision_id == revision_id:
364
 
                return bzrlib.tree.RevisionTree(self.branch.repository, inv,
365
 
                                                revision_id)
366
 
        # FIXME? RBC 20060403 should we cache the inventory here ?
367
 
        return self.branch.repository.revision_tree(revision_id)
368
 
 
369
 
    @staticmethod
370
 
    @deprecated_method(zero_eight)
371
 
    def create(branch, directory):
372
 
        """Create a workingtree for branch at directory.
373
 
 
374
 
        If existing_directory already exists it must have a .bzr directory.
375
 
        If it does not exist, it will be created.
376
 
 
377
 
        This returns a new WorkingTree object for the new checkout.
378
 
 
379
 
        TODO FIXME RBC 20060124 when we have checkout formats in place this
380
 
        should accept an optional revisionid to checkout [and reject this if
381
 
        checking out into the same dir as a pre-checkout-aware branch format.]
382
 
 
383
 
        XXX: When BzrDir is present, these should be created through that 
384
 
        interface instead.
385
 
        """
386
 
        warn('delete WorkingTree.create', stacklevel=3)
387
 
        transport = get_transport(directory)
388
 
        if branch.bzrdir.root_transport.base == transport.base:
389
 
            # same dir 
390
 
            return branch.bzrdir.create_workingtree()
391
 
        # different directory, 
392
 
        # create a branch reference
393
 
        # and now a working tree.
394
 
        raise NotImplementedError
395
 
 
396
 
    @staticmethod
397
 
    @deprecated_method(zero_eight)
398
 
    def create_standalone(directory):
399
 
        """Create a checkout and a branch and a repo at directory.
400
 
 
401
 
        Directory must exist and be empty.
402
 
 
403
 
        please use BzrDir.create_standalone_workingtree
404
 
        """
405
 
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
406
 
 
407
 
    def relpath(self, abs):
408
 
        """Return the local path portion from a given absolute path."""
409
 
        return relpath(self.basedir, abs)
 
378
        """Return RevisionTree for the current last revision.
 
379
        
 
380
        If the left most parent is a ghost then the returned tree will be an
 
381
        empty tree - one obtained by calling repository.revision_tree(None).
 
382
        """
 
383
        try:
 
384
            revision_id = self.get_parent_ids()[0]
 
385
        except IndexError:
 
386
            # no parents, return an empty revision tree.
 
387
            # in the future this should return the tree for
 
388
            # 'empty:' - the implicit root empty tree.
 
389
            return self.branch.repository.revision_tree(None)
 
390
        try:
 
391
            return self.revision_tree(revision_id)
 
392
        except errors.NoSuchRevision:
 
393
            pass
 
394
        # No cached copy available, retrieve from the repository.
 
395
        # FIXME? RBC 20060403 should we cache the inventory locally
 
396
        # at this point ?
 
397
        try:
 
398
            return self.branch.repository.revision_tree(revision_id)
 
399
        except errors.RevisionNotPresent:
 
400
            # the basis tree *may* be a ghost or a low level error may have
 
401
            # occured. If the revision is present, its a problem, if its not
 
402
            # its a ghost.
 
403
            if self.branch.repository.has_revision(revision_id):
 
404
                raise
 
405
            # the basis tree is a ghost so return an empty tree.
 
406
            return self.branch.repository.revision_tree(None)
 
407
 
 
408
    def _cleanup(self):
 
409
        self._flush_ignore_list_cache()
 
410
 
 
411
    def relpath(self, path):
 
412
        """Return the local path portion from a given path.
 
413
        
 
414
        The path may be absolute or relative. If its a relative path it is 
 
415
        interpreted relative to the python current working directory.
 
416
        """
 
417
        return osutils.relpath(self.basedir, path)
410
418
 
411
419
    def has_filename(self, filename):
412
 
        return bzrlib.osutils.lexists(self.abspath(filename))
413
 
 
414
 
    def get_file(self, file_id):
415
 
        return self.get_file_byname(self.id2path(file_id))
 
420
        return osutils.lexists(self.abspath(filename))
 
421
 
 
422
    def get_file(self, file_id, path=None):
 
423
        if path is None:
 
424
            path = self.id2path(file_id)
 
425
        return self.get_file_byname(path)
 
426
 
 
427
    def get_file_text(self, file_id):
 
428
        return self.get_file(file_id).read()
416
429
 
417
430
    def get_file_byname(self, filename):
418
431
        return file(self.abspath(filename), 'rb')
419
432
 
 
433
    @needs_read_lock
 
434
    def annotate_iter(self, file_id, default_revision=CURRENT_REVISION):
 
435
        """See Tree.annotate_iter
 
436
 
 
437
        This implementation will use the basis tree implementation if possible.
 
438
        Lines not in the basis are attributed to CURRENT_REVISION
 
439
 
 
440
        If there are pending merges, lines added by those merges will be
 
441
        incorrectly attributed to CURRENT_REVISION (but after committing, the
 
442
        attribution will be correct).
 
443
        """
 
444
        basis = self.basis_tree()
 
445
        basis.lock_read()
 
446
        try:
 
447
            changes = self.iter_changes(basis, True, [self.id2path(file_id)],
 
448
                require_versioned=True).next()
 
449
            changed_content, kind = changes[2], changes[6]
 
450
            if not changed_content:
 
451
                return basis.annotate_iter(file_id)
 
452
            if kind[1] is None:
 
453
                return None
 
454
            import annotate
 
455
            if kind[0] != 'file':
 
456
                old_lines = []
 
457
            else:
 
458
                old_lines = list(basis.annotate_iter(file_id))
 
459
            old = [old_lines]
 
460
            for tree in self.branch.repository.revision_trees(
 
461
                self.get_parent_ids()[1:]):
 
462
                if file_id not in tree:
 
463
                    continue
 
464
                old.append(list(tree.annotate_iter(file_id)))
 
465
            return annotate.reannotate(old, self.get_file(file_id).readlines(),
 
466
                                       default_revision)
 
467
        finally:
 
468
            basis.unlock()
 
469
 
 
470
    def _get_ancestors(self, default_revision):
 
471
        ancestors = set([default_revision])
 
472
        for parent_id in self.get_parent_ids():
 
473
            ancestors.update(self.branch.repository.get_ancestry(
 
474
                             parent_id, topo_sorted=False))
 
475
        return ancestors
 
476
 
 
477
    def get_parent_ids(self):
 
478
        """See Tree.get_parent_ids.
 
479
        
 
480
        This implementation reads the pending merges list and last_revision
 
481
        value and uses that to decide what the parents list should be.
 
482
        """
 
483
        last_rev = _mod_revision.ensure_null(self._last_revision())
 
484
        if _mod_revision.NULL_REVISION == last_rev:
 
485
            parents = []
 
486
        else:
 
487
            parents = [last_rev]
 
488
        try:
 
489
            merges_file = self._transport.get('pending-merges')
 
490
        except errors.NoSuchFile:
 
491
            pass
 
492
        else:
 
493
            for l in merges_file.readlines():
 
494
                revision_id = l.rstrip('\n')
 
495
                parents.append(revision_id)
 
496
        return parents
 
497
 
 
498
    @needs_read_lock
420
499
    def get_root_id(self):
421
500
        """Return the id of this trees root"""
422
 
        inv = self.read_working_inventory()
423
 
        return inv.root.file_id
 
501
        return self._inventory.root.file_id
424
502
        
425
503
    def _get_store_filename(self, file_id):
426
504
        ## XXX: badly named; this is not in the store at all
427
505
        return self.abspath(self.id2path(file_id))
428
506
 
429
507
    @needs_read_lock
430
 
    def clone(self, to_bzrdir, revision_id=None, basis=None):
 
508
    def clone(self, to_bzrdir, revision_id=None):
431
509
        """Duplicate this working tree into to_bzr, including all state.
432
510
        
433
511
        Specifically modified files are kept as modified, but
439
517
            If not None, the cloned tree will have its last revision set to 
440
518
            revision, and and difference between the source trees last revision
441
519
            and this one merged in.
442
 
 
443
 
        basis
444
 
            If not None, a closer copy of a tree which may have some files in
445
 
            common, and which file content should be preferentially copied from.
446
520
        """
447
521
        # assumes the target bzr dir format is compatible.
448
522
        result = self._format.initialize(to_bzrdir)
452
526
    @needs_read_lock
453
527
    def copy_content_into(self, tree, revision_id=None):
454
528
        """Copy the current content and user files of this tree into tree."""
 
529
        tree.set_root_id(self.get_root_id())
455
530
        if revision_id is None:
456
 
            transform_tree(tree, self)
 
531
            merge.transform_tree(tree, self)
457
532
        else:
458
 
            # TODO now merge from tree.last_revision to revision
459
 
            transform_tree(tree, self)
460
 
            tree.set_last_revision(revision_id)
461
 
 
462
 
    @needs_write_lock
463
 
    def commit(self, message=None, revprops=None, *args, **kwargs):
464
 
        # avoid circular imports
465
 
        from bzrlib.commit import Commit
466
 
        if revprops is None:
467
 
            revprops = {}
468
 
        if not 'branch-nick' in revprops:
469
 
            revprops['branch-nick'] = self.branch.nick
470
 
        # args for wt.commit start at message from the Commit.commit method,
471
 
        # but with branch a kwarg now, passing in args as is results in the
472
 
        #message being used for the branch
473
 
        args = (DEPRECATED_PARAMETER, message, ) + args
474
 
        Commit().commit(working_tree=self, revprops=revprops, *args, **kwargs)
475
 
        self._set_inventory(self.read_working_inventory())
 
533
            # TODO now merge from tree.last_revision to revision (to preserve
 
534
            # user local changes)
 
535
            merge.transform_tree(tree, self)
 
536
            tree.set_parent_ids([revision_id])
476
537
 
477
538
    def id2abspath(self, file_id):
478
539
        return self.abspath(self.id2path(file_id))
479
540
 
480
541
    def has_id(self, file_id):
481
542
        # files that have been deleted are excluded
482
 
        inv = self._inventory
 
543
        inv = self.inventory
483
544
        if not inv.has_id(file_id):
484
545
            return False
485
546
        path = inv.id2path(file_id)
486
 
        return bzrlib.osutils.lexists(self.abspath(path))
 
547
        return osutils.lexists(self.abspath(path))
487
548
 
488
549
    def has_or_had_id(self, file_id):
489
550
        if file_id == self.inventory.root.file_id:
493
554
    __contains__ = has_id
494
555
 
495
556
    def get_file_size(self, file_id):
496
 
        return os.path.getsize(self.id2abspath(file_id))
 
557
        """See Tree.get_file_size"""
 
558
        try:
 
559
            return os.path.getsize(self.id2abspath(file_id))
 
560
        except OSError, e:
 
561
            if e.errno != errno.ENOENT:
 
562
                raise
 
563
            else:
 
564
                return None
497
565
 
498
566
    @needs_read_lock
499
 
    def get_file_sha1(self, file_id):
500
 
        path = self._inventory.id2path(file_id)
501
 
        return self._hashcache.get_sha1(path)
502
 
 
503
 
    def is_executable(self, file_id):
504
 
        if not supports_executable():
 
567
    def get_file_sha1(self, file_id, path=None, stat_value=None):
 
568
        if not path:
 
569
            path = self._inventory.id2path(file_id)
 
570
        return self._hashcache.get_sha1(path, stat_value)
 
571
 
 
572
    def get_file_mtime(self, file_id, path=None):
 
573
        if not path:
 
574
            path = self.inventory.id2path(file_id)
 
575
        return os.lstat(self.abspath(path)).st_mtime
 
576
 
 
577
    def _is_executable_from_path_and_stat_from_basis(self, path, stat_result):
 
578
        file_id = self.path2id(path)
 
579
        return self._inventory[file_id].executable
 
580
 
 
581
    def _is_executable_from_path_and_stat_from_stat(self, path, stat_result):
 
582
        mode = stat_result.st_mode
 
583
        return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
584
 
 
585
    if not supports_executable():
 
586
        def is_executable(self, file_id, path=None):
505
587
            return self._inventory[file_id].executable
506
 
        else:
507
 
            path = self._inventory.id2path(file_id)
 
588
 
 
589
        _is_executable_from_path_and_stat = \
 
590
            _is_executable_from_path_and_stat_from_basis
 
591
    else:
 
592
        def is_executable(self, file_id, path=None):
 
593
            if not path:
 
594
                path = self.id2path(file_id)
508
595
            mode = os.lstat(self.abspath(path)).st_mode
509
 
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC&mode)
510
 
 
511
 
    @needs_write_lock
512
 
    def add(self, files, ids=None):
513
 
        """Make files versioned.
514
 
 
515
 
        Note that the command line normally calls smart_add instead,
516
 
        which can automatically recurse.
517
 
 
518
 
        This adds the files to the inventory, so that they will be
519
 
        recorded by the next commit.
520
 
 
521
 
        files
522
 
            List of paths to add, relative to the base of the tree.
523
 
 
524
 
        ids
525
 
            If set, use these instead of automatically generated ids.
526
 
            Must be the same length as the list of files, but may
527
 
            contain None for ids that are to be autogenerated.
528
 
 
529
 
        TODO: Perhaps have an option to add the ids even if the files do
530
 
              not (yet) exist.
531
 
 
532
 
        TODO: Perhaps callback with the ids and paths as they're added.
533
 
        """
 
596
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
597
 
 
598
        _is_executable_from_path_and_stat = \
 
599
            _is_executable_from_path_and_stat_from_stat
 
600
 
 
601
    @needs_tree_write_lock
 
602
    def _add(self, files, ids, kinds):
 
603
        """See MutableTree._add."""
534
604
        # TODO: Re-adding a file that is removed in the working copy
535
605
        # should probably put it back with the previous ID.
536
 
        if isinstance(files, basestring):
537
 
            assert(ids is None or isinstance(ids, basestring))
538
 
            files = [files]
539
 
            if ids is not None:
540
 
                ids = [ids]
541
 
 
542
 
        if ids is None:
543
 
            ids = [None] * len(files)
544
 
        else:
545
 
            assert(len(ids) == len(files))
546
 
 
547
 
        inv = self.read_working_inventory()
548
 
        for f,file_id in zip(files, ids):
549
 
            if self.is_control_filename(f):
550
 
                raise BzrError("cannot add control file %s" % quotefn(f))
551
 
 
552
 
            fp = splitpath(f)
553
 
 
554
 
            if len(fp) == 0:
555
 
                raise BzrError("cannot add top-level %r" % f)
556
 
 
557
 
            fullpath = normpath(self.abspath(f))
558
 
 
559
 
            try:
560
 
                kind = file_kind(fullpath)
561
 
            except OSError, e:
562
 
                if e.errno == errno.ENOENT:
563
 
                    raise NoSuchFile(fullpath)
564
 
                # maybe something better?
565
 
                raise BzrError('cannot add: not a regular file, symlink or directory: %s' % quotefn(f))
566
 
 
567
 
            if not InventoryEntry.versionable_kind(kind):
568
 
                raise BzrError('cannot add: not a versionable file ('
569
 
                               'i.e. regular file, symlink or directory): %s' % quotefn(f))
570
 
 
 
606
        # the read and write working inventory should not occur in this 
 
607
        # function - they should be part of lock_write and unlock.
 
608
        inv = self.inventory
 
609
        for f, file_id, kind in zip(files, ids, kinds):
571
610
            if file_id is None:
572
 
                file_id = gen_file_id(f)
573
 
            inv.add_path(f, kind=kind, file_id=file_id)
 
611
                inv.add_path(f, kind=kind)
 
612
            else:
 
613
                inv.add_path(f, kind=kind, file_id=file_id)
 
614
            self._inventory_is_modified = True
574
615
 
575
 
            mutter("add file %s file_id:{%s} kind=%r" % (f, file_id, kind))
576
 
        self._write_inventory(inv)
 
616
    @needs_tree_write_lock
 
617
    def _gather_kinds(self, files, kinds):
 
618
        """See MutableTree._gather_kinds."""
 
619
        for pos, f in enumerate(files):
 
620
            if kinds[pos] is None:
 
621
                fullpath = normpath(self.abspath(f))
 
622
                try:
 
623
                    kinds[pos] = file_kind(fullpath)
 
624
                except OSError, e:
 
625
                    if e.errno == errno.ENOENT:
 
626
                        raise errors.NoSuchFile(fullpath)
577
627
 
578
628
    @needs_write_lock
 
629
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
 
630
        """Add revision_id as a parent.
 
631
 
 
632
        This is equivalent to retrieving the current list of parent ids
 
633
        and setting the list to its value plus revision_id.
 
634
 
 
635
        :param revision_id: The revision id to add to the parent list. It may
 
636
        be a ghost revision as long as its not the first parent to be added,
 
637
        or the allow_leftmost_as_ghost parameter is set True.
 
638
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
 
639
        """
 
640
        parents = self.get_parent_ids() + [revision_id]
 
641
        self.set_parent_ids(parents, allow_leftmost_as_ghost=len(parents) > 1
 
642
            or allow_leftmost_as_ghost)
 
643
 
 
644
    @needs_tree_write_lock
 
645
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
 
646
        """Add revision_id, tree tuple as a parent.
 
647
 
 
648
        This is equivalent to retrieving the current list of parent trees
 
649
        and setting the list to its value plus parent_tuple. See also
 
650
        add_parent_tree_id - if you only have a parent id available it will be
 
651
        simpler to use that api. If you have the parent already available, using
 
652
        this api is preferred.
 
653
 
 
654
        :param parent_tuple: The (revision id, tree) to add to the parent list.
 
655
            If the revision_id is a ghost, pass None for the tree.
 
656
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
 
657
        """
 
658
        parent_ids = self.get_parent_ids() + [parent_tuple[0]]
 
659
        if len(parent_ids) > 1:
 
660
            # the leftmost may have already been a ghost, preserve that if it
 
661
            # was.
 
662
            allow_leftmost_as_ghost = True
 
663
        self.set_parent_ids(parent_ids,
 
664
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
665
 
 
666
    @needs_tree_write_lock
579
667
    def add_pending_merge(self, *revision_ids):
580
668
        # TODO: Perhaps should check at this point that the
581
669
        # history of the revision is actually present?
582
 
        p = self.pending_merges()
 
670
        parents = self.get_parent_ids()
583
671
        updated = False
584
672
        for rev_id in revision_ids:
585
 
            if rev_id in p:
 
673
            if rev_id in parents:
586
674
                continue
587
 
            p.append(rev_id)
 
675
            parents.append(rev_id)
588
676
            updated = True
589
677
        if updated:
590
 
            self.set_pending_merges(p)
591
 
 
592
 
    @needs_read_lock
593
 
    def pending_merges(self):
594
 
        """Return a list of pending merges.
595
 
 
596
 
        These are revisions that have been merged into the working
597
 
        directory but not yet committed.
598
 
        """
 
678
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
 
679
 
 
680
    def path_content_summary(self, path, _lstat=os.lstat,
 
681
        _mapper=osutils.file_kind_from_stat_mode):
 
682
        """See Tree.path_content_summary."""
 
683
        abspath = self.abspath(path)
599
684
        try:
600
 
            merges_file = self._control_files.get_utf8('pending-merges')
 
685
            stat_result = _lstat(abspath)
601
686
        except OSError, e:
602
 
            if e.errno != errno.ENOENT:
603
 
                raise
604
 
            return []
605
 
        p = []
606
 
        for l in merges_file.readlines():
607
 
            p.append(l.rstrip('\n'))
608
 
        return p
609
 
 
610
 
    @needs_write_lock
 
687
            if getattr(e, 'errno', None) == errno.ENOENT:
 
688
                # no file.
 
689
                return ('missing', None, None, None)
 
690
            # propagate other errors
 
691
            raise
 
692
        kind = _mapper(stat_result.st_mode)
 
693
        if kind == 'file':
 
694
            size = stat_result.st_size
 
695
            # try for a stat cache lookup
 
696
            executable = self._is_executable_from_path_and_stat(path, stat_result)
 
697
            return (kind, size, executable, self._sha_from_stat(
 
698
                path, stat_result))
 
699
        elif kind == 'directory':
 
700
            # perhaps it looks like a plain directory, but it's really a
 
701
            # reference.
 
702
            if self._directory_is_tree_reference(path):
 
703
                kind = 'tree-reference'
 
704
            return kind, None, None, None
 
705
        elif kind == 'symlink':
 
706
            return ('symlink', None, None, os.readlink(abspath))
 
707
        else:
 
708
            return (kind, None, None, None)
 
709
 
 
710
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
 
711
        """Common ghost checking functionality from set_parent_*.
 
712
 
 
713
        This checks that the left hand-parent exists if there are any
 
714
        revisions present.
 
715
        """
 
716
        if len(revision_ids) > 0:
 
717
            leftmost_id = revision_ids[0]
 
718
            if (not allow_leftmost_as_ghost and not
 
719
                self.branch.repository.has_revision(leftmost_id)):
 
720
                raise errors.GhostRevisionUnusableHere(leftmost_id)
 
721
 
 
722
    def _set_merges_from_parent_ids(self, parent_ids):
 
723
        merges = parent_ids[1:]
 
724
        self._transport.put_bytes('pending-merges', '\n'.join(merges),
 
725
            mode=self._control_files._file_mode)
 
726
 
 
727
    def _filter_parent_ids_by_ancestry(self, revision_ids):
 
728
        """Check that all merged revisions are proper 'heads'.
 
729
 
 
730
        This will always return the first revision_id, and any merged revisions
 
731
        which are 
 
732
        """
 
733
        if len(revision_ids) == 0:
 
734
            return revision_ids
 
735
        graph = self.branch.repository.get_graph()
 
736
        heads = graph.heads(revision_ids)
 
737
        new_revision_ids = revision_ids[:1]
 
738
        for revision_id in revision_ids[1:]:
 
739
            if revision_id in heads and revision_id not in new_revision_ids:
 
740
                new_revision_ids.append(revision_id)
 
741
        if new_revision_ids != revision_ids:
 
742
            trace.mutter('requested to set revision_ids = %s,'
 
743
                         ' but filtered to %s', revision_ids, new_revision_ids)
 
744
        return new_revision_ids
 
745
 
 
746
    @needs_tree_write_lock
 
747
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
 
748
        """Set the parent ids to revision_ids.
 
749
        
 
750
        See also set_parent_trees. This api will try to retrieve the tree data
 
751
        for each element of revision_ids from the trees repository. If you have
 
752
        tree data already available, it is more efficient to use
 
753
        set_parent_trees rather than set_parent_ids. set_parent_ids is however
 
754
        an easier API to use.
 
755
 
 
756
        :param revision_ids: The revision_ids to set as the parent ids of this
 
757
            working tree. Any of these may be ghosts.
 
758
        """
 
759
        self._check_parents_for_ghosts(revision_ids,
 
760
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
761
        for revision_id in revision_ids:
 
762
            _mod_revision.check_not_reserved_id(revision_id)
 
763
 
 
764
        revision_ids = self._filter_parent_ids_by_ancestry(revision_ids)
 
765
 
 
766
        if len(revision_ids) > 0:
 
767
            self.set_last_revision(revision_ids[0])
 
768
        else:
 
769
            self.set_last_revision(_mod_revision.NULL_REVISION)
 
770
 
 
771
        self._set_merges_from_parent_ids(revision_ids)
 
772
 
 
773
    @needs_tree_write_lock
 
774
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
 
775
        """See MutableTree.set_parent_trees."""
 
776
        parent_ids = [rev for (rev, tree) in parents_list]
 
777
        for revision_id in parent_ids:
 
778
            _mod_revision.check_not_reserved_id(revision_id)
 
779
 
 
780
        self._check_parents_for_ghosts(parent_ids,
 
781
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
782
 
 
783
        parent_ids = self._filter_parent_ids_by_ancestry(parent_ids)
 
784
 
 
785
        if len(parent_ids) == 0:
 
786
            leftmost_parent_id = _mod_revision.NULL_REVISION
 
787
            leftmost_parent_tree = None
 
788
        else:
 
789
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
 
790
 
 
791
        if self._change_last_revision(leftmost_parent_id):
 
792
            if leftmost_parent_tree is None:
 
793
                # If we don't have a tree, fall back to reading the
 
794
                # parent tree from the repository.
 
795
                self._cache_basis_inventory(leftmost_parent_id)
 
796
            else:
 
797
                inv = leftmost_parent_tree.inventory
 
798
                xml = self._create_basis_xml_from_inventory(
 
799
                                        leftmost_parent_id, inv)
 
800
                self._write_basis_inventory(xml)
 
801
        self._set_merges_from_parent_ids(parent_ids)
 
802
 
 
803
    @needs_tree_write_lock
611
804
    def set_pending_merges(self, rev_list):
612
 
        self._control_files.put_utf8('pending-merges', '\n'.join(rev_list))
 
805
        parents = self.get_parent_ids()
 
806
        leftmost = parents[:1]
 
807
        new_parents = leftmost + rev_list
 
808
        self.set_parent_ids(new_parents)
613
809
 
614
 
    @needs_write_lock
 
810
    @needs_tree_write_lock
615
811
    def set_merge_modified(self, modified_hashes):
616
812
        def iter_stanzas():
617
813
            for file_id, hash in modified_hashes.iteritems():
618
 
                yield Stanza(file_id=file_id, hash=hash)
 
814
                yield Stanza(file_id=file_id.decode('utf8'), hash=hash)
619
815
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
620
816
 
621
 
    @needs_write_lock
 
817
    def _sha_from_stat(self, path, stat_result):
 
818
        """Get a sha digest from the tree's stat cache.
 
819
 
 
820
        The default implementation assumes no stat cache is present.
 
821
 
 
822
        :param path: The path.
 
823
        :param stat_result: The stat result being looked up.
 
824
        """
 
825
        return None
 
826
 
622
827
    def _put_rio(self, filename, stanzas, header):
 
828
        self._must_be_locked()
623
829
        my_file = rio_file(stanzas, header)
624
 
        self._control_files.put(filename, my_file)
 
830
        self._transport.put_file(filename, my_file,
 
831
            mode=self._control_files._file_mode)
 
832
 
 
833
    @needs_write_lock # because merge pulls data into the branch.
 
834
    def merge_from_branch(self, branch, to_revision=None, from_revision=None,
 
835
        merge_type=None):
 
836
        """Merge from a branch into this working tree.
 
837
 
 
838
        :param branch: The branch to merge from.
 
839
        :param to_revision: If non-None, the merge will merge to to_revision,
 
840
            but not beyond it. to_revision does not need to be in the history
 
841
            of the branch when it is supplied. If None, to_revision defaults to
 
842
            branch.last_revision().
 
843
        """
 
844
        from bzrlib.merge import Merger, Merge3Merger
 
845
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
846
        try:
 
847
            merger = Merger(self.branch, this_tree=self, pb=pb)
 
848
            merger.pp = ProgressPhase("Merge phase", 5, pb)
 
849
            merger.pp.next_phase()
 
850
            # check that there are no
 
851
            # local alterations
 
852
            merger.check_basis(check_clean=True, require_commits=False)
 
853
            if to_revision is None:
 
854
                to_revision = _mod_revision.ensure_null(branch.last_revision())
 
855
            merger.other_rev_id = to_revision
 
856
            if _mod_revision.is_null(merger.other_rev_id):
 
857
                raise errors.NoCommits(branch)
 
858
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
 
859
            merger.other_basis = merger.other_rev_id
 
860
            merger.other_tree = self.branch.repository.revision_tree(
 
861
                merger.other_rev_id)
 
862
            merger.other_branch = branch
 
863
            merger.pp.next_phase()
 
864
            if from_revision is None:
 
865
                merger.find_base()
 
866
            else:
 
867
                merger.set_base_revision(from_revision, branch)
 
868
            if merger.base_rev_id == merger.other_rev_id:
 
869
                raise errors.PointlessMerge
 
870
            merger.backup_files = False
 
871
            if merge_type is None:
 
872
                merger.merge_type = Merge3Merger
 
873
            else:
 
874
                merger.merge_type = merge_type
 
875
            merger.set_interesting_files(None)
 
876
            merger.show_base = False
 
877
            merger.reprocess = False
 
878
            conflicts = merger.do_merge()
 
879
            merger.set_pending()
 
880
        finally:
 
881
            pb.finished()
 
882
        return conflicts
625
883
 
626
884
    @needs_read_lock
627
885
    def merge_modified(self):
 
886
        """Return a dictionary of files modified by a merge.
 
887
 
 
888
        The list is initialized by WorkingTree.set_merge_modified, which is 
 
889
        typically called after we make some automatic updates to the tree
 
890
        because of a merge.
 
891
 
 
892
        This returns a map of file_id->sha1, containing only files which are
 
893
        still in the working inventory and have that text hash.
 
894
        """
628
895
        try:
629
 
            hashfile = self._control_files.get('merge-hashes')
630
 
        except NoSuchFile:
 
896
            hashfile = self._transport.get('merge-hashes')
 
897
        except errors.NoSuchFile:
631
898
            return {}
632
899
        merge_hashes = {}
633
900
        try:
634
901
            if hashfile.next() != MERGE_MODIFIED_HEADER_1 + '\n':
635
 
                raise MergeModifiedFormatError()
 
902
                raise errors.MergeModifiedFormatError()
636
903
        except StopIteration:
637
 
            raise MergeModifiedFormatError()
 
904
            raise errors.MergeModifiedFormatError()
638
905
        for s in RioReader(hashfile):
639
 
            file_id = s.get("file_id")
 
906
            # RioReader reads in Unicode, so convert file_ids back to utf8
 
907
            file_id = osutils.safe_file_id(s.get("file_id"), warn=False)
640
908
            if file_id not in self.inventory:
641
909
                continue
642
 
            hash = s.get("hash")
643
 
            if hash == self.get_file_sha1(file_id):
644
 
                merge_hashes[file_id] = hash
 
910
            text_hash = s.get("hash")
 
911
            if text_hash == self.get_file_sha1(file_id):
 
912
                merge_hashes[file_id] = text_hash
645
913
        return merge_hashes
646
914
 
 
915
    @needs_write_lock
 
916
    def mkdir(self, path, file_id=None):
 
917
        """See MutableTree.mkdir()."""
 
918
        if file_id is None:
 
919
            file_id = generate_ids.gen_file_id(os.path.basename(path))
 
920
        os.mkdir(self.abspath(path))
 
921
        self.add(path, file_id, 'directory')
 
922
        return file_id
 
923
 
647
924
    def get_symlink_target(self, file_id):
648
925
        return os.readlink(self.id2abspath(file_id))
649
926
 
650
 
    def file_class(self, filename):
651
 
        if self.path2id(filename):
652
 
            return 'V'
653
 
        elif self.is_ignored(filename):
654
 
            return 'I'
655
 
        else:
656
 
            return '?'
657
 
 
658
 
    def list_files(self):
659
 
        """Recursively list all files as (path, class, kind, id).
 
927
    @needs_write_lock
 
928
    def subsume(self, other_tree):
 
929
        def add_children(inventory, entry):
 
930
            for child_entry in entry.children.values():
 
931
                inventory._byid[child_entry.file_id] = child_entry
 
932
                if child_entry.kind == 'directory':
 
933
                    add_children(inventory, child_entry)
 
934
        if other_tree.get_root_id() == self.get_root_id():
 
935
            raise errors.BadSubsumeSource(self, other_tree,
 
936
                                          'Trees have the same root')
 
937
        try:
 
938
            other_tree_path = self.relpath(other_tree.basedir)
 
939
        except errors.PathNotChild:
 
940
            raise errors.BadSubsumeSource(self, other_tree,
 
941
                'Tree is not contained by the other')
 
942
        new_root_parent = self.path2id(osutils.dirname(other_tree_path))
 
943
        if new_root_parent is None:
 
944
            raise errors.BadSubsumeSource(self, other_tree,
 
945
                'Parent directory is not versioned.')
 
946
        # We need to ensure that the result of a fetch will have a
 
947
        # versionedfile for the other_tree root, and only fetching into
 
948
        # RepositoryKnit2 guarantees that.
 
949
        if not self.branch.repository.supports_rich_root():
 
950
            raise errors.SubsumeTargetNeedsUpgrade(other_tree)
 
951
        other_tree.lock_tree_write()
 
952
        try:
 
953
            new_parents = other_tree.get_parent_ids()
 
954
            other_root = other_tree.inventory.root
 
955
            other_root.parent_id = new_root_parent
 
956
            other_root.name = osutils.basename(other_tree_path)
 
957
            self.inventory.add(other_root)
 
958
            add_children(self.inventory, other_root)
 
959
            self._write_inventory(self.inventory)
 
960
            # normally we don't want to fetch whole repositories, but i think
 
961
            # here we really do want to consolidate the whole thing.
 
962
            for parent_id in other_tree.get_parent_ids():
 
963
                self.branch.fetch(other_tree.branch, parent_id)
 
964
                self.add_parent_tree_id(parent_id)
 
965
        finally:
 
966
            other_tree.unlock()
 
967
        other_tree.bzrdir.retire_bzrdir()
 
968
 
 
969
    def _setup_directory_is_tree_reference(self):
 
970
        if self._branch.repository._format.supports_tree_reference:
 
971
            self._directory_is_tree_reference = \
 
972
                self._directory_may_be_tree_reference
 
973
        else:
 
974
            self._directory_is_tree_reference = \
 
975
                self._directory_is_never_tree_reference
 
976
 
 
977
    def _directory_is_never_tree_reference(self, relpath):
 
978
        return False
 
979
 
 
980
    def _directory_may_be_tree_reference(self, relpath):
 
981
        # as a special case, if a directory contains control files then 
 
982
        # it's a tree reference, except that the root of the tree is not
 
983
        return relpath and osutils.isdir(self.abspath(relpath) + u"/.bzr")
 
984
        # TODO: We could ask all the control formats whether they
 
985
        # recognize this directory, but at the moment there's no cheap api
 
986
        # to do that.  Since we probably can only nest bzr checkouts and
 
987
        # they always use this name it's ok for now.  -- mbp 20060306
 
988
        #
 
989
        # FIXME: There is an unhandled case here of a subdirectory
 
990
        # containing .bzr but not a branch; that will probably blow up
 
991
        # when you try to commit it.  It might happen if there is a
 
992
        # checkout in a subdirectory.  This can be avoided by not adding
 
993
        # it.  mbp 20070306
 
994
 
 
995
    @needs_tree_write_lock
 
996
    def extract(self, file_id, format=None):
 
997
        """Extract a subtree from this tree.
 
998
        
 
999
        A new branch will be created, relative to the path for this tree.
 
1000
        """
 
1001
        self.flush()
 
1002
        def mkdirs(path):
 
1003
            segments = osutils.splitpath(path)
 
1004
            transport = self.branch.bzrdir.root_transport
 
1005
            for name in segments:
 
1006
                transport = transport.clone(name)
 
1007
                transport.ensure_base()
 
1008
            return transport
 
1009
            
 
1010
        sub_path = self.id2path(file_id)
 
1011
        branch_transport = mkdirs(sub_path)
 
1012
        if format is None:
 
1013
            format = self.bzrdir.cloning_metadir()
 
1014
        branch_transport.ensure_base()
 
1015
        branch_bzrdir = format.initialize_on_transport(branch_transport)
 
1016
        try:
 
1017
            repo = branch_bzrdir.find_repository()
 
1018
        except errors.NoRepositoryPresent:
 
1019
            repo = branch_bzrdir.create_repository()
 
1020
        if not repo.supports_rich_root():
 
1021
            raise errors.RootNotRich()
 
1022
        new_branch = branch_bzrdir.create_branch()
 
1023
        new_branch.pull(self.branch)
 
1024
        for parent_id in self.get_parent_ids():
 
1025
            new_branch.fetch(self.branch, parent_id)
 
1026
        tree_transport = self.bzrdir.root_transport.clone(sub_path)
 
1027
        if tree_transport.base != branch_transport.base:
 
1028
            tree_bzrdir = format.initialize_on_transport(tree_transport)
 
1029
            branch.BranchReferenceFormat().initialize(tree_bzrdir, new_branch)
 
1030
        else:
 
1031
            tree_bzrdir = branch_bzrdir
 
1032
        wt = tree_bzrdir.create_workingtree(NULL_REVISION)
 
1033
        wt.set_parent_ids(self.get_parent_ids())
 
1034
        my_inv = self.inventory
 
1035
        child_inv = Inventory(root_id=None)
 
1036
        new_root = my_inv[file_id]
 
1037
        my_inv.remove_recursive_id(file_id)
 
1038
        new_root.parent_id = None
 
1039
        child_inv.add(new_root)
 
1040
        self._write_inventory(my_inv)
 
1041
        wt._write_inventory(child_inv)
 
1042
        return wt
 
1043
 
 
1044
    def _serialize(self, inventory, out_file):
 
1045
        xml5.serializer_v5.write_inventory(self._inventory, out_file,
 
1046
            working=True)
 
1047
 
 
1048
    def _deserialize(selt, in_file):
 
1049
        return xml5.serializer_v5.read_inventory(in_file)
 
1050
 
 
1051
    def flush(self):
 
1052
        """Write the in memory inventory to disk."""
 
1053
        # TODO: Maybe this should only write on dirty ?
 
1054
        if self._control_files._lock_mode != 'w':
 
1055
            raise errors.NotWriteLocked(self)
 
1056
        sio = StringIO()
 
1057
        self._serialize(self._inventory, sio)
 
1058
        sio.seek(0)
 
1059
        self._transport.put_file('inventory', sio,
 
1060
            mode=self._control_files._file_mode)
 
1061
        self._inventory_is_modified = False
 
1062
 
 
1063
    def _kind(self, relpath):
 
1064
        return osutils.file_kind(self.abspath(relpath))
 
1065
 
 
1066
    def list_files(self, include_root=False):
 
1067
        """Recursively list all files as (path, class, kind, id, entry).
660
1068
 
661
1069
        Lists, but does not descend into unversioned directories.
662
1070
 
665
1073
 
666
1074
        Skips the control directory.
667
1075
        """
668
 
        inv = self._inventory
669
 
 
670
 
        def descend(from_dir_relpath, from_dir_id, dp):
671
 
            ls = os.listdir(dp)
672
 
            ls.sort()
673
 
            for f in ls:
 
1076
        # list_files is an iterator, so @needs_read_lock doesn't work properly
 
1077
        # with it. So callers should be careful to always read_lock the tree.
 
1078
        if not self.is_locked():
 
1079
            raise errors.ObjectNotLocked(self)
 
1080
 
 
1081
        inv = self.inventory
 
1082
        if include_root is True:
 
1083
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
 
1084
        # Convert these into local objects to save lookup times
 
1085
        pathjoin = osutils.pathjoin
 
1086
        file_kind = self._kind
 
1087
 
 
1088
        # transport.base ends in a slash, we want the piece
 
1089
        # between the last two slashes
 
1090
        transport_base_dir = self.bzrdir.transport.base.rsplit('/', 2)[1]
 
1091
 
 
1092
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
 
1093
 
 
1094
        # directory file_id, relative path, absolute path, reverse sorted children
 
1095
        children = os.listdir(self.basedir)
 
1096
        children.sort()
 
1097
        # jam 20060527 The kernel sized tree seems equivalent whether we 
 
1098
        # use a deque and popleft to keep them sorted, or if we use a plain
 
1099
        # list and just reverse() them.
 
1100
        children = collections.deque(children)
 
1101
        stack = [(inv.root.file_id, u'', self.basedir, children)]
 
1102
        while stack:
 
1103
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
 
1104
 
 
1105
            while children:
 
1106
                f = children.popleft()
674
1107
                ## TODO: If we find a subdirectory with its own .bzr
675
1108
                ## directory, then that is a separate tree and we
676
1109
                ## should exclude it.
677
1110
 
678
1111
                # the bzrdir for this tree
679
 
                if self.bzrdir.transport.base.endswith(f + '/'):
 
1112
                if transport_base_dir == f:
680
1113
                    continue
681
1114
 
682
 
                # path within tree
683
 
                fp = appendpath(from_dir_relpath, f)
 
1115
                # we know that from_dir_relpath and from_dir_abspath never end in a slash
 
1116
                # and 'f' doesn't begin with one, we can do a string op, rather
 
1117
                # than the checks of pathjoin(), all relative paths will have an extra slash
 
1118
                # at the beginning
 
1119
                fp = from_dir_relpath + '/' + f
684
1120
 
685
1121
                # absolute path
686
 
                fap = appendpath(dp, f)
 
1122
                fap = from_dir_abspath + '/' + f
687
1123
                
688
1124
                f_ie = inv.get_child(from_dir_id, f)
689
1125
                if f_ie:
690
1126
                    c = 'V'
691
 
                elif self.is_ignored(fp):
 
1127
                elif self.is_ignored(fp[1:]):
692
1128
                    c = 'I'
693
1129
                else:
694
 
                    c = '?'
 
1130
                    # we may not have found this file, because of a unicode issue
 
1131
                    f_norm, can_access = osutils.normalized_filename(f)
 
1132
                    if f == f_norm or not can_access:
 
1133
                        # No change, so treat this file normally
 
1134
                        c = '?'
 
1135
                    else:
 
1136
                        # this file can be accessed by a normalized path
 
1137
                        # check again if it is versioned
 
1138
                        # these lines are repeated here for performance
 
1139
                        f = f_norm
 
1140
                        fp = from_dir_relpath + '/' + f
 
1141
                        fap = from_dir_abspath + '/' + f
 
1142
                        f_ie = inv.get_child(from_dir_id, f)
 
1143
                        if f_ie:
 
1144
                            c = 'V'
 
1145
                        elif self.is_ignored(fp[1:]):
 
1146
                            c = 'I'
 
1147
                        else:
 
1148
                            c = '?'
695
1149
 
696
1150
                fk = file_kind(fap)
697
1151
 
698
 
                if f_ie:
699
 
                    if f_ie.kind != fk:
700
 
                        raise BzrCheckError("file %r entered as kind %r id %r, "
701
 
                                            "now of kind %r"
702
 
                                            % (fap, f_ie.kind, f_ie.file_id, fk))
703
 
 
704
1152
                # make a last minute entry
705
1153
                if f_ie:
706
 
                    entry = f_ie
 
1154
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
707
1155
                else:
708
 
                    if fk == 'directory':
709
 
                        entry = TreeDirectory()
710
 
                    elif fk == 'file':
711
 
                        entry = TreeFile()
712
 
                    elif fk == 'symlink':
713
 
                        entry = TreeLink()
714
 
                    else:
715
 
                        entry = TreeEntry()
 
1156
                    try:
 
1157
                        yield fp[1:], c, fk, None, fk_entries[fk]()
 
1158
                    except KeyError:
 
1159
                        yield fp[1:], c, fk, None, TreeEntry()
 
1160
                    continue
716
1161
                
717
 
                yield fp, c, fk, (f_ie and f_ie.file_id), entry
718
 
 
719
1162
                if fk != 'directory':
720
1163
                    continue
721
1164
 
722
 
                if c != 'V':
723
 
                    # don't descend unversioned directories
724
 
                    continue
725
 
                
726
 
                for ff in descend(fp, f_ie.file_id, fap):
727
 
                    yield ff
728
 
 
729
 
        for f in descend(u'', inv.root.file_id, self.basedir):
730
 
            yield f
731
 
 
732
 
    @needs_write_lock
733
 
    def move(self, from_paths, to_name):
 
1165
                # But do this child first
 
1166
                new_children = os.listdir(fap)
 
1167
                new_children.sort()
 
1168
                new_children = collections.deque(new_children)
 
1169
                stack.append((f_ie.file_id, fp, fap, new_children))
 
1170
                # Break out of inner loop,
 
1171
                # so that we start outer loop with child
 
1172
                break
 
1173
            else:
 
1174
                # if we finished all children, pop it off the stack
 
1175
                stack.pop()
 
1176
 
 
1177
    @needs_tree_write_lock
 
1178
    def move(self, from_paths, to_dir=None, after=False, **kwargs):
734
1179
        """Rename files.
735
1180
 
736
 
        to_name must exist in the inventory.
 
1181
        to_dir must exist in the inventory.
737
1182
 
738
 
        If to_name exists and is a directory, the files are moved into
 
1183
        If to_dir exists and is a directory, the files are moved into
739
1184
        it, keeping their old names.  
740
1185
 
741
 
        Note that to_name is only the last component of the new name;
 
1186
        Note that to_dir is only the last component of the new name;
742
1187
        this doesn't change the directory.
743
1188
 
 
1189
        For each entry in from_paths the move mode will be determined
 
1190
        independently.
 
1191
 
 
1192
        The first mode moves the file in the filesystem and updates the
 
1193
        inventory. The second mode only updates the inventory without
 
1194
        touching the file on the filesystem. This is the new mode introduced
 
1195
        in version 0.15.
 
1196
 
 
1197
        move uses the second mode if 'after == True' and the target is not
 
1198
        versioned but present in the working tree.
 
1199
 
 
1200
        move uses the second mode if 'after == False' and the source is
 
1201
        versioned but no longer in the working tree, and the target is not
 
1202
        versioned but present in the working tree.
 
1203
 
 
1204
        move uses the first mode if 'after == False' and the source is
 
1205
        versioned and present in the working tree, and the target is not
 
1206
        versioned and not present in the working tree.
 
1207
 
 
1208
        Everything else results in an error.
 
1209
 
744
1210
        This returns a list of (from_path, to_path) pairs for each
745
1211
        entry that is moved.
746
1212
        """
747
 
        result = []
748
 
        ## TODO: Option to move IDs only
749
 
        assert not isinstance(from_paths, basestring)
 
1213
        rename_entries = []
 
1214
        rename_tuples = []
 
1215
 
 
1216
        # check for deprecated use of signature
 
1217
        if to_dir is None:
 
1218
            to_dir = kwargs.get('to_name', None)
 
1219
            if to_dir is None:
 
1220
                raise TypeError('You must supply a target directory')
 
1221
            else:
 
1222
                symbol_versioning.warn('The parameter to_name was deprecated'
 
1223
                                       ' in version 0.13. Use to_dir instead',
 
1224
                                       DeprecationWarning)
 
1225
 
 
1226
        # check destination directory
 
1227
        if isinstance(from_paths, basestring):
 
1228
            raise ValueError()
750
1229
        inv = self.inventory
751
 
        to_abs = self.abspath(to_name)
 
1230
        to_abs = self.abspath(to_dir)
752
1231
        if not isdir(to_abs):
753
 
            raise BzrError("destination %r is not a directory" % to_abs)
754
 
        if not self.has_filename(to_name):
755
 
            raise BzrError("destination %r not in working directory" % to_abs)
756
 
        to_dir_id = inv.path2id(to_name)
757
 
        if to_dir_id == None and to_name != '':
758
 
            raise BzrError("destination %r is not a versioned directory" % to_name)
 
1232
            raise errors.BzrMoveFailedError('',to_dir,
 
1233
                errors.NotADirectory(to_abs))
 
1234
        if not self.has_filename(to_dir):
 
1235
            raise errors.BzrMoveFailedError('',to_dir,
 
1236
                errors.NotInWorkingDirectory(to_dir))
 
1237
        to_dir_id = inv.path2id(to_dir)
 
1238
        if to_dir_id is None:
 
1239
            raise errors.BzrMoveFailedError('',to_dir,
 
1240
                errors.NotVersionedError(path=str(to_dir)))
 
1241
 
759
1242
        to_dir_ie = inv[to_dir_id]
760
 
        if to_dir_ie.kind not in ('directory', 'root_directory'):
761
 
            raise BzrError("destination %r is not a directory" % to_abs)
762
 
 
763
 
        to_idpath = inv.get_idpath(to_dir_id)
764
 
 
765
 
        for f in from_paths:
766
 
            if not self.has_filename(f):
767
 
                raise BzrError("%r does not exist in working tree" % f)
768
 
            f_id = inv.path2id(f)
769
 
            if f_id == None:
770
 
                raise BzrError("%r is not versioned" % f)
771
 
            name_tail = splitpath(f)[-1]
772
 
            dest_path = appendpath(to_name, name_tail)
773
 
            if self.has_filename(dest_path):
774
 
                raise BzrError("destination %r already exists" % dest_path)
775
 
            if f_id in to_idpath:
776
 
                raise BzrError("can't move %r to a subdirectory of itself" % f)
777
 
 
778
 
        # OK, so there's a race here, it's possible that someone will
779
 
        # create a file in this interval and then the rename might be
780
 
        # left half-done.  But we should have caught most problems.
781
 
        orig_inv = deepcopy(self.inventory)
 
1243
        if to_dir_ie.kind != 'directory':
 
1244
            raise errors.BzrMoveFailedError('',to_dir,
 
1245
                errors.NotADirectory(to_abs))
 
1246
 
 
1247
        # create rename entries and tuples
 
1248
        for from_rel in from_paths:
 
1249
            from_tail = splitpath(from_rel)[-1]
 
1250
            from_id = inv.path2id(from_rel)
 
1251
            if from_id is None:
 
1252
                raise errors.BzrMoveFailedError(from_rel,to_dir,
 
1253
                    errors.NotVersionedError(path=str(from_rel)))
 
1254
 
 
1255
            from_entry = inv[from_id]
 
1256
            from_parent_id = from_entry.parent_id
 
1257
            to_rel = pathjoin(to_dir, from_tail)
 
1258
            rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
 
1259
                                         from_id=from_id,
 
1260
                                         from_tail=from_tail,
 
1261
                                         from_parent_id=from_parent_id,
 
1262
                                         to_rel=to_rel, to_tail=from_tail,
 
1263
                                         to_parent_id=to_dir_id)
 
1264
            rename_entries.append(rename_entry)
 
1265
            rename_tuples.append((from_rel, to_rel))
 
1266
 
 
1267
        # determine which move mode to use. checks also for movability
 
1268
        rename_entries = self._determine_mv_mode(rename_entries, after)
 
1269
 
 
1270
        original_modified = self._inventory_is_modified
782
1271
        try:
783
 
            for f in from_paths:
784
 
                name_tail = splitpath(f)[-1]
785
 
                dest_path = appendpath(to_name, name_tail)
786
 
                result.append((f, dest_path))
787
 
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
788
 
                try:
789
 
                    rename(self.abspath(f), self.abspath(dest_path))
790
 
                except OSError, e:
791
 
                    raise BzrError("failed to rename %r to %r: %s" %
792
 
                                   (f, dest_path, e[1]),
793
 
                            ["rename rolled back"])
 
1272
            if len(from_paths):
 
1273
                self._inventory_is_modified = True
 
1274
            self._move(rename_entries)
794
1275
        except:
795
1276
            # restore the inventory on error
796
 
            self._set_inventory(orig_inv)
 
1277
            self._inventory_is_modified = original_modified
797
1278
            raise
798
1279
        self._write_inventory(inv)
799
 
        return result
800
 
 
801
 
    @needs_write_lock
802
 
    def rename_one(self, from_rel, to_rel):
 
1280
        return rename_tuples
 
1281
 
 
1282
    def _determine_mv_mode(self, rename_entries, after=False):
 
1283
        """Determines for each from-to pair if both inventory and working tree
 
1284
        or only the inventory has to be changed.
 
1285
 
 
1286
        Also does basic plausability tests.
 
1287
        """
 
1288
        inv = self.inventory
 
1289
 
 
1290
        for rename_entry in rename_entries:
 
1291
            # store to local variables for easier reference
 
1292
            from_rel = rename_entry.from_rel
 
1293
            from_id = rename_entry.from_id
 
1294
            to_rel = rename_entry.to_rel
 
1295
            to_id = inv.path2id(to_rel)
 
1296
            only_change_inv = False
 
1297
 
 
1298
            # check the inventory for source and destination
 
1299
            if from_id is None:
 
1300
                raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1301
                    errors.NotVersionedError(path=str(from_rel)))
 
1302
            if to_id is not None:
 
1303
                raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1304
                    errors.AlreadyVersionedError(path=str(to_rel)))
 
1305
 
 
1306
            # try to determine the mode for rename (only change inv or change
 
1307
            # inv and file system)
 
1308
            if after:
 
1309
                if not self.has_filename(to_rel):
 
1310
                    raise errors.BzrMoveFailedError(from_id,to_rel,
 
1311
                        errors.NoSuchFile(path=str(to_rel),
 
1312
                        extra="New file has not been created yet"))
 
1313
                only_change_inv = True
 
1314
            elif not self.has_filename(from_rel) and self.has_filename(to_rel):
 
1315
                only_change_inv = True
 
1316
            elif self.has_filename(from_rel) and not self.has_filename(to_rel):
 
1317
                only_change_inv = False
 
1318
            elif (sys.platform == 'win32'
 
1319
                and from_rel.lower() == to_rel.lower()
 
1320
                and self.has_filename(from_rel)):
 
1321
                only_change_inv = False
 
1322
            else:
 
1323
                # something is wrong, so lets determine what exactly
 
1324
                if not self.has_filename(from_rel) and \
 
1325
                   not self.has_filename(to_rel):
 
1326
                    raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1327
                        errors.PathsDoNotExist(paths=(str(from_rel),
 
1328
                        str(to_rel))))
 
1329
                else:
 
1330
                    raise errors.RenameFailedFilesExist(from_rel, to_rel)
 
1331
            rename_entry.only_change_inv = only_change_inv
 
1332
        return rename_entries
 
1333
 
 
1334
    def _move(self, rename_entries):
 
1335
        """Moves a list of files.
 
1336
 
 
1337
        Depending on the value of the flag 'only_change_inv', the
 
1338
        file will be moved on the file system or not.
 
1339
        """
 
1340
        inv = self.inventory
 
1341
        moved = []
 
1342
 
 
1343
        for entry in rename_entries:
 
1344
            try:
 
1345
                self._move_entry(entry)
 
1346
            except:
 
1347
                self._rollback_move(moved)
 
1348
                raise
 
1349
            moved.append(entry)
 
1350
 
 
1351
    def _rollback_move(self, moved):
 
1352
        """Try to rollback a previous move in case of an filesystem error."""
 
1353
        inv = self.inventory
 
1354
        for entry in moved:
 
1355
            try:
 
1356
                self._move_entry(_RenameEntry(entry.to_rel, entry.from_id,
 
1357
                    entry.to_tail, entry.to_parent_id, entry.from_rel,
 
1358
                    entry.from_tail, entry.from_parent_id,
 
1359
                    entry.only_change_inv))
 
1360
            except errors.BzrMoveFailedError, e:
 
1361
                raise errors.BzrMoveFailedError( '', '', "Rollback failed."
 
1362
                        " The working tree is in an inconsistent state."
 
1363
                        " Please consider doing a 'bzr revert'."
 
1364
                        " Error message is: %s" % e)
 
1365
 
 
1366
    def _move_entry(self, entry):
 
1367
        inv = self.inventory
 
1368
        from_rel_abs = self.abspath(entry.from_rel)
 
1369
        to_rel_abs = self.abspath(entry.to_rel)
 
1370
        if from_rel_abs == to_rel_abs:
 
1371
            raise errors.BzrMoveFailedError(entry.from_rel, entry.to_rel,
 
1372
                "Source and target are identical.")
 
1373
 
 
1374
        if not entry.only_change_inv:
 
1375
            try:
 
1376
                osutils.rename(from_rel_abs, to_rel_abs)
 
1377
            except OSError, e:
 
1378
                raise errors.BzrMoveFailedError(entry.from_rel,
 
1379
                    entry.to_rel, e[1])
 
1380
        inv.rename(entry.from_id, entry.to_parent_id, entry.to_tail)
 
1381
 
 
1382
    @needs_tree_write_lock
 
1383
    def rename_one(self, from_rel, to_rel, after=False):
803
1384
        """Rename one file.
804
1385
 
805
1386
        This can change the directory or the filename or both.
 
1387
 
 
1388
        rename_one has several 'modes' to work. First, it can rename a physical
 
1389
        file and change the file_id. That is the normal mode. Second, it can
 
1390
        only change the file_id without touching any physical file. This is
 
1391
        the new mode introduced in version 0.15.
 
1392
 
 
1393
        rename_one uses the second mode if 'after == True' and 'to_rel' is not
 
1394
        versioned but present in the working tree.
 
1395
 
 
1396
        rename_one uses the second mode if 'after == False' and 'from_rel' is
 
1397
        versioned but no longer in the working tree, and 'to_rel' is not
 
1398
        versioned but present in the working tree.
 
1399
 
 
1400
        rename_one uses the first mode if 'after == False' and 'from_rel' is
 
1401
        versioned and present in the working tree, and 'to_rel' is not
 
1402
        versioned and not present in the working tree.
 
1403
 
 
1404
        Everything else results in an error.
806
1405
        """
807
1406
        inv = self.inventory
808
 
        if not self.has_filename(from_rel):
809
 
            raise BzrError("can't rename: old working file %r does not exist" % from_rel)
810
 
        if self.has_filename(to_rel):
811
 
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
812
 
 
813
 
        file_id = inv.path2id(from_rel)
814
 
        if file_id == None:
815
 
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
816
 
 
817
 
        entry = inv[file_id]
818
 
        from_parent = entry.parent_id
819
 
        from_name = entry.name
820
 
        
821
 
        if inv.path2id(to_rel):
822
 
            raise BzrError("can't rename: new name %r is already versioned" % to_rel)
823
 
 
 
1407
        rename_entries = []
 
1408
 
 
1409
        # create rename entries and tuples
 
1410
        from_tail = splitpath(from_rel)[-1]
 
1411
        from_id = inv.path2id(from_rel)
 
1412
        if from_id is None:
 
1413
            raise errors.BzrRenameFailedError(from_rel,to_rel,
 
1414
                errors.NotVersionedError(path=str(from_rel)))
 
1415
        from_entry = inv[from_id]
 
1416
        from_parent_id = from_entry.parent_id
824
1417
        to_dir, to_tail = os.path.split(to_rel)
825
1418
        to_dir_id = inv.path2id(to_dir)
826
 
        if to_dir_id == None and to_dir != '':
827
 
            raise BzrError("can't determine destination directory id for %r" % to_dir)
828
 
 
829
 
        mutter("rename_one:")
830
 
        mutter("  file_id    {%s}" % file_id)
831
 
        mutter("  from_rel   %r" % from_rel)
832
 
        mutter("  to_rel     %r" % to_rel)
833
 
        mutter("  to_dir     %r" % to_dir)
834
 
        mutter("  to_dir_id  {%s}" % to_dir_id)
835
 
 
836
 
        inv.rename(file_id, to_dir_id, to_tail)
837
 
 
838
 
        from_abs = self.abspath(from_rel)
839
 
        to_abs = self.abspath(to_rel)
840
 
        try:
841
 
            rename(from_abs, to_abs)
842
 
        except OSError, e:
843
 
            inv.rename(file_id, from_parent, from_name)
844
 
            raise BzrError("failed to rename %r to %r: %s"
845
 
                    % (from_abs, to_abs, e[1]),
846
 
                    ["rename rolled back"])
 
1419
        rename_entry = WorkingTree._RenameEntry(from_rel=from_rel,
 
1420
                                     from_id=from_id,
 
1421
                                     from_tail=from_tail,
 
1422
                                     from_parent_id=from_parent_id,
 
1423
                                     to_rel=to_rel, to_tail=to_tail,
 
1424
                                     to_parent_id=to_dir_id)
 
1425
        rename_entries.append(rename_entry)
 
1426
 
 
1427
        # determine which move mode to use. checks also for movability
 
1428
        rename_entries = self._determine_mv_mode(rename_entries, after)
 
1429
 
 
1430
        # check if the target changed directory and if the target directory is
 
1431
        # versioned
 
1432
        if to_dir_id is None:
 
1433
            raise errors.BzrMoveFailedError(from_rel,to_rel,
 
1434
                errors.NotVersionedError(path=str(to_dir)))
 
1435
 
 
1436
        # all checks done. now we can continue with our actual work
 
1437
        mutter('rename_one:\n'
 
1438
               '  from_id   {%s}\n'
 
1439
               '  from_rel: %r\n'
 
1440
               '  to_rel:   %r\n'
 
1441
               '  to_dir    %r\n'
 
1442
               '  to_dir_id {%s}\n',
 
1443
               from_id, from_rel, to_rel, to_dir, to_dir_id)
 
1444
 
 
1445
        self._move(rename_entries)
847
1446
        self._write_inventory(inv)
848
1447
 
 
1448
    class _RenameEntry(object):
 
1449
        def __init__(self, from_rel, from_id, from_tail, from_parent_id,
 
1450
                     to_rel, to_tail, to_parent_id, only_change_inv=False):
 
1451
            self.from_rel = from_rel
 
1452
            self.from_id = from_id
 
1453
            self.from_tail = from_tail
 
1454
            self.from_parent_id = from_parent_id
 
1455
            self.to_rel = to_rel
 
1456
            self.to_tail = to_tail
 
1457
            self.to_parent_id = to_parent_id
 
1458
            self.only_change_inv = only_change_inv
 
1459
 
849
1460
    @needs_read_lock
850
1461
    def unknowns(self):
851
1462
        """Return all unknown files.
852
1463
 
853
1464
        These are files in the working directory that are not versioned or
854
1465
        control files or ignored.
855
 
        
856
 
        >>> from bzrlib.bzrdir import ScratchDir
857
 
        >>> d = ScratchDir(files=['foo', 'foo~'])
858
 
        >>> b = d.open_branch()
859
 
        >>> tree = d.open_workingtree()
860
 
        >>> map(str, tree.unknowns())
861
 
        ['foo']
862
 
        >>> tree.add('foo')
863
 
        >>> list(b.unknowns())
864
 
        []
865
 
        >>> tree.remove('foo')
866
 
        >>> list(b.unknowns())
867
 
        [u'foo']
868
 
        """
869
 
        for subp in self.extras():
870
 
            if not self.is_ignored(subp):
871
 
                yield subp
872
 
 
873
 
    @deprecated_method(zero_eight)
874
 
    def iter_conflicts(self):
875
 
        """List all files in the tree that have text or content conflicts.
876
 
        DEPRECATED.  Use conflicts instead."""
877
 
        return self._iter_conflicts()
878
 
 
 
1466
        """
 
1467
        # force the extras method to be fully executed before returning, to 
 
1468
        # prevent race conditions with the lock
 
1469
        return iter(
 
1470
            [subp for subp in self.extras() if not self.is_ignored(subp)])
 
1471
 
 
1472
    @needs_tree_write_lock
 
1473
    def unversion(self, file_ids):
 
1474
        """Remove the file ids in file_ids from the current versioned set.
 
1475
 
 
1476
        When a file_id is unversioned, all of its children are automatically
 
1477
        unversioned.
 
1478
 
 
1479
        :param file_ids: The file ids to stop versioning.
 
1480
        :raises: NoSuchId if any fileid is not currently versioned.
 
1481
        """
 
1482
        for file_id in file_ids:
 
1483
            if self._inventory.has_id(file_id):
 
1484
                self._inventory.remove_recursive_id(file_id)
 
1485
            else:
 
1486
                raise errors.NoSuchId(self, file_id)
 
1487
        if len(file_ids):
 
1488
            # in the future this should just set a dirty bit to wait for the 
 
1489
            # final unlock. However, until all methods of workingtree start
 
1490
            # with the current in -memory inventory rather than triggering 
 
1491
            # a read, it is more complex - we need to teach read_inventory
 
1492
            # to know when to read, and when to not read first... and possibly
 
1493
            # to save first when the in memory one may be corrupted.
 
1494
            # so for now, we just only write it if it is indeed dirty.
 
1495
            # - RBC 20060907
 
1496
            self._write_inventory(self._inventory)
 
1497
    
879
1498
    def _iter_conflicts(self):
880
1499
        conflicted = set()
881
 
        for path in (s[0] for s in self.list_files()):
 
1500
        for info in self.list_files():
 
1501
            path = info[0]
882
1502
            stem = get_conflicted_stem(path)
883
1503
            if stem is None:
884
1504
                continue
887
1507
                yield stem
888
1508
 
889
1509
    @needs_write_lock
890
 
    def pull(self, source, overwrite=False, stop_revision=None):
 
1510
    def pull(self, source, overwrite=False, stop_revision=None,
 
1511
             change_reporter=None, possible_transports=None):
891
1512
        top_pb = bzrlib.ui.ui_factory.nested_progress_bar()
892
1513
        source.lock_read()
893
1514
        try:
894
1515
            pp = ProgressPhase("Pull phase", 2, top_pb)
895
1516
            pp.next_phase()
896
 
            old_revision_history = self.branch.revision_history()
 
1517
            old_revision_info = self.branch.last_revision_info()
897
1518
            basis_tree = self.basis_tree()
898
 
            count = self.branch.pull(source, overwrite, stop_revision)
899
 
            new_revision_history = self.branch.revision_history()
900
 
            if new_revision_history != old_revision_history:
 
1519
            count = self.branch.pull(source, overwrite, stop_revision,
 
1520
                                     possible_transports=possible_transports)
 
1521
            new_revision_info = self.branch.last_revision_info()
 
1522
            if new_revision_info != old_revision_info:
901
1523
                pp.next_phase()
902
 
                if len(old_revision_history):
903
 
                    other_revision = old_revision_history[-1]
904
 
                else:
905
 
                    other_revision = None
906
1524
                repository = self.branch.repository
907
1525
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
1526
                basis_tree.lock_read()
908
1527
                try:
909
 
                    merge_inner(self.branch,
910
 
                                self.branch.basis_tree(),
911
 
                                basis_tree, 
912
 
                                this_tree=self, 
913
 
                                pb=pb)
 
1528
                    new_basis_tree = self.branch.basis_tree()
 
1529
                    merge.merge_inner(
 
1530
                                self.branch,
 
1531
                                new_basis_tree,
 
1532
                                basis_tree,
 
1533
                                this_tree=self,
 
1534
                                pb=pb,
 
1535
                                change_reporter=change_reporter)
 
1536
                    if (basis_tree.inventory.root is None and
 
1537
                        new_basis_tree.inventory.root is not None):
 
1538
                        self.set_root_id(new_basis_tree.get_root_id())
914
1539
                finally:
915
1540
                    pb.finished()
916
 
                self.set_last_revision(self.branch.last_revision())
 
1541
                    basis_tree.unlock()
 
1542
                # TODO - dedup parents list with things merged by pull ?
 
1543
                # reuse the revisiontree we merged against to set the new
 
1544
                # tree data.
 
1545
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
 
1546
                # we have to pull the merge trees out again, because 
 
1547
                # merge_inner has set the ids. - this corner is not yet 
 
1548
                # layered well enough to prevent double handling.
 
1549
                # XXX TODO: Fix the double handling: telling the tree about
 
1550
                # the already known parent data is wasteful.
 
1551
                merges = self.get_parent_ids()[1:]
 
1552
                parent_trees.extend([
 
1553
                    (parent, repository.revision_tree(parent)) for
 
1554
                     parent in merges])
 
1555
                self.set_parent_trees(parent_trees)
917
1556
            return count
918
1557
        finally:
919
1558
            source.unlock()
920
1559
            top_pb.finished()
921
1560
 
 
1561
    @needs_write_lock
 
1562
    def put_file_bytes_non_atomic(self, file_id, bytes):
 
1563
        """See MutableTree.put_file_bytes_non_atomic."""
 
1564
        stream = file(self.id2abspath(file_id), 'wb')
 
1565
        try:
 
1566
            stream.write(bytes)
 
1567
        finally:
 
1568
            stream.close()
 
1569
        # TODO: update the hashcache here ?
 
1570
 
922
1571
    def extras(self):
923
 
        """Yield all unknown files in this WorkingTree.
 
1572
        """Yield all unversioned files in this WorkingTree.
924
1573
 
925
 
        If there are any unknown directories then only the directory is
926
 
        returned, not all its children.  But if there are unknown files
 
1574
        If there are any unversioned directories then only the directory is
 
1575
        returned, not all its children.  But if there are unversioned files
927
1576
        under a versioned subdirectory, they are returned.
928
1577
 
929
1578
        Currently returned depth-first, sorted by name within directories.
 
1579
        This is the same order used by 'osutils.walkdirs'.
930
1580
        """
931
1581
        ## TODO: Work from given directory downwards
932
1582
        for path, dir_entry in self.inventory.directories():
933
 
            mutter("search for unknowns in %r", path)
 
1583
            # mutter("search for unknowns in %r", path)
934
1584
            dirabs = self.abspath(path)
935
1585
            if not isdir(dirabs):
936
1586
                # e.g. directory deleted
938
1588
 
939
1589
            fl = []
940
1590
            for subf in os.listdir(dirabs):
941
 
                if (subf != '.bzr'
942
 
                    and (subf not in dir_entry.children)):
943
 
                    fl.append(subf)
 
1591
                if subf == '.bzr':
 
1592
                    continue
 
1593
                if subf not in dir_entry.children:
 
1594
                    subf_norm, can_access = osutils.normalized_filename(subf)
 
1595
                    if subf_norm != subf and can_access:
 
1596
                        if subf_norm not in dir_entry.children:
 
1597
                            fl.append(subf_norm)
 
1598
                    else:
 
1599
                        fl.append(subf)
944
1600
            
945
1601
            fl.sort()
946
1602
            for subf in fl:
947
 
                subp = appendpath(path, subf)
 
1603
                subp = pathjoin(path, subf)
948
1604
                yield subp
949
1605
 
950
 
 
951
1606
    def ignored_files(self):
952
1607
        """Yield list of PATH, IGNORE_PATTERN"""
953
1608
        for subp in self.extras():
954
1609
            pat = self.is_ignored(subp)
955
 
            if pat != None:
 
1610
            if pat is not None:
956
1611
                yield subp, pat
957
1612
 
958
 
 
959
1613
    def get_ignore_list(self):
960
1614
        """Return list of ignore patterns.
961
1615
 
962
1616
        Cached in the Tree object after the first call.
963
1617
        """
964
 
        if hasattr(self, '_ignorelist'):
965
 
            return self._ignorelist
 
1618
        ignoreset = getattr(self, '_ignoreset', None)
 
1619
        if ignoreset is not None:
 
1620
            return ignoreset
966
1621
 
967
 
        l = bzrlib.DEFAULT_IGNORE[:]
 
1622
        ignore_globs = set()
 
1623
        ignore_globs.update(ignores.get_runtime_ignores())
 
1624
        ignore_globs.update(ignores.get_user_ignores())
968
1625
        if self.has_filename(bzrlib.IGNORE_FILENAME):
969
1626
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
970
 
            l.extend([line.rstrip("\n\r") for line in f.readlines()])
971
 
        self._ignorelist = l
972
 
        return l
 
1627
            try:
 
1628
                ignore_globs.update(ignores.parse_ignore_file(f))
 
1629
            finally:
 
1630
                f.close()
 
1631
        self._ignoreset = ignore_globs
 
1632
        return ignore_globs
973
1633
 
 
1634
    def _flush_ignore_list_cache(self):
 
1635
        """Resets the cached ignore list to force a cache rebuild."""
 
1636
        self._ignoreset = None
 
1637
        self._ignoreglobster = None
974
1638
 
975
1639
    def is_ignored(self, filename):
976
1640
        r"""Check whether the filename matches an ignore pattern.
981
1645
        If the file is ignored, returns the pattern which caused it to
982
1646
        be ignored, otherwise None.  So this can simply be used as a
983
1647
        boolean if desired."""
984
 
 
985
 
        # TODO: Use '**' to match directories, and other extended
986
 
        # globbing stuff from cvs/rsync.
987
 
 
988
 
        # XXX: fnmatch is actually not quite what we want: it's only
989
 
        # approximately the same as real Unix fnmatch, and doesn't
990
 
        # treat dotfiles correctly and allows * to match /.
991
 
        # Eventually it should be replaced with something more
992
 
        # accurate.
993
 
        
994
 
        for pat in self.get_ignore_list():
995
 
            if '/' in pat or '\\' in pat:
996
 
                
997
 
                # as a special case, you can put ./ at the start of a
998
 
                # pattern; this is good to match in the top-level
999
 
                # only;
1000
 
                
1001
 
                if (pat[:2] == './') or (pat[:2] == '.\\'):
1002
 
                    newpat = pat[2:]
1003
 
                else:
1004
 
                    newpat = pat
1005
 
                if fnmatch.fnmatchcase(filename, newpat):
1006
 
                    return pat
1007
 
            else:
1008
 
                if fnmatch.fnmatchcase(splitpath(filename)[-1], pat):
1009
 
                    return pat
1010
 
        else:
1011
 
            return None
 
1648
        if getattr(self, '_ignoreglobster', None) is None:
 
1649
            self._ignoreglobster = globbing.Globster(self.get_ignore_list())
 
1650
        return self._ignoreglobster.match(filename)
1012
1651
 
1013
1652
    def kind(self, file_id):
1014
1653
        return file_kind(self.id2abspath(file_id))
1015
1654
 
1016
 
    @needs_read_lock
 
1655
    def stored_kind(self, file_id):
 
1656
        """See Tree.stored_kind"""
 
1657
        return self.inventory[file_id].kind
 
1658
 
 
1659
    def _comparison_data(self, entry, path):
 
1660
        abspath = self.abspath(path)
 
1661
        try:
 
1662
            stat_value = os.lstat(abspath)
 
1663
        except OSError, e:
 
1664
            if getattr(e, 'errno', None) == errno.ENOENT:
 
1665
                stat_value = None
 
1666
                kind = None
 
1667
                executable = False
 
1668
            else:
 
1669
                raise
 
1670
        else:
 
1671
            mode = stat_value.st_mode
 
1672
            kind = osutils.file_kind_from_stat_mode(mode)
 
1673
            if not supports_executable():
 
1674
                executable = entry is not None and entry.executable
 
1675
            else:
 
1676
                executable = bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
 
1677
        return kind, executable, stat_value
 
1678
 
 
1679
    def _file_size(self, entry, stat_value):
 
1680
        return stat_value.st_size
 
1681
 
1017
1682
    def last_revision(self):
1018
 
        """Return the last revision id of this working tree.
1019
 
 
1020
 
        In early branch formats this was == the branch last_revision,
1021
 
        but that cannot be relied upon - for working tree operations,
1022
 
        always use tree.last_revision().
 
1683
        """Return the last revision of the branch for this tree.
 
1684
 
 
1685
        This format tree does not support a separate marker for last-revision
 
1686
        compared to the branch.
 
1687
 
 
1688
        See MutableTree.last_revision
1023
1689
        """
1024
 
        return self.branch.last_revision()
 
1690
        return self._last_revision()
 
1691
 
 
1692
    @needs_read_lock
 
1693
    def _last_revision(self):
 
1694
        """helper for get_parent_ids."""
 
1695
        return _mod_revision.ensure_null(self.branch.last_revision())
 
1696
 
 
1697
    def is_locked(self):
 
1698
        return self._control_files.is_locked()
 
1699
 
 
1700
    def _must_be_locked(self):
 
1701
        if not self.is_locked():
 
1702
            raise errors.ObjectNotLocked(self)
1025
1703
 
1026
1704
    def lock_read(self):
1027
1705
        """See Branch.lock_read, and WorkingTree.unlock."""
 
1706
        if not self.is_locked():
 
1707
            self._reset_data()
1028
1708
        self.branch.lock_read()
1029
1709
        try:
1030
1710
            return self._control_files.lock_read()
1032
1712
            self.branch.unlock()
1033
1713
            raise
1034
1714
 
 
1715
    def lock_tree_write(self):
 
1716
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
 
1717
        if not self.is_locked():
 
1718
            self._reset_data()
 
1719
        self.branch.lock_read()
 
1720
        try:
 
1721
            return self._control_files.lock_write()
 
1722
        except:
 
1723
            self.branch.unlock()
 
1724
            raise
 
1725
 
1035
1726
    def lock_write(self):
1036
 
        """See Branch.lock_write, and WorkingTree.unlock."""
 
1727
        """See MutableTree.lock_write, and WorkingTree.unlock."""
 
1728
        if not self.is_locked():
 
1729
            self._reset_data()
1037
1730
        self.branch.lock_write()
1038
1731
        try:
1039
1732
            return self._control_files.lock_write()
1041
1734
            self.branch.unlock()
1042
1735
            raise
1043
1736
 
 
1737
    def get_physical_lock_status(self):
 
1738
        return self._control_files.get_physical_lock_status()
 
1739
 
1044
1740
    def _basis_inventory_name(self):
1045
 
        return 'basis-inventory'
1046
 
 
1047
 
    @needs_write_lock
 
1741
        return 'basis-inventory-cache'
 
1742
 
 
1743
    def _reset_data(self):
 
1744
        """Reset transient data that cannot be revalidated."""
 
1745
        self._inventory_is_modified = False
 
1746
        result = self._deserialize(self._transport.get('inventory'))
 
1747
        self._set_inventory(result, dirty=False)
 
1748
 
 
1749
    @needs_tree_write_lock
1048
1750
    def set_last_revision(self, new_revision):
1049
1751
        """Change the last revision in the working tree."""
1050
1752
        if self._change_last_revision(new_revision):
1056
1758
        This is used to allow WorkingTree3 instances to not affect branch
1057
1759
        when their last revision is set.
1058
1760
        """
1059
 
        if new_revision is None:
 
1761
        if _mod_revision.is_null(new_revision):
1060
1762
            self.branch.set_revision_history([])
1061
1763
            return False
1062
 
        # current format is locked in with the branch
1063
 
        revision_history = self.branch.revision_history()
1064
1764
        try:
1065
 
            position = revision_history.index(new_revision)
1066
 
        except ValueError:
1067
 
            raise errors.NoSuchRevision(self.branch, new_revision)
1068
 
        self.branch.set_revision_history(revision_history[:position + 1])
 
1765
            self.branch.generate_revision_history(new_revision)
 
1766
        except errors.NoSuchRevision:
 
1767
            # not present in the repo - dont try to set it deeper than the tip
 
1768
            self.branch.set_revision_history([new_revision])
1069
1769
        return True
1070
1770
 
 
1771
    def _write_basis_inventory(self, xml):
 
1772
        """Write the basis inventory XML to the basis-inventory file"""
 
1773
        path = self._basis_inventory_name()
 
1774
        sio = StringIO(xml)
 
1775
        self._transport.put_file(path, sio,
 
1776
            mode=self._control_files._file_mode)
 
1777
 
 
1778
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
 
1779
        """Create the text that will be saved in basis-inventory"""
 
1780
        inventory.revision_id = revision_id
 
1781
        return xml7.serializer_v7.write_inventory_to_string(inventory)
 
1782
 
1071
1783
    def _cache_basis_inventory(self, new_revision):
1072
1784
        """Cache new_revision as the basis inventory."""
 
1785
        # TODO: this should allow the ready-to-use inventory to be passed in,
 
1786
        # as commit already has that ready-to-use [while the format is the
 
1787
        # same, that is].
1073
1788
        try:
1074
1789
            # this double handles the inventory - unpack and repack - 
1075
1790
            # but is easier to understand. We can/should put a conditional
1076
1791
            # in here based on whether the inventory is in the latest format
1077
1792
            # - perhaps we should repack all inventories on a repository
1078
1793
            # upgrade ?
1079
 
            inv = self.branch.repository.get_inventory(new_revision)
1080
 
            inv.revision_id = new_revision
1081
 
            xml = bzrlib.xml5.serializer_v5.write_inventory_to_string(inv)
1082
 
 
1083
 
            path = self._basis_inventory_name()
1084
 
            self._control_files.put_utf8(path, xml)
1085
 
        except WeaveRevisionNotPresent:
 
1794
            # the fast path is to copy the raw xml from the repository. If the
 
1795
            # xml contains 'revision_id="', then we assume the right 
 
1796
            # revision_id is set. We must check for this full string, because a
 
1797
            # root node id can legitimately look like 'revision_id' but cannot
 
1798
            # contain a '"'.
 
1799
            xml = self.branch.repository.get_inventory_xml(new_revision)
 
1800
            firstline = xml.split('\n', 1)[0]
 
1801
            if (not 'revision_id="' in firstline or 
 
1802
                'format="7"' not in firstline):
 
1803
                inv = self.branch.repository.deserialise_inventory(
 
1804
                    new_revision, xml)
 
1805
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
 
1806
            self._write_basis_inventory(xml)
 
1807
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1086
1808
            pass
1087
1809
 
1088
1810
    def read_basis_inventory(self):
1089
1811
        """Read the cached basis inventory."""
1090
1812
        path = self._basis_inventory_name()
1091
 
        return self._control_files.get_utf8(path).read()
 
1813
        return self._transport.get_bytes(path)
1092
1814
        
1093
1815
    @needs_read_lock
1094
1816
    def read_working_inventory(self):
1095
 
        """Read the working inventory."""
 
1817
        """Read the working inventory.
 
1818
        
 
1819
        :raises errors.InventoryModified: read_working_inventory will fail
 
1820
            when the current in memory inventory has been modified.
 
1821
        """
 
1822
        # conceptually this should be an implementation detail of the tree. 
 
1823
        # XXX: Deprecate this.
1096
1824
        # ElementTree does its own conversion from UTF-8, so open in
1097
1825
        # binary.
1098
 
        result = bzrlib.xml5.serializer_v5.read_inventory(
1099
 
            self._control_files.get('inventory'))
1100
 
        self._set_inventory(result)
 
1826
        if self._inventory_is_modified:
 
1827
            raise errors.InventoryModified(self)
 
1828
        result = self._deserialize(self._transport.get('inventory'))
 
1829
        self._set_inventory(result, dirty=False)
1101
1830
        return result
1102
1831
 
1103
 
    @needs_write_lock
1104
 
    def remove(self, files, verbose=False):
1105
 
        """Remove nominated files from the working inventory..
1106
 
 
1107
 
        This does not remove their text.  This does not run on XXX on what? RBC
1108
 
 
1109
 
        TODO: Refuse to remove modified files unless --force is given?
1110
 
 
1111
 
        TODO: Do something useful with directories.
1112
 
 
1113
 
        TODO: Should this remove the text or not?  Tough call; not
1114
 
        removing may be useful and the user can just use use rm, and
1115
 
        is the opposite of add.  Removing it is consistent with most
1116
 
        other tools.  Maybe an option.
 
1832
    @needs_tree_write_lock
 
1833
    def remove(self, files, verbose=False, to_file=None, keep_files=True,
 
1834
        force=False):
 
1835
        """Remove nominated files from the working inventory.
 
1836
 
 
1837
        :files: File paths relative to the basedir.
 
1838
        :keep_files: If true, the files will also be kept.
 
1839
        :force: Delete files and directories, even if they are changed and
 
1840
            even if the directories are not empty.
1117
1841
        """
1118
 
        ## TODO: Normalize names
1119
 
        ## TODO: Remove nested loops; better scalability
1120
1842
        if isinstance(files, basestring):
1121
1843
            files = [files]
1122
1844
 
1123
 
        inv = self.inventory
1124
 
 
1125
 
        # do this before any modifications
 
1845
        inv_delta = []
 
1846
 
 
1847
        new_files=set()
 
1848
        unknown_nested_files=set()
 
1849
 
 
1850
        def recurse_directory_to_add_files(directory):
 
1851
            # Recurse directory and add all files
 
1852
            # so we can check if they have changed.
 
1853
            for parent_info, file_infos in\
 
1854
                osutils.walkdirs(self.abspath(directory),
 
1855
                    directory):
 
1856
                for relpath, basename, kind, lstat, abspath in file_infos:
 
1857
                    # Is it versioned or ignored?
 
1858
                    if self.path2id(relpath) or self.is_ignored(relpath):
 
1859
                        # Add nested content for deletion.
 
1860
                        new_files.add(relpath)
 
1861
                    else:
 
1862
                        # Files which are not versioned and not ignored
 
1863
                        # should be treated as unknown.
 
1864
                        unknown_nested_files.add((relpath, None, kind))
 
1865
 
 
1866
        for filename in files:
 
1867
            # Get file name into canonical form.
 
1868
            abspath = self.abspath(filename)
 
1869
            filename = self.relpath(abspath)
 
1870
            if len(filename) > 0:
 
1871
                new_files.add(filename)
 
1872
                if osutils.isdir(abspath):
 
1873
                    recurse_directory_to_add_files(filename)
 
1874
 
 
1875
        files = list(new_files)
 
1876
 
 
1877
        if len(files) == 0:
 
1878
            return # nothing to do
 
1879
 
 
1880
        # Sort needed to first handle directory content before the directory
 
1881
        files.sort(reverse=True)
 
1882
 
 
1883
        # Bail out if we are going to delete files we shouldn't
 
1884
        if not keep_files and not force:
 
1885
            has_changed_files = len(unknown_nested_files) > 0
 
1886
            if not has_changed_files:
 
1887
                for (file_id, path, content_change, versioned, parent_id, name,
 
1888
                     kind, executable) in self.iter_changes(self.basis_tree(),
 
1889
                         include_unchanged=True, require_versioned=False,
 
1890
                         want_unversioned=True, specific_files=files):
 
1891
                    if versioned == (False, False):
 
1892
                        # The record is unknown ...
 
1893
                        if not self.is_ignored(path[1]):
 
1894
                            # ... but not ignored
 
1895
                            has_changed_files = True
 
1896
                            break
 
1897
                    elif content_change and (kind[1] is not None):
 
1898
                        # Versioned and changed, but not deleted
 
1899
                        has_changed_files = True
 
1900
                        break
 
1901
 
 
1902
            if has_changed_files:
 
1903
                # Make delta show ALL applicable changes in error message.
 
1904
                tree_delta = self.changes_from(self.basis_tree(),
 
1905
                    require_versioned=False, want_unversioned=True,
 
1906
                    specific_files=files)
 
1907
                for unknown_file in unknown_nested_files:
 
1908
                    if unknown_file not in tree_delta.unversioned:
 
1909
                        tree_delta.unversioned.extend((unknown_file,))
 
1910
                raise errors.BzrRemoveChangedFilesError(tree_delta)
 
1911
 
 
1912
        # Build inv_delta and delete files where applicaple,
 
1913
        # do this before any modifications to inventory.
1126
1914
        for f in files:
1127
 
            fid = inv.path2id(f)
 
1915
            fid = self.path2id(f)
 
1916
            message = None
1128
1917
            if not fid:
1129
 
                # TODO: Perhaps make this just a warning, and continue?
1130
 
                # This tends to happen when 
1131
 
                raise NotVersionedError(path=f)
1132
 
            mutter("remove inventory entry %s {%s}", quotefn(f), fid)
1133
 
            if verbose:
1134
 
                # having remove it, it must be either ignored or unknown
1135
 
                if self.is_ignored(f):
1136
 
                    new_status = 'I'
1137
 
                else:
1138
 
                    new_status = '?'
1139
 
                show_status(new_status, inv[fid].kind, quotefn(f))
1140
 
            del inv[fid]
1141
 
 
1142
 
        self._write_inventory(inv)
1143
 
 
1144
 
    @needs_write_lock
1145
 
    def revert(self, filenames, old_tree=None, backups=True, 
1146
 
               pb=DummyProgress()):
1147
 
        from transform import revert
1148
 
        from conflicts import resolve
 
1918
                message = "%s is not versioned." % (f,)
 
1919
            else:
 
1920
                if verbose:
 
1921
                    # having removed it, it must be either ignored or unknown
 
1922
                    if self.is_ignored(f):
 
1923
                        new_status = 'I'
 
1924
                    else:
 
1925
                        new_status = '?'
 
1926
                    textui.show_status(new_status, self.kind(fid), f,
 
1927
                                       to_file=to_file)
 
1928
                # Unversion file
 
1929
                inv_delta.append((f, None, fid, None))
 
1930
                message = "removed %s" % (f,)
 
1931
 
 
1932
            if not keep_files:
 
1933
                abs_path = self.abspath(f)
 
1934
                if osutils.lexists(abs_path):
 
1935
                    if (osutils.isdir(abs_path) and
 
1936
                        len(os.listdir(abs_path)) > 0):
 
1937
                        if force:
 
1938
                            osutils.rmtree(abs_path)
 
1939
                        else:
 
1940
                            message = "%s is not an empty directory "\
 
1941
                                "and won't be deleted." % (f,)
 
1942
                    else:
 
1943
                        osutils.delete_any(abs_path)
 
1944
                        message = "deleted %s" % (f,)
 
1945
                elif message is not None:
 
1946
                    # Only care if we haven't done anything yet.
 
1947
                    message = "%s does not exist." % (f,)
 
1948
 
 
1949
            # Print only one message (if any) per file.
 
1950
            if message is not None:
 
1951
                note(message)
 
1952
        self.apply_inventory_delta(inv_delta)
 
1953
 
 
1954
    @needs_tree_write_lock
 
1955
    def revert(self, filenames=None, old_tree=None, backups=True,
 
1956
               pb=DummyProgress(), report_changes=False):
 
1957
        from bzrlib.conflicts import resolve
 
1958
        if filenames == []:
 
1959
            filenames = None
 
1960
            symbol_versioning.warn('Using [] to revert all files is deprecated'
 
1961
                ' as of bzr 0.91.  Please use None (the default) instead.',
 
1962
                DeprecationWarning, stacklevel=2)
1149
1963
        if old_tree is None:
1150
 
            old_tree = self.basis_tree()
1151
 
        conflicts = revert(self, old_tree, filenames, backups, pb)
1152
 
        if not len(filenames):
1153
 
            self.set_pending_merges([])
1154
 
            resolve(self)
 
1964
            basis_tree = self.basis_tree()
 
1965
            basis_tree.lock_read()
 
1966
            old_tree = basis_tree
1155
1967
        else:
1156
 
            resolve(self, filenames, ignore_misses=True)
 
1968
            basis_tree = None
 
1969
        try:
 
1970
            conflicts = transform.revert(self, old_tree, filenames, backups, pb,
 
1971
                                         report_changes)
 
1972
            if filenames is None and len(self.get_parent_ids()) > 1:
 
1973
                parent_trees = []
 
1974
                last_revision = self.last_revision()
 
1975
                if last_revision != NULL_REVISION:
 
1976
                    if basis_tree is None:
 
1977
                        basis_tree = self.basis_tree()
 
1978
                        basis_tree.lock_read()
 
1979
                    parent_trees.append((last_revision, basis_tree))
 
1980
                self.set_parent_trees(parent_trees)
 
1981
                resolve(self)
 
1982
            else:
 
1983
                resolve(self, filenames, ignore_misses=True, recursive=True)
 
1984
        finally:
 
1985
            if basis_tree is not None:
 
1986
                basis_tree.unlock()
1157
1987
        return conflicts
1158
1988
 
 
1989
    def revision_tree(self, revision_id):
 
1990
        """See Tree.revision_tree.
 
1991
 
 
1992
        WorkingTree can supply revision_trees for the basis revision only
 
1993
        because there is only one cached inventory in the bzr directory.
 
1994
        """
 
1995
        if revision_id == self.last_revision():
 
1996
            try:
 
1997
                xml = self.read_basis_inventory()
 
1998
            except errors.NoSuchFile:
 
1999
                pass
 
2000
            else:
 
2001
                try:
 
2002
                    inv = xml7.serializer_v7.read_inventory_from_string(xml)
 
2003
                    # dont use the repository revision_tree api because we want
 
2004
                    # to supply the inventory.
 
2005
                    if inv.revision_id == revision_id:
 
2006
                        return revisiontree.RevisionTree(self.branch.repository,
 
2007
                            inv, revision_id)
 
2008
                except errors.BadInventoryFormat:
 
2009
                    pass
 
2010
        # raise if there was no inventory, or if we read the wrong inventory.
 
2011
        raise errors.NoSuchRevisionInTree(self, revision_id)
 
2012
 
1159
2013
    # XXX: This method should be deprecated in favour of taking in a proper
1160
2014
    # new Inventory object.
1161
 
    @needs_write_lock
 
2015
    @needs_tree_write_lock
1162
2016
    def set_inventory(self, new_inventory_list):
1163
2017
        from bzrlib.inventory import (Inventory,
1164
2018
                                      InventoryDirectory,
1178
2032
            elif kind == 'symlink':
1179
2033
                inv.add(InventoryLink(file_id, name, parent))
1180
2034
            else:
1181
 
                raise BzrError("unknown kind %r" % kind)
 
2035
                raise errors.BzrError("unknown kind %r" % kind)
1182
2036
        self._write_inventory(inv)
1183
2037
 
1184
 
    @needs_write_lock
 
2038
    @needs_tree_write_lock
1185
2039
    def set_root_id(self, file_id):
1186
2040
        """Set the root id for this tree."""
1187
 
        inv = self.read_working_inventory()
 
2041
        # for compatability 
 
2042
        if file_id is None:
 
2043
            raise ValueError(
 
2044
                'WorkingTree.set_root_id with fileid=None')
 
2045
        file_id = osutils.safe_file_id(file_id)
 
2046
        self._set_root_id(file_id)
 
2047
 
 
2048
    def _set_root_id(self, file_id):
 
2049
        """Set the root id for this tree, in a format specific manner.
 
2050
 
 
2051
        :param file_id: The file id to assign to the root. It must not be 
 
2052
            present in the current inventory or an error will occur. It must
 
2053
            not be None, but rather a valid file id.
 
2054
        """
 
2055
        inv = self._inventory
1188
2056
        orig_root_id = inv.root.file_id
 
2057
        # TODO: it might be nice to exit early if there was nothing
 
2058
        # to do, saving us from trigger a sync on unlock.
 
2059
        self._inventory_is_modified = True
 
2060
        # we preserve the root inventory entry object, but
 
2061
        # unlinkit from the byid index
1189
2062
        del inv._byid[inv.root.file_id]
1190
2063
        inv.root.file_id = file_id
 
2064
        # and link it into the index with the new changed id.
1191
2065
        inv._byid[inv.root.file_id] = inv.root
 
2066
        # and finally update all children to reference the new id.
 
2067
        # XXX: this should be safe to just look at the root.children
 
2068
        # list, not the WHOLE INVENTORY.
1192
2069
        for fid in inv:
1193
2070
            entry = inv[fid]
1194
2071
            if entry.parent_id == orig_root_id:
1195
2072
                entry.parent_id = inv.root.file_id
1196
 
        self._write_inventory(inv)
1197
2073
 
1198
2074
    def unlock(self):
1199
2075
        """See Branch.unlock.
1204
2080
        between multiple working trees, i.e. via shared storage, then we 
1205
2081
        would probably want to lock both the local tree, and the branch.
1206
2082
        """
1207
 
        # FIXME: We want to write out the hashcache only when the last lock on
1208
 
        # this working copy is released.  Peeking at the lock count is a bit
1209
 
        # of a nasty hack; probably it's better to have a transaction object,
1210
 
        # which can do some finalization when it's either successfully or
1211
 
        # unsuccessfully completed.  (Denys's original patch did that.)
1212
 
        # RBC 20060206 hookinhg into transaction will couple lock and transaction
1213
 
        # wrongly. Hookinh into unllock on the control files object is fine though.
1214
 
        
1215
 
        # TODO: split this per format so there is no ugly if block
1216
 
        if self._hashcache.needs_write and (
1217
 
            # dedicated lock files
1218
 
            self._control_files._lock_count==1 or 
1219
 
            # shared lock files
1220
 
            (self._control_files is self.branch.control_files and 
1221
 
             self._control_files._lock_count==3)):
1222
 
            self._hashcache.write()
1223
 
        # reverse order of locking.
1224
 
        result = self._control_files.unlock()
1225
 
        try:
1226
 
            self.branch.unlock()
1227
 
        finally:
1228
 
            return result
 
2083
        raise NotImplementedError(self.unlock)
1229
2084
 
1230
 
    @needs_write_lock
1231
 
    def update(self):
 
2085
    def update(self, change_reporter=None, possible_transports=None):
1232
2086
        """Update a working tree along its branch.
1233
2087
 
1234
 
        This will update the branch if its bound too, which means we have multiple trees involved:
1235
 
        The new basis tree of the master.
1236
 
        The old basis tree of the branch.
1237
 
        The old basis tree of the working tree.
1238
 
        The current working tree state.
1239
 
        pathologically all three may be different, and non ancestors of each other.
1240
 
        Conceptually we want to:
1241
 
        Preserve the wt.basis->wt.state changes
1242
 
        Transform the wt.basis to the new master basis.
1243
 
        Apply a merge of the old branch basis to get any 'local' changes from it into the tree.
1244
 
        Restore the wt.basis->wt.state changes.
 
2088
        This will update the branch if its bound too, which means we have
 
2089
        multiple trees involved:
 
2090
 
 
2091
        - The new basis tree of the master.
 
2092
        - The old basis tree of the branch.
 
2093
        - The old basis tree of the working tree.
 
2094
        - The current working tree state.
 
2095
 
 
2096
        Pathologically, all three may be different, and non-ancestors of each
 
2097
        other.  Conceptually we want to:
 
2098
 
 
2099
        - Preserve the wt.basis->wt.state changes
 
2100
        - Transform the wt.basis to the new master basis.
 
2101
        - Apply a merge of the old branch basis to get any 'local' changes from
 
2102
          it into the tree.
 
2103
        - Restore the wt.basis->wt.state changes.
1245
2104
 
1246
2105
        There isn't a single operation at the moment to do that, so we:
1247
 
        Merge current state -> basis tree of the master w.r.t. the old tree basis.
1248
 
        Do a 'normal' merge of the old branch basis if it is relevant.
1249
 
        """
1250
 
        old_tip = self.branch.update()
1251
 
        if old_tip is not None:
1252
 
            self.add_pending_merge(old_tip)
1253
 
        self.branch.lock_read()
1254
 
        try:
1255
 
            result = 0
1256
 
            if self.last_revision() != self.branch.last_revision():
1257
 
                # merge tree state up to new branch tip.
1258
 
                basis = self.basis_tree()
 
2106
        - Merge current state -> basis tree of the master w.r.t. the old tree
 
2107
          basis.
 
2108
        - Do a 'normal' merge of the old branch basis if it is relevant.
 
2109
        """
 
2110
        if self.branch.get_bound_location() is not None:
 
2111
            self.lock_write()
 
2112
            update_branch = True
 
2113
        else:
 
2114
            self.lock_tree_write()
 
2115
            update_branch = False
 
2116
        try:
 
2117
            if update_branch:
 
2118
                old_tip = self.branch.update(possible_transports)
 
2119
            else:
 
2120
                old_tip = None
 
2121
            return self._update_tree(old_tip, change_reporter)
 
2122
        finally:
 
2123
            self.unlock()
 
2124
 
 
2125
    @needs_tree_write_lock
 
2126
    def _update_tree(self, old_tip=None, change_reporter=None):
 
2127
        """Update a tree to the master branch.
 
2128
 
 
2129
        :param old_tip: if supplied, the previous tip revision the branch,
 
2130
            before it was changed to the master branch's tip.
 
2131
        """
 
2132
        # here if old_tip is not None, it is the old tip of the branch before
 
2133
        # it was updated from the master branch. This should become a pending
 
2134
        # merge in the working tree to preserve the user existing work.  we
 
2135
        # cant set that until we update the working trees last revision to be
 
2136
        # one from the new branch, because it will just get absorbed by the
 
2137
        # parent de-duplication logic.
 
2138
        # 
 
2139
        # We MUST save it even if an error occurs, because otherwise the users
 
2140
        # local work is unreferenced and will appear to have been lost.
 
2141
        # 
 
2142
        result = 0
 
2143
        try:
 
2144
            last_rev = self.get_parent_ids()[0]
 
2145
        except IndexError:
 
2146
            last_rev = _mod_revision.NULL_REVISION
 
2147
        if last_rev != _mod_revision.ensure_null(self.branch.last_revision()):
 
2148
            # merge tree state up to new branch tip.
 
2149
            basis = self.basis_tree()
 
2150
            basis.lock_read()
 
2151
            try:
1259
2152
                to_tree = self.branch.basis_tree()
1260
 
                result += merge_inner(self.branch,
 
2153
                if basis.inventory.root is None:
 
2154
                    self.set_root_id(to_tree.get_root_id())
 
2155
                    self.flush()
 
2156
                result += merge.merge_inner(
 
2157
                                      self.branch,
1261
2158
                                      to_tree,
1262
2159
                                      basis,
1263
 
                                      this_tree=self)
1264
 
                self.set_last_revision(self.branch.last_revision())
1265
 
            if old_tip and old_tip != self.last_revision():
1266
 
                # our last revision was not the prior branch last reivison
1267
 
                # and we have converted that last revision to a pending merge.
1268
 
                # base is somewhere between the branch tip now
1269
 
                # and the now pending merge
1270
 
                from bzrlib.revision import common_ancestor
1271
 
                try:
1272
 
                    base_rev_id = common_ancestor(self.branch.last_revision(),
1273
 
                                                  old_tip,
1274
 
                                                  self.branch.repository)
1275
 
                except errors.NoCommonAncestor:
1276
 
                    base_rev_id = None
1277
 
                base_tree = self.branch.repository.revision_tree(base_rev_id)
1278
 
                other_tree = self.branch.repository.revision_tree(old_tip)
1279
 
                result += merge_inner(self.branch,
1280
 
                                      other_tree,
1281
 
                                      base_tree,
1282
 
                                      this_tree=self)
1283
 
            return result
1284
 
        finally:
1285
 
            self.branch.unlock()
1286
 
 
1287
 
    @needs_write_lock
 
2160
                                      this_tree=self,
 
2161
                                      change_reporter=change_reporter)
 
2162
            finally:
 
2163
                basis.unlock()
 
2164
            # TODO - dedup parents list with things merged by pull ?
 
2165
            # reuse the tree we've updated to to set the basis:
 
2166
            parent_trees = [(self.branch.last_revision(), to_tree)]
 
2167
            merges = self.get_parent_ids()[1:]
 
2168
            # Ideally we ask the tree for the trees here, that way the working
 
2169
            # tree can decide whether to give us teh entire tree or give us a
 
2170
            # lazy initialised tree. dirstate for instance will have the trees
 
2171
            # in ram already, whereas a last-revision + basis-inventory tree
 
2172
            # will not, but also does not need them when setting parents.
 
2173
            for parent in merges:
 
2174
                parent_trees.append(
 
2175
                    (parent, self.branch.repository.revision_tree(parent)))
 
2176
            if (old_tip is not None and not _mod_revision.is_null(old_tip)):
 
2177
                parent_trees.append(
 
2178
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
 
2179
            self.set_parent_trees(parent_trees)
 
2180
            last_rev = parent_trees[0][0]
 
2181
        else:
 
2182
            # the working tree had the same last-revision as the master
 
2183
            # branch did. We may still have pivot local work from the local
 
2184
            # branch into old_tip:
 
2185
            if (old_tip is not None and not _mod_revision.is_null(old_tip)):
 
2186
                self.add_parent_tree_id(old_tip)
 
2187
        if (old_tip is not None and not _mod_revision.is_null(old_tip)
 
2188
            and old_tip != last_rev):
 
2189
            # our last revision was not the prior branch last revision
 
2190
            # and we have converted that last revision to a pending merge.
 
2191
            # base is somewhere between the branch tip now
 
2192
            # and the now pending merge
 
2193
 
 
2194
            # Since we just modified the working tree and inventory, flush out
 
2195
            # the current state, before we modify it again.
 
2196
            # TODO: jam 20070214 WorkingTree3 doesn't require this, dirstate
 
2197
            #       requires it only because TreeTransform directly munges the
 
2198
            #       inventory and calls tree._write_inventory(). Ultimately we
 
2199
            #       should be able to remove this extra flush.
 
2200
            self.flush()
 
2201
            graph = self.branch.repository.get_graph()
 
2202
            base_rev_id = graph.find_unique_lca(self.branch.last_revision(),
 
2203
                                                old_tip)
 
2204
            base_tree = self.branch.repository.revision_tree(base_rev_id)
 
2205
            other_tree = self.branch.repository.revision_tree(old_tip)
 
2206
            result += merge.merge_inner(
 
2207
                                  self.branch,
 
2208
                                  other_tree,
 
2209
                                  base_tree,
 
2210
                                  this_tree=self,
 
2211
                                  change_reporter=change_reporter)
 
2212
        return result
 
2213
 
 
2214
    def _write_hashcache_if_dirty(self):
 
2215
        """Write out the hashcache if it is dirty."""
 
2216
        if self._hashcache.needs_write:
 
2217
            try:
 
2218
                self._hashcache.write()
 
2219
            except OSError, e:
 
2220
                if e.errno not in (errno.EPERM, errno.EACCES):
 
2221
                    raise
 
2222
                # TODO: jam 20061219 Should this be a warning? A single line
 
2223
                #       warning might be sufficient to let the user know what
 
2224
                #       is going on.
 
2225
                mutter('Could not write hashcache for %s\nError: %s',
 
2226
                       self._hashcache.cache_file_name(), e)
 
2227
 
 
2228
    @needs_tree_write_lock
1288
2229
    def _write_inventory(self, inv):
1289
2230
        """Write inventory as the current inventory."""
1290
 
        sio = StringIO()
1291
 
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
1292
 
        sio.seek(0)
1293
 
        self._control_files.put('inventory', sio)
1294
 
        self._set_inventory(inv)
1295
 
        mutter('wrote working inventory')
 
2231
        self._set_inventory(inv, dirty=True)
 
2232
        self.flush()
1296
2233
 
1297
2234
    def set_conflicts(self, arg):
1298
 
        raise UnsupportedOperation(self.set_conflicts, self)
 
2235
        raise errors.UnsupportedOperation(self.set_conflicts, self)
 
2236
 
 
2237
    def add_conflicts(self, arg):
 
2238
        raise errors.UnsupportedOperation(self.add_conflicts, self)
1299
2239
 
1300
2240
    @needs_read_lock
1301
2241
    def conflicts(self):
1302
 
        conflicts = ConflictList()
 
2242
        conflicts = _mod_conflicts.ConflictList()
1303
2243
        for conflicted in self._iter_conflicts():
1304
2244
            text = True
1305
2245
            try:
1306
2246
                if file_kind(self.abspath(conflicted)) != "file":
1307
2247
                    text = False
1308
 
            except OSError, e:
1309
 
                if e.errno == errno.ENOENT:
1310
 
                    text = False
1311
 
                else:
1312
 
                    raise
 
2248
            except errors.NoSuchFile:
 
2249
                text = False
1313
2250
            if text is True:
1314
2251
                for suffix in ('.THIS', '.OTHER'):
1315
2252
                    try:
1316
2253
                        kind = file_kind(self.abspath(conflicted+suffix))
1317
 
                    except OSError, e:
1318
 
                        if e.errno == errno.ENOENT:
 
2254
                        if kind != "file":
1319
2255
                            text = False
1320
 
                            break
1321
 
                        else:
1322
 
                            raise
1323
 
                    if kind != "file":
 
2256
                    except errors.NoSuchFile:
1324
2257
                        text = False
 
2258
                    if text == False:
1325
2259
                        break
1326
2260
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
1327
 
            conflicts.append(Conflict.factory(ctype, path=conflicted,
 
2261
            conflicts.append(_mod_conflicts.Conflict.factory(ctype,
 
2262
                             path=conflicted,
1328
2263
                             file_id=self.path2id(conflicted)))
1329
2264
        return conflicts
1330
2265
 
 
2266
    def walkdirs(self, prefix=""):
 
2267
        """Walk the directories of this tree.
 
2268
 
 
2269
        returns a generator which yields items in the form:
 
2270
                ((curren_directory_path, fileid),
 
2271
                 [(file1_path, file1_name, file1_kind, (lstat), file1_id,
 
2272
                   file1_kind), ... ])
 
2273
 
 
2274
        This API returns a generator, which is only valid during the current
 
2275
        tree transaction - within a single lock_read or lock_write duration.
 
2276
 
 
2277
        If the tree is not locked, it may cause an error to be raised,
 
2278
        depending on the tree implementation.
 
2279
        """
 
2280
        disk_top = self.abspath(prefix)
 
2281
        if disk_top.endswith('/'):
 
2282
            disk_top = disk_top[:-1]
 
2283
        top_strip_len = len(disk_top) + 1
 
2284
        inventory_iterator = self._walkdirs(prefix)
 
2285
        disk_iterator = osutils.walkdirs(disk_top, prefix)
 
2286
        try:
 
2287
            current_disk = disk_iterator.next()
 
2288
            disk_finished = False
 
2289
        except OSError, e:
 
2290
            if not (e.errno == errno.ENOENT or
 
2291
                (sys.platform == 'win32' and e.errno == ERROR_PATH_NOT_FOUND)):
 
2292
                raise
 
2293
            current_disk = None
 
2294
            disk_finished = True
 
2295
        try:
 
2296
            current_inv = inventory_iterator.next()
 
2297
            inv_finished = False
 
2298
        except StopIteration:
 
2299
            current_inv = None
 
2300
            inv_finished = True
 
2301
        while not inv_finished or not disk_finished:
 
2302
            if current_disk:
 
2303
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
 
2304
                    cur_disk_dir_content) = current_disk
 
2305
            else:
 
2306
                ((cur_disk_dir_relpath, cur_disk_dir_path_from_top),
 
2307
                    cur_disk_dir_content) = ((None, None), None)
 
2308
            if not disk_finished:
 
2309
                # strip out .bzr dirs
 
2310
                if (cur_disk_dir_path_from_top[top_strip_len:] == '' and
 
2311
                    len(cur_disk_dir_content) > 0):
 
2312
                    # osutils.walkdirs can be made nicer -
 
2313
                    # yield the path-from-prefix rather than the pathjoined
 
2314
                    # value.
 
2315
                    bzrdir_loc = bisect_left(cur_disk_dir_content,
 
2316
                        ('.bzr', '.bzr'))
 
2317
                    if cur_disk_dir_content[bzrdir_loc][0] == '.bzr':
 
2318
                        # we dont yield the contents of, or, .bzr itself.
 
2319
                        del cur_disk_dir_content[bzrdir_loc]
 
2320
            if inv_finished:
 
2321
                # everything is unknown
 
2322
                direction = 1
 
2323
            elif disk_finished:
 
2324
                # everything is missing
 
2325
                direction = -1
 
2326
            else:
 
2327
                direction = cmp(current_inv[0][0], cur_disk_dir_relpath)
 
2328
            if direction > 0:
 
2329
                # disk is before inventory - unknown
 
2330
                dirblock = [(relpath, basename, kind, stat, None, None) for
 
2331
                    relpath, basename, kind, stat, top_path in
 
2332
                    cur_disk_dir_content]
 
2333
                yield (cur_disk_dir_relpath, None), dirblock
 
2334
                try:
 
2335
                    current_disk = disk_iterator.next()
 
2336
                except StopIteration:
 
2337
                    disk_finished = True
 
2338
            elif direction < 0:
 
2339
                # inventory is before disk - missing.
 
2340
                dirblock = [(relpath, basename, 'unknown', None, fileid, kind)
 
2341
                    for relpath, basename, dkind, stat, fileid, kind in
 
2342
                    current_inv[1]]
 
2343
                yield (current_inv[0][0], current_inv[0][1]), dirblock
 
2344
                try:
 
2345
                    current_inv = inventory_iterator.next()
 
2346
                except StopIteration:
 
2347
                    inv_finished = True
 
2348
            else:
 
2349
                # versioned present directory
 
2350
                # merge the inventory and disk data together
 
2351
                dirblock = []
 
2352
                for relpath, subiterator in itertools.groupby(sorted(
 
2353
                    current_inv[1] + cur_disk_dir_content,
 
2354
                    key=operator.itemgetter(0)), operator.itemgetter(1)):
 
2355
                    path_elements = list(subiterator)
 
2356
                    if len(path_elements) == 2:
 
2357
                        inv_row, disk_row = path_elements
 
2358
                        # versioned, present file
 
2359
                        dirblock.append((inv_row[0],
 
2360
                            inv_row[1], disk_row[2],
 
2361
                            disk_row[3], inv_row[4],
 
2362
                            inv_row[5]))
 
2363
                    elif len(path_elements[0]) == 5:
 
2364
                        # unknown disk file
 
2365
                        dirblock.append((path_elements[0][0],
 
2366
                            path_elements[0][1], path_elements[0][2],
 
2367
                            path_elements[0][3], None, None))
 
2368
                    elif len(path_elements[0]) == 6:
 
2369
                        # versioned, absent file.
 
2370
                        dirblock.append((path_elements[0][0],
 
2371
                            path_elements[0][1], 'unknown', None,
 
2372
                            path_elements[0][4], path_elements[0][5]))
 
2373
                    else:
 
2374
                        raise NotImplementedError('unreachable code')
 
2375
                yield current_inv[0], dirblock
 
2376
                try:
 
2377
                    current_inv = inventory_iterator.next()
 
2378
                except StopIteration:
 
2379
                    inv_finished = True
 
2380
                try:
 
2381
                    current_disk = disk_iterator.next()
 
2382
                except StopIteration:
 
2383
                    disk_finished = True
 
2384
 
 
2385
    def _walkdirs(self, prefix=""):
 
2386
        """Walk the directories of this tree.
 
2387
 
 
2388
           :prefix: is used as the directrory to start with.
 
2389
           returns a generator which yields items in the form:
 
2390
                ((curren_directory_path, fileid),
 
2391
                 [(file1_path, file1_name, file1_kind, None, file1_id,
 
2392
                   file1_kind), ... ])
 
2393
        """
 
2394
        _directory = 'directory'
 
2395
        # get the root in the inventory
 
2396
        inv = self.inventory
 
2397
        top_id = inv.path2id(prefix)
 
2398
        if top_id is None:
 
2399
            pending = []
 
2400
        else:
 
2401
            pending = [(prefix, '', _directory, None, top_id, None)]
 
2402
        while pending:
 
2403
            dirblock = []
 
2404
            currentdir = pending.pop()
 
2405
            # 0 - relpath, 1- basename, 2- kind, 3- stat, 4-id, 5-kind
 
2406
            top_id = currentdir[4]
 
2407
            if currentdir[0]:
 
2408
                relroot = currentdir[0] + '/'
 
2409
            else:
 
2410
                relroot = ""
 
2411
            # FIXME: stash the node in pending
 
2412
            entry = inv[top_id]
 
2413
            for name, child in entry.sorted_children():
 
2414
                dirblock.append((relroot + name, name, child.kind, None,
 
2415
                    child.file_id, child.kind
 
2416
                    ))
 
2417
            yield (currentdir[0], entry.file_id), dirblock
 
2418
            # push the user specified dirs from dirblock
 
2419
            for dir in reversed(dirblock):
 
2420
                if dir[2] == _directory:
 
2421
                    pending.append(dir)
 
2422
 
 
2423
    @needs_tree_write_lock
 
2424
    def auto_resolve(self):
 
2425
        """Automatically resolve text conflicts according to contents.
 
2426
 
 
2427
        Only text conflicts are auto_resolvable. Files with no conflict markers
 
2428
        are considered 'resolved', because bzr always puts conflict markers
 
2429
        into files that have text conflicts.  The corresponding .THIS .BASE and
 
2430
        .OTHER files are deleted, as per 'resolve'.
 
2431
        :return: a tuple of ConflictLists: (un_resolved, resolved).
 
2432
        """
 
2433
        un_resolved = _mod_conflicts.ConflictList()
 
2434
        resolved = _mod_conflicts.ConflictList()
 
2435
        conflict_re = re.compile('^(<{7}|={7}|>{7})')
 
2436
        for conflict in self.conflicts():
 
2437
            if (conflict.typestring != 'text conflict' or
 
2438
                self.kind(conflict.file_id) != 'file'):
 
2439
                un_resolved.append(conflict)
 
2440
                continue
 
2441
            my_file = open(self.id2abspath(conflict.file_id), 'rb')
 
2442
            try:
 
2443
                for line in my_file:
 
2444
                    if conflict_re.search(line):
 
2445
                        un_resolved.append(conflict)
 
2446
                        break
 
2447
                else:
 
2448
                    resolved.append(conflict)
 
2449
            finally:
 
2450
                my_file.close()
 
2451
        resolved.remove_files(self)
 
2452
        self.set_conflicts(un_resolved)
 
2453
        return un_resolved, resolved
 
2454
 
 
2455
    def _validate(self):
 
2456
        """Validate internal structures.
 
2457
 
 
2458
        This is meant mostly for the test suite. To give it a chance to detect
 
2459
        corruption after actions have occurred. The default implementation is a
 
2460
        just a no-op.
 
2461
 
 
2462
        :return: None. An exception should be raised if there is an error.
 
2463
        """
 
2464
        return
 
2465
 
 
2466
 
 
2467
class WorkingTree2(WorkingTree):
 
2468
    """This is the Format 2 working tree.
 
2469
 
 
2470
    This was the first weave based working tree. 
 
2471
     - uses os locks for locking.
 
2472
     - uses the branch last-revision.
 
2473
    """
 
2474
 
 
2475
    def __init__(self, *args, **kwargs):
 
2476
        super(WorkingTree2, self).__init__(*args, **kwargs)
 
2477
        # WorkingTree2 has more of a constraint that self._inventory must
 
2478
        # exist. Because this is an older format, we don't mind the overhead
 
2479
        # caused by the extra computation here.
 
2480
 
 
2481
        # Newer WorkingTree's should only have self._inventory set when they
 
2482
        # have a read lock.
 
2483
        if self._inventory is None:
 
2484
            self.read_working_inventory()
 
2485
 
 
2486
    def lock_tree_write(self):
 
2487
        """See WorkingTree.lock_tree_write().
 
2488
 
 
2489
        In Format2 WorkingTrees we have a single lock for the branch and tree
 
2490
        so lock_tree_write() degrades to lock_write().
 
2491
        """
 
2492
        self.branch.lock_write()
 
2493
        try:
 
2494
            return self._control_files.lock_write()
 
2495
        except:
 
2496
            self.branch.unlock()
 
2497
            raise
 
2498
 
 
2499
    def unlock(self):
 
2500
        # do non-implementation specific cleanup
 
2501
        self._cleanup()
 
2502
 
 
2503
        # we share control files:
 
2504
        if self._control_files._lock_count == 3:
 
2505
            # _inventory_is_modified is always False during a read lock.
 
2506
            if self._inventory_is_modified:
 
2507
                self.flush()
 
2508
            self._write_hashcache_if_dirty()
 
2509
                    
 
2510
        # reverse order of locking.
 
2511
        try:
 
2512
            return self._control_files.unlock()
 
2513
        finally:
 
2514
            self.branch.unlock()
 
2515
 
1331
2516
 
1332
2517
class WorkingTree3(WorkingTree):
1333
2518
    """This is the Format 3 working tree.
1340
2525
    """
1341
2526
 
1342
2527
    @needs_read_lock
1343
 
    def last_revision(self):
1344
 
        """See WorkingTree.last_revision."""
 
2528
    def _last_revision(self):
 
2529
        """See Mutable.last_revision."""
1345
2530
        try:
1346
 
            return self._control_files.get_utf8('last-revision').read()
1347
 
        except NoSuchFile:
1348
 
            return None
 
2531
            return self._transport.get_bytes('last-revision')
 
2532
        except errors.NoSuchFile:
 
2533
            return _mod_revision.NULL_REVISION
1349
2534
 
1350
2535
    def _change_last_revision(self, revision_id):
1351
2536
        """See WorkingTree._change_last_revision."""
1352
2537
        if revision_id is None or revision_id == NULL_REVISION:
1353
2538
            try:
1354
 
                self._control_files._transport.delete('last-revision')
 
2539
                self._transport.delete('last-revision')
1355
2540
            except errors.NoSuchFile:
1356
2541
                pass
1357
2542
            return False
1358
2543
        else:
1359
 
            try:
1360
 
                self.branch.revision_history().index(revision_id)
1361
 
            except ValueError:
1362
 
                raise errors.NoSuchRevision(self.branch, revision_id)
1363
 
            self._control_files.put_utf8('last-revision', revision_id)
 
2544
            self._transport.put_bytes('last-revision', revision_id,
 
2545
                mode=self._control_files._file_mode)
1364
2546
            return True
1365
2547
 
1366
 
    @needs_write_lock
 
2548
    @needs_tree_write_lock
1367
2549
    def set_conflicts(self, conflicts):
1368
2550
        self._put_rio('conflicts', conflicts.to_stanzas(), 
1369
2551
                      CONFLICT_HEADER_1)
1370
2552
 
 
2553
    @needs_tree_write_lock
 
2554
    def add_conflicts(self, new_conflicts):
 
2555
        conflict_set = set(self.conflicts())
 
2556
        conflict_set.update(set(list(new_conflicts)))
 
2557
        self.set_conflicts(_mod_conflicts.ConflictList(sorted(conflict_set,
 
2558
                                       key=_mod_conflicts.Conflict.sort_key)))
 
2559
 
1371
2560
    @needs_read_lock
1372
2561
    def conflicts(self):
1373
2562
        try:
1374
 
            confile = self._control_files.get('conflicts')
1375
 
        except NoSuchFile:
1376
 
            return ConflictList()
 
2563
            confile = self._transport.get('conflicts')
 
2564
        except errors.NoSuchFile:
 
2565
            return _mod_conflicts.ConflictList()
1377
2566
        try:
1378
2567
            if confile.next() != CONFLICT_HEADER_1 + '\n':
1379
 
                raise ConflictFormatError()
 
2568
                raise errors.ConflictFormatError()
1380
2569
        except StopIteration:
1381
 
            raise ConflictFormatError()
1382
 
        return ConflictList.from_stanzas(RioReader(confile))
 
2570
            raise errors.ConflictFormatError()
 
2571
        return _mod_conflicts.ConflictList.from_stanzas(RioReader(confile))
 
2572
 
 
2573
    def unlock(self):
 
2574
        # do non-implementation specific cleanup
 
2575
        self._cleanup()
 
2576
        if self._control_files._lock_count == 1:
 
2577
            # _inventory_is_modified is always False during a read lock.
 
2578
            if self._inventory_is_modified:
 
2579
                self.flush()
 
2580
            self._write_hashcache_if_dirty()
 
2581
        # reverse order of locking.
 
2582
        try:
 
2583
            return self._control_files.unlock()
 
2584
        finally:
 
2585
            self.branch.unlock()
1383
2586
 
1384
2587
 
1385
2588
def get_conflicted_stem(path):
1386
 
    for suffix in CONFLICT_SUFFIXES:
 
2589
    for suffix in _mod_conflicts.CONFLICT_SUFFIXES:
1387
2590
        if path.endswith(suffix):
1388
2591
            return path[:-len(suffix)]
1389
2592
 
1390
 
@deprecated_function(zero_eight)
1391
 
def is_control_file(filename):
1392
 
    """See WorkingTree.is_control_filename(filename)."""
1393
 
    ## FIXME: better check
1394
 
    filename = normpath(filename)
1395
 
    while filename != '':
1396
 
        head, tail = os.path.split(filename)
1397
 
        ## mutter('check %r for control file' % ((head, tail),))
1398
 
        if tail == '.bzr':
1399
 
            return True
1400
 
        if filename == head:
1401
 
            break
1402
 
        filename = head
1403
 
    return False
1404
 
 
1405
2593
 
1406
2594
class WorkingTreeFormat(object):
1407
2595
    """An encapsulation of the initialization and open routines for a format.
1427
2615
    _formats = {}
1428
2616
    """The known formats."""
1429
2617
 
 
2618
    requires_rich_root = False
 
2619
 
 
2620
    upgrade_recommended = False
 
2621
 
1430
2622
    @classmethod
1431
2623
    def find_format(klass, a_bzrdir):
1432
2624
        """Return the format for the working tree object in a_bzrdir."""
1434
2626
            transport = a_bzrdir.get_workingtree_transport(None)
1435
2627
            format_string = transport.get("format").read()
1436
2628
            return klass._formats[format_string]
1437
 
        except NoSuchFile:
 
2629
        except errors.NoSuchFile:
1438
2630
            raise errors.NoWorkingTree(base=transport.base)
1439
2631
        except KeyError:
1440
 
            raise errors.UnknownFormatError(format_string)
 
2632
            raise errors.UnknownFormatError(format=format_string,
 
2633
                                            kind="working tree")
 
2634
 
 
2635
    def __eq__(self, other):
 
2636
        return self.__class__ is other.__class__
 
2637
 
 
2638
    def __ne__(self, other):
 
2639
        return not (self == other)
1441
2640
 
1442
2641
    @classmethod
1443
2642
    def get_default_format(klass):
1471
2670
 
1472
2671
    @classmethod
1473
2672
    def unregister_format(klass, format):
1474
 
        assert klass._formats[format.get_format_string()] is format
1475
2673
        del klass._formats[format.get_format_string()]
1476
2674
 
1477
2675
 
1478
 
 
1479
2676
class WorkingTreeFormat2(WorkingTreeFormat):
1480
2677
    """The second working tree format. 
1481
2678
 
1482
2679
    This format modified the hash cache from the format 1 hash cache.
1483
2680
    """
1484
2681
 
 
2682
    upgrade_recommended = True
 
2683
 
1485
2684
    def get_format_description(self):
1486
2685
        """See WorkingTreeFormat.get_format_description()."""
1487
2686
        return "Working tree format 2"
1488
2687
 
1489
 
    def initialize(self, a_bzrdir, revision_id=None):
 
2688
    def _stub_initialize_remote(self, branch):
 
2689
        """As a special workaround create critical control files for a remote working tree.
 
2690
        
 
2691
        This ensures that it can later be updated and dealt with locally,
 
2692
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
 
2693
        no working tree.  (See bug #43064).
 
2694
        """
 
2695
        sio = StringIO()
 
2696
        inv = Inventory()
 
2697
        xml5.serializer_v5.write_inventory(inv, sio, working=True)
 
2698
        sio.seek(0)
 
2699
        branch._transport.put_file('inventory', sio,
 
2700
            mode=branch.control_files._file_mode)
 
2701
        branch._transport.put_bytes('pending-merges', '',
 
2702
            mode=branch.control_files._file_mode)
 
2703
        
 
2704
 
 
2705
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
 
2706
                   accelerator_tree=None, hardlink=False):
1490
2707
        """See WorkingTreeFormat.initialize()."""
1491
2708
        if not isinstance(a_bzrdir.transport, LocalTransport):
1492
2709
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1493
 
        branch = a_bzrdir.open_branch()
1494
 
        if revision_id is not None:
1495
 
            branch.lock_write()
1496
 
            try:
1497
 
                revision_history = branch.revision_history()
1498
 
                try:
1499
 
                    position = revision_history.index(revision_id)
1500
 
                except ValueError:
1501
 
                    raise errors.NoSuchRevision(branch, revision_id)
1502
 
                branch.set_revision_history(revision_history[:position + 1])
1503
 
            finally:
1504
 
                branch.unlock()
1505
 
        revision = branch.last_revision()
1506
 
        inv = Inventory() 
1507
 
        wt = WorkingTree(a_bzrdir.root_transport.base,
 
2710
        if from_branch is not None:
 
2711
            branch = from_branch
 
2712
        else:
 
2713
            branch = a_bzrdir.open_branch()
 
2714
        if revision_id is None:
 
2715
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2716
        branch.lock_write()
 
2717
        try:
 
2718
            branch.generate_revision_history(revision_id)
 
2719
        finally:
 
2720
            branch.unlock()
 
2721
        inv = Inventory()
 
2722
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1508
2723
                         branch,
1509
2724
                         inv,
1510
2725
                         _internal=True,
1511
2726
                         _format=self,
1512
2727
                         _bzrdir=a_bzrdir)
1513
 
        wt._write_inventory(inv)
1514
 
        wt.set_root_id(inv.root.file_id)
1515
 
        wt.set_last_revision(revision)
1516
 
        wt.set_pending_merges([])
1517
 
        build_tree(wt.basis_tree(), wt)
 
2728
        basis_tree = branch.repository.revision_tree(revision_id)
 
2729
        if basis_tree.inventory.root is not None:
 
2730
            wt.set_root_id(basis_tree.get_root_id())
 
2731
        # set the parent list and cache the basis tree.
 
2732
        if _mod_revision.is_null(revision_id):
 
2733
            parent_trees = []
 
2734
        else:
 
2735
            parent_trees = [(revision_id, basis_tree)]
 
2736
        wt.set_parent_trees(parent_trees)
 
2737
        transform.build_tree(basis_tree, wt)
1518
2738
        return wt
1519
2739
 
1520
2740
    def __init__(self):
1532
2752
            raise NotImplementedError
1533
2753
        if not isinstance(a_bzrdir.transport, LocalTransport):
1534
2754
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1535
 
        return WorkingTree(a_bzrdir.root_transport.base,
 
2755
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1536
2756
                           _internal=True,
1537
2757
                           _format=self,
1538
2758
                           _bzrdir=a_bzrdir)
1539
 
 
 
2759
        return wt
1540
2760
 
1541
2761
class WorkingTreeFormat3(WorkingTreeFormat):
1542
2762
    """The second working tree format updated to record a format marker.
1547
2767
          files, separate from the BzrDir format
1548
2768
        - modifies the hash cache format
1549
2769
        - is new in bzr 0.8
1550
 
        - uses a LockDir to guard access to the repository
 
2770
        - uses a LockDir to guard access for writes.
1551
2771
    """
 
2772
    
 
2773
    upgrade_recommended = True
1552
2774
 
1553
2775
    def get_format_string(self):
1554
2776
        """See WorkingTreeFormat.get_format_string()."""
1561
2783
    _lock_file_name = 'lock'
1562
2784
    _lock_class = LockDir
1563
2785
 
 
2786
    _tree_class = WorkingTree3
 
2787
 
 
2788
    def __get_matchingbzrdir(self):
 
2789
        return bzrdir.BzrDirMetaFormat1()
 
2790
 
 
2791
    _matchingbzrdir = property(__get_matchingbzrdir)
 
2792
 
1564
2793
    def _open_control_files(self, a_bzrdir):
1565
2794
        transport = a_bzrdir.get_workingtree_transport(None)
1566
2795
        return LockableFiles(transport, self._lock_file_name, 
1567
2796
                             self._lock_class)
1568
2797
 
1569
 
    def initialize(self, a_bzrdir, revision_id=None):
 
2798
    def initialize(self, a_bzrdir, revision_id=None, from_branch=None,
 
2799
                   accelerator_tree=None, hardlink=False):
1570
2800
        """See WorkingTreeFormat.initialize().
1571
2801
        
1572
 
        revision_id allows creating a working tree at a differnet
1573
 
        revision than the branch is at.
 
2802
        :param revision_id: if supplied, create a working tree at a different
 
2803
            revision than the branch is at.
 
2804
        :param accelerator_tree: A tree which can be used for retrieving file
 
2805
            contents more quickly than the revision tree, i.e. a workingtree.
 
2806
            The revision tree will be used for cases where accelerator_tree's
 
2807
            content is different.
 
2808
        :param hardlink: If true, hard-link files from accelerator_tree,
 
2809
            where possible.
1574
2810
        """
1575
2811
        if not isinstance(a_bzrdir.transport, LocalTransport):
1576
2812
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1577
2813
        transport = a_bzrdir.get_workingtree_transport(self)
1578
2814
        control_files = self._open_control_files(a_bzrdir)
1579
2815
        control_files.create_lock()
1580
 
        control_files.put_utf8('format', self.get_format_string())
1581
 
        branch = a_bzrdir.open_branch()
 
2816
        control_files.lock_write()
 
2817
        transport.put_bytes('format', self.get_format_string(),
 
2818
            mode=control_files._file_mode)
 
2819
        if from_branch is not None:
 
2820
            branch = from_branch
 
2821
        else:
 
2822
            branch = a_bzrdir.open_branch()
1582
2823
        if revision_id is None:
1583
 
            revision_id = branch.last_revision()
1584
 
        inv = Inventory() 
1585
 
        wt = WorkingTree3(a_bzrdir.root_transport.base,
 
2824
            revision_id = _mod_revision.ensure_null(branch.last_revision())
 
2825
        # WorkingTree3 can handle an inventory which has a unique root id.
 
2826
        # as of bzr 0.12. However, bzr 0.11 and earlier fail to handle
 
2827
        # those trees. And because there isn't a format bump inbetween, we
 
2828
        # are maintaining compatibility with older clients.
 
2829
        # inv = Inventory(root_id=gen_root_id())
 
2830
        inv = self._initial_inventory()
 
2831
        wt = self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
1586
2832
                         branch,
1587
2833
                         inv,
1588
2834
                         _internal=True,
1589
2835
                         _format=self,
1590
2836
                         _bzrdir=a_bzrdir,
1591
2837
                         _control_files=control_files)
1592
 
        wt._write_inventory(inv)
1593
 
        wt.set_root_id(inv.root.file_id)
1594
 
        wt.set_last_revision(revision_id)
1595
 
        wt.set_pending_merges([])
1596
 
        build_tree(wt.basis_tree(), wt)
 
2838
        wt.lock_tree_write()
 
2839
        try:
 
2840
            basis_tree = branch.repository.revision_tree(revision_id)
 
2841
            # only set an explicit root id if there is one to set.
 
2842
            if basis_tree.inventory.root is not None:
 
2843
                wt.set_root_id(basis_tree.get_root_id())
 
2844
            if revision_id == NULL_REVISION:
 
2845
                wt.set_parent_trees([])
 
2846
            else:
 
2847
                wt.set_parent_trees([(revision_id, basis_tree)])
 
2848
            transform.build_tree(basis_tree, wt)
 
2849
        finally:
 
2850
            # Unlock in this order so that the unlock-triggers-flush in
 
2851
            # WorkingTree is given a chance to fire.
 
2852
            control_files.unlock()
 
2853
            wt.unlock()
1597
2854
        return wt
1598
2855
 
 
2856
    def _initial_inventory(self):
 
2857
        return Inventory()
 
2858
 
1599
2859
    def __init__(self):
1600
2860
        super(WorkingTreeFormat3, self).__init__()
1601
 
        self._matchingbzrdir = bzrdir.BzrDirMetaFormat1()
1602
2861
 
1603
2862
    def open(self, a_bzrdir, _found=False):
1604
2863
        """Return the WorkingTree object for a_bzrdir
1611
2870
            raise NotImplementedError
1612
2871
        if not isinstance(a_bzrdir.transport, LocalTransport):
1613
2872
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1614
 
        control_files = self._open_control_files(a_bzrdir)
1615
 
        return WorkingTree3(a_bzrdir.root_transport.base,
1616
 
                           _internal=True,
1617
 
                           _format=self,
1618
 
                           _bzrdir=a_bzrdir,
1619
 
                           _control_files=control_files)
 
2873
        wt = self._open(a_bzrdir, self._open_control_files(a_bzrdir))
 
2874
        return wt
 
2875
 
 
2876
    def _open(self, a_bzrdir, control_files):
 
2877
        """Open the tree itself.
 
2878
        
 
2879
        :param a_bzrdir: the dir for the tree.
 
2880
        :param control_files: the control files for the tree.
 
2881
        """
 
2882
        return self._tree_class(a_bzrdir.root_transport.local_abspath('.'),
 
2883
                                _internal=True,
 
2884
                                _format=self,
 
2885
                                _bzrdir=a_bzrdir,
 
2886
                                _control_files=control_files)
1620
2887
 
1621
2888
    def __str__(self):
1622
2889
        return self.get_format_string()
1623
2890
 
1624
2891
 
 
2892
__default_format = WorkingTreeFormat4()
 
2893
WorkingTreeFormat.register_format(__default_format)
 
2894
WorkingTreeFormat.register_format(WorkingTreeFormat3())
 
2895
WorkingTreeFormat.set_default_format(__default_format)
1625
2896
# formats which have no format string are not discoverable
1626
2897
# and not independently creatable, so are not registered.
1627
 
__default_format = WorkingTreeFormat3()
1628
 
WorkingTreeFormat.register_format(__default_format)
1629
 
WorkingTreeFormat.set_default_format(__default_format)
1630
2898
_legacy_formats = [WorkingTreeFormat2(),
1631
2899
                   ]
1632
 
 
1633
 
 
1634
 
class WorkingTreeTestProviderAdapter(object):
1635
 
    """A tool to generate a suite testing multiple workingtree formats at once.
1636
 
 
1637
 
    This is done by copying the test once for each transport and injecting
1638
 
    the transport_server, transport_readonly_server, and workingtree_format
1639
 
    classes into each copy. Each copy is also given a new id() to make it
1640
 
    easy to identify.
1641
 
    """
1642
 
 
1643
 
    def __init__(self, transport_server, transport_readonly_server, formats):
1644
 
        self._transport_server = transport_server
1645
 
        self._transport_readonly_server = transport_readonly_server
1646
 
        self._formats = formats
1647
 
    
1648
 
    def adapt(self, test):
1649
 
        from bzrlib.tests import TestSuite
1650
 
        result = TestSuite()
1651
 
        for workingtree_format, bzrdir_format in self._formats:
1652
 
            new_test = deepcopy(test)
1653
 
            new_test.transport_server = self._transport_server
1654
 
            new_test.transport_readonly_server = self._transport_readonly_server
1655
 
            new_test.bzrdir_format = bzrdir_format
1656
 
            new_test.workingtree_format = workingtree_format
1657
 
            def make_new_test_id():
1658
 
                new_id = "%s(%s)" % (new_test.id(), workingtree_format.__class__.__name__)
1659
 
                return lambda: new_id
1660
 
            new_test.id = make_new_test_id()
1661
 
            result.addTest(new_test)
1662
 
        return result