/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

MergeĀ up.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
1
# Copyright (C) 2005, 2006 Canonical Ltd
2
 
 
 
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
 
 
7
#
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
 
 
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
39
39
# At the moment they may alias the inventory and have old copies of it in
40
40
# memory.  (Now done? -- mbp 20060309)
41
41
 
 
42
from binascii import hexlify
 
43
import collections
42
44
from copy import deepcopy
43
45
from cStringIO import StringIO
44
46
import errno
45
47
import fnmatch
46
48
import os
 
49
import re
47
50
import stat
48
 
 
 
51
from time import time
 
52
import warnings
49
53
 
 
54
import bzrlib
 
55
from bzrlib import (
 
56
    bzrdir,
 
57
    errors,
 
58
    ignores,
 
59
    osutils,
 
60
    symbol_versioning,
 
61
    urlutils,
 
62
    )
50
63
from bzrlib.atomicfile import AtomicFile
51
 
from bzrlib.branch import (Branch,
52
 
                           quotefn)
 
64
import bzrlib.branch
53
65
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
54
 
import bzrlib.bzrdir as bzrdir
55
66
from bzrlib.decorators import needs_read_lock, needs_write_lock
56
 
import bzrlib.errors as errors
57
67
from bzrlib.errors import (BzrCheckError,
58
68
                           BzrError,
59
69
                           ConflictFormatError,
60
 
                           DivergedBranches,
61
70
                           WeaveRevisionNotPresent,
62
71
                           NotBranchError,
63
72
                           NoSuchFile,
65
74
                           MergeModifiedFormatError,
66
75
                           UnsupportedOperation,
67
76
                           )
68
 
from bzrlib.inventory import InventoryEntry, Inventory
 
77
from bzrlib.inventory import InventoryEntry, Inventory, ROOT_ID
69
78
from bzrlib.lockable_files import LockableFiles, TransportLock
70
79
from bzrlib.lockdir import LockDir
71
80
from bzrlib.merge import merge_inner, transform_tree
 
81
import bzrlib.mutabletree
 
82
from bzrlib.mutabletree import needs_tree_write_lock
72
83
from bzrlib.osutils import (
73
84
                            abspath,
74
 
                            appendpath,
75
85
                            compact_date,
76
86
                            file_kind,
77
87
                            isdir,
80
90
                            pumpfile,
81
91
                            safe_unicode,
82
92
                            splitpath,
83
 
                            rand_bytes,
 
93
                            rand_chars,
84
94
                            normpath,
85
95
                            realpath,
86
96
                            relpath,
89
99
                            )
90
100
from bzrlib.progress import DummyProgress, ProgressPhase
91
101
from bzrlib.revision import NULL_REVISION
 
102
import bzrlib.revisiontree
92
103
from bzrlib.rio import RioReader, rio_file, Stanza
93
 
from bzrlib.symbol_versioning import *
94
 
from bzrlib.textui import show_status
95
 
import bzrlib.tree
 
104
from bzrlib.symbol_versioning import (deprecated_passed,
 
105
        deprecated_method,
 
106
        deprecated_function,
 
107
        DEPRECATED_PARAMETER,
 
108
        zero_eight,
 
109
        zero_eleven,
 
110
        )
 
111
from bzrlib.trace import mutter, note
96
112
from bzrlib.transform import build_tree
97
 
from bzrlib.trace import mutter, note
98
113
from bzrlib.transport import get_transport
99
114
from bzrlib.transport.local import LocalTransport
 
115
from bzrlib.textui import show_status
100
116
import bzrlib.ui
101
117
import bzrlib.xml5
102
118
 
103
119
 
 
120
# the regex removes any weird characters; we don't escape them 
 
121
# but rather just pull them out
 
122
_gen_file_id_re = re.compile(r'[^\w.]')
 
123
_gen_id_suffix = None
 
124
_gen_id_serial = 0
 
125
 
 
126
 
 
127
def _next_id_suffix():
 
128
    """Create a new file id suffix that is reasonably unique.
 
129
    
 
130
    On the first call we combine the current time with 64 bits of randomness
 
131
    to give a highly probably globally unique number. Then each call in the same
 
132
    process adds 1 to a serial number we append to that unique value.
 
133
    """
 
134
    # XXX TODO: change bzrlib.add.smart_add to call workingtree.add() rather 
 
135
    # than having to move the id randomness out of the inner loop like this.
 
136
    # XXX TODO: for the global randomness this uses we should add the thread-id
 
137
    # before the serial #.
 
138
    global _gen_id_suffix, _gen_id_serial
 
139
    if _gen_id_suffix is None:
 
140
        _gen_id_suffix = "-%s-%s-" % (compact_date(time()), rand_chars(16))
 
141
    _gen_id_serial += 1
 
142
    return _gen_id_suffix + str(_gen_id_serial)
 
143
 
 
144
 
104
145
def gen_file_id(name):
105
 
    """Return new file id.
106
 
 
107
 
    This should probably generate proper UUIDs, but for the moment we
108
 
    cope with just randomness because running uuidgen every time is
109
 
    slow."""
110
 
    import re
111
 
    from binascii import hexlify
112
 
    from time import time
113
 
 
114
 
    # get last component
115
 
    idx = name.rfind('/')
116
 
    if idx != -1:
117
 
        name = name[idx+1 : ]
118
 
    idx = name.rfind('\\')
119
 
    if idx != -1:
120
 
        name = name[idx+1 : ]
121
 
 
122
 
    # make it not a hidden file
123
 
    name = name.lstrip('.')
124
 
 
125
 
    # remove any wierd characters; we don't escape them but rather
126
 
    # just pull them out
127
 
    name = re.sub(r'[^\w.]', '', name)
128
 
 
129
 
    s = hexlify(rand_bytes(8))
130
 
    return '-'.join((name, compact_date(time()), s))
 
146
    """Return new file id for the basename 'name'.
 
147
 
 
148
    The uniqueness is supplied from _next_id_suffix.
 
149
    """
 
150
    # The real randomness is in the _next_id_suffix, the
 
151
    # rest of the identifier is just to be nice.
 
152
    # So we:
 
153
    # 1) Remove non-ascii word characters to keep the ids portable
 
154
    # 2) squash to lowercase, so the file id doesn't have to
 
155
    #    be escaped (case insensitive filesystems would bork for ids
 
156
    #    that only differred in case without escaping).
 
157
    # 3) truncate the filename to 20 chars. Long filenames also bork on some
 
158
    #    filesystems
 
159
    # 4) Removing starting '.' characters to prevent the file ids from
 
160
    #    being considered hidden.
 
161
    ascii_word_only = _gen_file_id_re.sub('', name.lower())
 
162
    short_no_dots = ascii_word_only.lstrip('.')[:20]
 
163
    return short_no_dots + _next_id_suffix()
131
164
 
132
165
 
133
166
def gen_root_id():
136
169
 
137
170
 
138
171
class TreeEntry(object):
139
 
    """An entry that implements the minium interface used by commands.
 
172
    """An entry that implements the minimum interface used by commands.
140
173
 
141
174
    This needs further inspection, it may be better to have 
142
175
    InventoryEntries without ids - though that seems wrong. For now,
190
223
        return ''
191
224
 
192
225
 
193
 
class WorkingTree(bzrlib.tree.Tree):
 
226
class WorkingTree(bzrlib.mutabletree.MutableTree):
194
227
    """Working copy tree.
195
228
 
196
229
    The inventory is held in the `Branch` working-inventory, and the
218
251
        self.bzrdir = _bzrdir
219
252
        if not _internal:
220
253
            # not created via open etc.
221
 
            warn("WorkingTree() is deprecated as of bzr version 0.8. "
 
254
            warnings.warn("WorkingTree() is deprecated as of bzr version 0.8. "
222
255
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
223
256
                 DeprecationWarning,
224
257
                 stacklevel=2)
225
258
            wt = WorkingTree.open(basedir)
226
 
            self.branch = wt.branch
 
259
            self._branch = wt.branch
227
260
            self.basedir = wt.basedir
228
261
            self._control_files = wt._control_files
229
262
            self._hashcache = wt._hashcache
230
 
            self._set_inventory(wt._inventory)
 
263
            self._set_inventory(wt._inventory, dirty=False)
231
264
            self._format = wt._format
232
265
            self.bzrdir = wt.bzrdir
233
266
        from bzrlib.hashcache import HashCache
238
271
        mutter("opening working tree %r", basedir)
239
272
        if deprecated_passed(branch):
240
273
            if not _internal:
241
 
                warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
 
274
                warnings.warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
242
275
                     " Please use bzrdir.open_workingtree() or"
243
276
                     " WorkingTree.open().",
244
277
                     DeprecationWarning,
245
278
                     stacklevel=2
246
279
                     )
247
 
            self.branch = branch
 
280
            self._branch = branch
248
281
        else:
249
 
            self.branch = self.bzrdir.open_branch()
250
 
        assert isinstance(self.branch, Branch), \
251
 
            "branch %r is not a Branch" % self.branch
 
282
            self._branch = self.bzrdir.open_branch()
252
283
        self.basedir = realpath(basedir)
253
284
        # if branch is at our basedir and is a format 6 or less
254
285
        if isinstance(self._format, WorkingTreeFormat2):
255
286
            # share control object
256
287
            self._control_files = self.branch.control_files
257
288
        else:
258
 
            # only ready for format 3
259
 
            assert isinstance(self._format, WorkingTreeFormat3)
 
289
            # assume all other formats have their own control files.
260
290
            assert isinstance(_control_files, LockableFiles), \
261
291
                    "_control_files must be a LockableFiles, not %r" \
262
292
                    % _control_files
267
297
        # if needed, or, when the cache sees a change, append it to the hash
268
298
        # cache file, and have the parser take the most recent entry for a
269
299
        # given path only.
270
 
        cache_filename = self.bzrdir.get_workingtree_transport(None).abspath('stat-cache')
 
300
        cache_filename = self.bzrdir.get_workingtree_transport(None).local_abspath('stat-cache')
271
301
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
272
302
        hc.read()
273
303
        # is this scan needed ? it makes things kinda slow.
274
 
        hc.scan()
 
304
        #hc.scan()
275
305
 
276
306
        if hc.needs_write:
277
307
            mutter("write hc")
278
308
            hc.write()
279
309
 
280
310
        if _inventory is None:
281
 
            self._set_inventory(self.read_working_inventory())
 
311
            self._inventory_is_modified = False
 
312
            self.read_working_inventory()
282
313
        else:
283
 
            self._set_inventory(_inventory)
284
 
 
285
 
    def _set_inventory(self, inv):
 
314
            # the caller of __init__ has provided an inventory,
 
315
            # we assume they know what they are doing - as its only
 
316
            # the Format factory and creation methods that are
 
317
            # permitted to do this.
 
318
            self._set_inventory(_inventory, dirty=False)
 
319
 
 
320
    branch = property(
 
321
        fget=lambda self: self._branch,
 
322
        doc="""The branch this WorkingTree is connected to.
 
323
 
 
324
            This cannot be set - it is reflective of the actual disk structure
 
325
            the working tree has been constructed from.
 
326
            """)
 
327
 
 
328
    def break_lock(self):
 
329
        """Break a lock if one is present from another instance.
 
330
 
 
331
        Uses the ui factory to ask for confirmation if the lock may be from
 
332
        an active process.
 
333
 
 
334
        This will probe the repository for its lock as well.
 
335
        """
 
336
        self._control_files.break_lock()
 
337
        self.branch.break_lock()
 
338
 
 
339
    def _set_inventory(self, inv, dirty):
 
340
        """Set the internal cached inventory.
 
341
 
 
342
        :param inv: The inventory to set.
 
343
        :param dirty: A boolean indicating whether the inventory is the same
 
344
            logical inventory as whats on disk. If True the inventory is not
 
345
            the same and should be written to disk or data will be lost, if
 
346
            False then the inventory is the same as that on disk and any
 
347
            serialisation would be unneeded overhead.
 
348
        """
 
349
        assert inv.root is not None
286
350
        self._inventory = inv
287
 
        self.path2id = self._inventory.path2id
288
 
 
289
 
    def is_control_filename(self, filename):
290
 
        """True if filename is the name of a control file in this tree.
291
 
        
292
 
        This is true IF and ONLY IF the filename is part of the meta data
293
 
        that bzr controls in this tree. I.E. a random .bzr directory placed
294
 
        on disk will not be a control file for this tree.
295
 
        """
296
 
        try:
297
 
            self.bzrdir.transport.relpath(self.abspath(filename))
298
 
            return True
299
 
        except errors.PathNotChild:
300
 
            return False
 
351
        self._inventory_is_modified = dirty
301
352
 
302
353
    @staticmethod
303
354
    def open(path=None, _unsupported=False):
319
370
        run into /.  If there isn't one, raises NotBranchError.
320
371
        TODO: give this a new exception.
321
372
        If there is one, it is returned, along with the unused portion of path.
 
373
 
 
374
        :return: The WorkingTree that contains 'path', and the rest of path
322
375
        """
323
376
        if path is None:
324
 
            path = os.getcwdu()
 
377
            path = osutils.getcwd()
325
378
        control, relpath = bzrdir.BzrDir.open_containing(path)
 
379
 
326
380
        return control.open_workingtree(), relpath
327
381
 
328
382
    @staticmethod
341
395
        """
342
396
        inv = self._inventory
343
397
        for path, ie in inv.iter_entries():
344
 
            if bzrlib.osutils.lexists(self.abspath(path)):
 
398
            if osutils.lexists(self.abspath(path)):
345
399
                yield ie.file_id
346
400
 
347
401
    def __repr__(self):
352
406
        return pathjoin(self.basedir, filename)
353
407
    
354
408
    def basis_tree(self):
355
 
        """Return RevisionTree for the current last revision."""
 
409
        """Return RevisionTree for the current last revision.
 
410
        
 
411
        If the left most parent is a ghost then the returned tree will be an
 
412
        empty tree - one obtained by calling repository.revision_tree(None).
 
413
        """
356
414
        revision_id = self.last_revision()
357
 
        if revision_id is not None:
358
 
            try:
359
 
                xml = self.read_basis_inventory()
360
 
                inv = bzrlib.xml5.serializer_v5.read_inventory_from_string(xml)
361
 
            except NoSuchFile:
362
 
                inv = None
363
 
            if inv is not None and inv.revision_id == revision_id:
364
 
                return bzrlib.tree.RevisionTree(self.branch.repository, inv,
365
 
                                                revision_id)
366
 
        # FIXME? RBC 20060403 should we cache the inventory here ?
367
 
        return self.branch.repository.revision_tree(revision_id)
 
415
        if revision_id is None:
 
416
            # no parents, return an empty revision tree.
 
417
            # in the future this should return the tree for
 
418
            # 'empty:' - the implicit root empty tree.
 
419
            return self.branch.repository.revision_tree(None)
 
420
        try:
 
421
            return self.revision_tree(revision_id)
 
422
        except errors.NoSuchRevision:
 
423
            pass
 
424
        # No cached copy available, retrieve from the repository.
 
425
        # FIXME? RBC 20060403 should we cache the inventory locally
 
426
        # at this point ?
 
427
        try:
 
428
            return self.branch.repository.revision_tree(revision_id)
 
429
        except errors.RevisionNotPresent:
 
430
            # the basis tree *may* be a ghost or a low level error may have
 
431
            # occured. If the revision is present, its a problem, if its not
 
432
            # its a ghost.
 
433
            if self.branch.repository.has_revision(revision_id):
 
434
                raise
 
435
            # the basis tree is a ghost so return an empty tree.
 
436
            return self.branch.repository.revision_tree(None)
368
437
 
369
438
    @staticmethod
370
439
    @deprecated_method(zero_eight)
383
452
        XXX: When BzrDir is present, these should be created through that 
384
453
        interface instead.
385
454
        """
386
 
        warn('delete WorkingTree.create', stacklevel=3)
 
455
        warnings.warn('delete WorkingTree.create', stacklevel=3)
387
456
        transport = get_transport(directory)
388
457
        if branch.bzrdir.root_transport.base == transport.base:
389
458
            # same dir 
404
473
        """
405
474
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
406
475
 
407
 
    def relpath(self, abs):
408
 
        """Return the local path portion from a given absolute path."""
409
 
        return relpath(self.basedir, abs)
 
476
    def relpath(self, path):
 
477
        """Return the local path portion from a given path.
 
478
        
 
479
        The path may be absolute or relative. If its a relative path it is 
 
480
        interpreted relative to the python current working directory.
 
481
        """
 
482
        return relpath(self.basedir, path)
410
483
 
411
484
    def has_filename(self, filename):
412
 
        return bzrlib.osutils.lexists(self.abspath(filename))
 
485
        return osutils.lexists(self.abspath(filename))
413
486
 
414
487
    def get_file(self, file_id):
415
488
        return self.get_file_byname(self.id2path(file_id))
416
489
 
 
490
    def get_file_text(self, file_id):
 
491
        return self.get_file(file_id).read()
 
492
 
417
493
    def get_file_byname(self, filename):
418
494
        return file(self.abspath(filename), 'rb')
419
495
 
 
496
    def get_parent_ids(self):
 
497
        """See Tree.get_parent_ids.
 
498
        
 
499
        This implementation reads the pending merges list and last_revision
 
500
        value and uses that to decide what the parents list should be.
 
501
        """
 
502
        last_rev = self._last_revision()
 
503
        if last_rev is None:
 
504
            parents = []
 
505
        else:
 
506
            parents = [last_rev]
 
507
        try:
 
508
            merges_file = self._control_files.get_utf8('pending-merges')
 
509
        except NoSuchFile:
 
510
            pass
 
511
        else:
 
512
            for l in merges_file.readlines():
 
513
                parents.append(l.rstrip('\n'))
 
514
        return parents
 
515
 
 
516
    @needs_read_lock
420
517
    def get_root_id(self):
421
518
        """Return the id of this trees root"""
422
 
        inv = self.read_working_inventory()
423
 
        return inv.root.file_id
 
519
        return self._inventory.root.file_id
424
520
        
425
521
    def _get_store_filename(self, file_id):
426
522
        ## XXX: badly named; this is not in the store at all
455
551
        if revision_id is None:
456
552
            transform_tree(tree, self)
457
553
        else:
458
 
            # TODO now merge from tree.last_revision to revision
 
554
            # TODO now merge from tree.last_revision to revision (to preserve
 
555
            # user local changes)
459
556
            transform_tree(tree, self)
460
 
            tree.set_last_revision(revision_id)
461
 
 
462
 
    @needs_write_lock
463
 
    def commit(self, message=None, revprops=None, *args, **kwargs):
464
 
        # avoid circular imports
465
 
        from bzrlib.commit import Commit
466
 
        if revprops is None:
467
 
            revprops = {}
468
 
        if not 'branch-nick' in revprops:
469
 
            revprops['branch-nick'] = self.branch.nick
470
 
        # args for wt.commit start at message from the Commit.commit method,
471
 
        # but with branch a kwarg now, passing in args as is results in the
472
 
        #message being used for the branch
473
 
        args = (DEPRECATED_PARAMETER, message, ) + args
474
 
        Commit().commit(working_tree=self, revprops=revprops, *args, **kwargs)
475
 
        self._set_inventory(self.read_working_inventory())
 
557
            tree.set_parent_ids([revision_id])
476
558
 
477
559
    def id2abspath(self, file_id):
478
560
        return self.abspath(self.id2path(file_id))
483
565
        if not inv.has_id(file_id):
484
566
            return False
485
567
        path = inv.id2path(file_id)
486
 
        return bzrlib.osutils.lexists(self.abspath(path))
 
568
        return osutils.lexists(self.abspath(path))
487
569
 
488
570
    def has_or_had_id(self, file_id):
489
571
        if file_id == self.inventory.root.file_id:
496
578
        return os.path.getsize(self.id2abspath(file_id))
497
579
 
498
580
    @needs_read_lock
499
 
    def get_file_sha1(self, file_id):
500
 
        path = self._inventory.id2path(file_id)
 
581
    def get_file_sha1(self, file_id, path=None):
 
582
        if not path:
 
583
            path = self._inventory.id2path(file_id)
501
584
        return self._hashcache.get_sha1(path)
502
585
 
503
 
    def is_executable(self, file_id):
504
 
        if not supports_executable():
 
586
    def get_file_mtime(self, file_id, path=None):
 
587
        if not path:
 
588
            path = self._inventory.id2path(file_id)
 
589
        return os.lstat(self.abspath(path)).st_mtime
 
590
 
 
591
    if not supports_executable():
 
592
        def is_executable(self, file_id, path=None):
505
593
            return self._inventory[file_id].executable
506
 
        else:
507
 
            path = self._inventory.id2path(file_id)
 
594
    else:
 
595
        def is_executable(self, file_id, path=None):
 
596
            if not path:
 
597
                path = self._inventory.id2path(file_id)
508
598
            mode = os.lstat(self.abspath(path)).st_mode
509
 
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC&mode)
 
599
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
510
600
 
511
601
    @needs_write_lock
512
 
    def add(self, files, ids=None):
513
 
        """Make files versioned.
514
 
 
515
 
        Note that the command line normally calls smart_add instead,
516
 
        which can automatically recurse.
517
 
 
518
 
        This adds the files to the inventory, so that they will be
519
 
        recorded by the next commit.
520
 
 
521
 
        files
522
 
            List of paths to add, relative to the base of the tree.
523
 
 
524
 
        ids
525
 
            If set, use these instead of automatically generated ids.
526
 
            Must be the same length as the list of files, but may
527
 
            contain None for ids that are to be autogenerated.
528
 
 
529
 
        TODO: Perhaps have an option to add the ids even if the files do
530
 
              not (yet) exist.
531
 
 
532
 
        TODO: Perhaps callback with the ids and paths as they're added.
533
 
        """
 
602
    def _add(self, files, ids, kinds):
 
603
        """See MutableTree._add."""
534
604
        # TODO: Re-adding a file that is removed in the working copy
535
605
        # should probably put it back with the previous ID.
536
 
        if isinstance(files, basestring):
537
 
            assert(ids is None or isinstance(ids, basestring))
538
 
            files = [files]
539
 
            if ids is not None:
540
 
                ids = [ids]
541
 
 
542
 
        if ids is None:
543
 
            ids = [None] * len(files)
544
 
        else:
545
 
            assert(len(ids) == len(files))
546
 
 
 
606
        # the read and write working inventory should not occur in this 
 
607
        # function - they should be part of lock_write and unlock.
547
608
        inv = self.read_working_inventory()
548
 
        for f,file_id in zip(files, ids):
549
 
            if self.is_control_filename(f):
550
 
                raise BzrError("cannot add control file %s" % quotefn(f))
551
 
 
552
 
            fp = splitpath(f)
553
 
 
554
 
            if len(fp) == 0:
555
 
                raise BzrError("cannot add top-level %r" % f)
556
 
 
557
 
            fullpath = normpath(self.abspath(f))
558
 
 
559
 
            try:
560
 
                kind = file_kind(fullpath)
561
 
            except OSError, e:
562
 
                if e.errno == errno.ENOENT:
563
 
                    raise NoSuchFile(fullpath)
564
 
                # maybe something better?
565
 
                raise BzrError('cannot add: not a regular file, symlink or directory: %s' % quotefn(f))
566
 
 
567
 
            if not InventoryEntry.versionable_kind(kind):
568
 
                raise BzrError('cannot add: not a versionable file ('
569
 
                               'i.e. regular file, symlink or directory): %s' % quotefn(f))
570
 
 
 
609
        for f, file_id, kind in zip(files, ids, kinds):
 
610
            assert kind is not None
571
611
            if file_id is None:
572
 
                file_id = gen_file_id(f)
573
 
            inv.add_path(f, kind=kind, file_id=file_id)
574
 
 
575
 
            mutter("add file %s file_id:{%s} kind=%r" % (f, file_id, kind))
 
612
                inv.add_path(f, kind=kind)
 
613
            else:
 
614
                inv.add_path(f, kind=kind, file_id=file_id)
576
615
        self._write_inventory(inv)
577
616
 
 
617
    @needs_tree_write_lock
 
618
    def _gather_kinds(self, files, kinds):
 
619
        """See MutableTree._gather_kinds."""
 
620
        for pos, f in enumerate(files):
 
621
            if kinds[pos] is None:
 
622
                fullpath = normpath(self.abspath(f))
 
623
                try:
 
624
                    kinds[pos] = file_kind(fullpath)
 
625
                except OSError, e:
 
626
                    if e.errno == errno.ENOENT:
 
627
                        raise NoSuchFile(fullpath)
 
628
 
578
629
    @needs_write_lock
 
630
    def add_parent_tree_id(self, revision_id, allow_leftmost_as_ghost=False):
 
631
        """Add revision_id as a parent.
 
632
 
 
633
        This is equivalent to retrieving the current list of parent ids
 
634
        and setting the list to its value plus revision_id.
 
635
 
 
636
        :param revision_id: The revision id to add to the parent list. It may
 
637
        be a ghost revision as long as its not the first parent to be added,
 
638
        or the allow_leftmost_as_ghost parameter is set True.
 
639
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
 
640
        """
 
641
        parents = self.get_parent_ids() + [revision_id]
 
642
        self.set_parent_ids(parents,
 
643
            allow_leftmost_as_ghost=len(parents) > 1 or allow_leftmost_as_ghost)
 
644
 
 
645
    @needs_tree_write_lock
 
646
    def add_parent_tree(self, parent_tuple, allow_leftmost_as_ghost=False):
 
647
        """Add revision_id, tree tuple as a parent.
 
648
 
 
649
        This is equivalent to retrieving the current list of parent trees
 
650
        and setting the list to its value plus parent_tuple. See also
 
651
        add_parent_tree_id - if you only have a parent id available it will be
 
652
        simpler to use that api. If you have the parent already available, using
 
653
        this api is preferred.
 
654
 
 
655
        :param parent_tuple: The (revision id, tree) to add to the parent list.
 
656
            If the revision_id is a ghost, pass None for the tree.
 
657
        :param allow_leftmost_as_ghost: Allow the first parent to be a ghost.
 
658
        """
 
659
        parent_ids = self.get_parent_ids() + [parent_tuple[0]]
 
660
        if len(parent_ids) > 1:
 
661
            # the leftmost may have already been a ghost, preserve that if it
 
662
            # was.
 
663
            allow_leftmost_as_ghost = True
 
664
        self.set_parent_ids(parent_ids,
 
665
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
666
 
 
667
    @needs_tree_write_lock
579
668
    def add_pending_merge(self, *revision_ids):
580
669
        # TODO: Perhaps should check at this point that the
581
670
        # history of the revision is actually present?
582
 
        p = self.pending_merges()
 
671
        parents = self.get_parent_ids()
583
672
        updated = False
584
673
        for rev_id in revision_ids:
585
 
            if rev_id in p:
 
674
            if rev_id in parents:
586
675
                continue
587
 
            p.append(rev_id)
 
676
            parents.append(rev_id)
588
677
            updated = True
589
678
        if updated:
590
 
            self.set_pending_merges(p)
 
679
            self.set_parent_ids(parents, allow_leftmost_as_ghost=True)
591
680
 
 
681
    @deprecated_method(zero_eleven)
592
682
    @needs_read_lock
593
683
    def pending_merges(self):
594
684
        """Return a list of pending merges.
595
685
 
596
686
        These are revisions that have been merged into the working
597
687
        directory but not yet committed.
598
 
        """
599
 
        try:
600
 
            merges_file = self._control_files.get_utf8('pending-merges')
601
 
        except OSError, e:
602
 
            if e.errno != errno.ENOENT:
603
 
                raise
604
 
            return []
605
 
        p = []
606
 
        for l in merges_file.readlines():
607
 
            p.append(l.rstrip('\n'))
608
 
        return p
609
 
 
610
 
    @needs_write_lock
 
688
 
 
689
        As of 0.11 this is deprecated. Please see WorkingTree.get_parent_ids()
 
690
        instead - which is available on all tree objects.
 
691
        """
 
692
        return self.get_parent_ids()[1:]
 
693
 
 
694
    def _check_parents_for_ghosts(self, revision_ids, allow_leftmost_as_ghost):
 
695
        """Common ghost checking functionality from set_parent_*.
 
696
 
 
697
        This checks that the left hand-parent exists if there are any
 
698
        revisions present.
 
699
        """
 
700
        if len(revision_ids) > 0:
 
701
            leftmost_id = revision_ids[0]
 
702
            if (not allow_leftmost_as_ghost and not
 
703
                self.branch.repository.has_revision(leftmost_id)):
 
704
                raise errors.GhostRevisionUnusableHere(leftmost_id)
 
705
 
 
706
    def _set_merges_from_parent_ids(self, parent_ids):
 
707
        merges = parent_ids[1:]
 
708
        self._control_files.put_utf8('pending-merges', '\n'.join(merges))
 
709
 
 
710
    @needs_tree_write_lock
 
711
    def set_parent_ids(self, revision_ids, allow_leftmost_as_ghost=False):
 
712
        """Set the parent ids to revision_ids.
 
713
        
 
714
        See also set_parent_trees. This api will try to retrieve the tree data
 
715
        for each element of revision_ids from the trees repository. If you have
 
716
        tree data already available, it is more efficient to use
 
717
        set_parent_trees rather than set_parent_ids. set_parent_ids is however
 
718
        an easier API to use.
 
719
 
 
720
        :param revision_ids: The revision_ids to set as the parent ids of this
 
721
            working tree. Any of these may be ghosts.
 
722
        """
 
723
        self._check_parents_for_ghosts(revision_ids,
 
724
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
725
 
 
726
        if len(revision_ids) > 0:
 
727
            self.set_last_revision(revision_ids[0])
 
728
        else:
 
729
            self.set_last_revision(None)
 
730
 
 
731
        self._set_merges_from_parent_ids(revision_ids)
 
732
 
 
733
    @needs_tree_write_lock
 
734
    def set_parent_trees(self, parents_list, allow_leftmost_as_ghost=False):
 
735
        """See MutableTree.set_parent_trees."""
 
736
        parent_ids = [rev for (rev, tree) in parents_list]
 
737
 
 
738
        self._check_parents_for_ghosts(parent_ids,
 
739
            allow_leftmost_as_ghost=allow_leftmost_as_ghost)
 
740
 
 
741
        if len(parent_ids) == 0:
 
742
            leftmost_parent_id = None
 
743
            leftmost_parent_tree = None
 
744
        else:
 
745
            leftmost_parent_id, leftmost_parent_tree = parents_list[0]
 
746
 
 
747
        if self._change_last_revision(leftmost_parent_id):
 
748
            if leftmost_parent_tree is None:
 
749
                # If we don't have a tree, fall back to reading the
 
750
                # parent tree from the repository.
 
751
                self._cache_basis_inventory(leftmost_parent_id)
 
752
            else:
 
753
                inv = leftmost_parent_tree.inventory
 
754
                xml = self._create_basis_xml_from_inventory(
 
755
                                        leftmost_parent_id, inv)
 
756
                self._write_basis_inventory(xml)
 
757
        self._set_merges_from_parent_ids(parent_ids)
 
758
 
 
759
    @needs_tree_write_lock
611
760
    def set_pending_merges(self, rev_list):
612
 
        self._control_files.put_utf8('pending-merges', '\n'.join(rev_list))
 
761
        parents = self.get_parent_ids()
 
762
        leftmost = parents[:1]
 
763
        new_parents = leftmost + rev_list
 
764
        self.set_parent_ids(new_parents)
613
765
 
614
 
    @needs_write_lock
 
766
    @needs_tree_write_lock
615
767
    def set_merge_modified(self, modified_hashes):
616
768
        def iter_stanzas():
617
769
            for file_id, hash in modified_hashes.iteritems():
618
770
                yield Stanza(file_id=file_id, hash=hash)
619
771
        self._put_rio('merge-hashes', iter_stanzas(), MERGE_MODIFIED_HEADER_1)
620
772
 
621
 
    @needs_write_lock
 
773
    @needs_tree_write_lock
622
774
    def _put_rio(self, filename, stanzas, header):
623
775
        my_file = rio_file(stanzas, header)
624
776
        self._control_files.put(filename, my_file)
625
777
 
 
778
    @needs_write_lock # because merge pulls data into the branch.
 
779
    def merge_from_branch(self, branch, to_revision=None):
 
780
        """Merge from a branch into this working tree.
 
781
 
 
782
        :param branch: The branch to merge from.
 
783
        :param to_revision: If non-None, the merge will merge to to_revision, but 
 
784
            not beyond it. to_revision does not need to be in the history of
 
785
            the branch when it is supplied. If None, to_revision defaults to
 
786
            branch.last_revision().
 
787
        """
 
788
        from bzrlib.merge import Merger, Merge3Merger
 
789
        pb = bzrlib.ui.ui_factory.nested_progress_bar()
 
790
        try:
 
791
            merger = Merger(self.branch, this_tree=self, pb=pb)
 
792
            merger.pp = ProgressPhase("Merge phase", 5, pb)
 
793
            merger.pp.next_phase()
 
794
            # check that there are no
 
795
            # local alterations
 
796
            merger.check_basis(check_clean=True, require_commits=False)
 
797
            if to_revision is None:
 
798
                to_revision = branch.last_revision()
 
799
            merger.other_rev_id = to_revision
 
800
            if merger.other_rev_id is None:
 
801
                raise error.NoCommits(branch)
 
802
            self.branch.fetch(branch, last_revision=merger.other_rev_id)
 
803
            merger.other_basis = merger.other_rev_id
 
804
            merger.other_tree = self.branch.repository.revision_tree(
 
805
                merger.other_rev_id)
 
806
            merger.pp.next_phase()
 
807
            merger.find_base()
 
808
            if merger.base_rev_id == merger.other_rev_id:
 
809
                raise errors.PointlessMerge
 
810
            merger.backup_files = False
 
811
            merger.merge_type = Merge3Merger
 
812
            merger.set_interesting_files(None)
 
813
            merger.show_base = False
 
814
            merger.reprocess = False
 
815
            conflicts = merger.do_merge()
 
816
            merger.set_pending()
 
817
        finally:
 
818
            pb.finished()
 
819
        return conflicts
 
820
 
626
821
    @needs_read_lock
627
822
    def merge_modified(self):
628
823
        try:
644
839
                merge_hashes[file_id] = hash
645
840
        return merge_hashes
646
841
 
 
842
    @needs_write_lock
 
843
    def mkdir(self, path, file_id=None):
 
844
        """See MutableTree.mkdir()."""
 
845
        if file_id is None:
 
846
            file_id = gen_file_id(os.path.basename(path))
 
847
        os.mkdir(self.abspath(path))
 
848
        self.add(path, file_id, 'directory')
 
849
        return file_id
 
850
 
647
851
    def get_symlink_target(self, file_id):
648
852
        return os.readlink(self.id2abspath(file_id))
649
853
 
655
859
        else:
656
860
            return '?'
657
861
 
658
 
    def list_files(self):
659
 
        """Recursively list all files as (path, class, kind, id).
 
862
    def flush(self):
 
863
        """Write the in memory inventory to disk."""
 
864
        # TODO: Maybe this should only write on dirty ?
 
865
        if self._control_files._lock_mode != 'w':
 
866
            raise errors.NotWriteLocked(self)
 
867
        sio = StringIO()
 
868
        bzrlib.xml5.serializer_v5.write_inventory(self._inventory, sio)
 
869
        sio.seek(0)
 
870
        self._control_files.put('inventory', sio)
 
871
        self._inventory_is_modified = False
 
872
 
 
873
    def list_files(self, include_root=False):
 
874
        """Recursively list all files as (path, class, kind, id, entry).
660
875
 
661
876
        Lists, but does not descend into unversioned directories.
662
877
 
666
881
        Skips the control directory.
667
882
        """
668
883
        inv = self._inventory
669
 
 
670
 
        def descend(from_dir_relpath, from_dir_id, dp):
671
 
            ls = os.listdir(dp)
672
 
            ls.sort()
673
 
            for f in ls:
 
884
        if include_root is True:
 
885
            yield ('', 'V', 'directory', inv.root.file_id, inv.root)
 
886
        # Convert these into local objects to save lookup times
 
887
        pathjoin = osutils.pathjoin
 
888
        file_kind = osutils.file_kind
 
889
 
 
890
        # transport.base ends in a slash, we want the piece
 
891
        # between the last two slashes
 
892
        transport_base_dir = self.bzrdir.transport.base.rsplit('/', 2)[1]
 
893
 
 
894
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
 
895
 
 
896
        # directory file_id, relative path, absolute path, reverse sorted children
 
897
        children = os.listdir(self.basedir)
 
898
        children.sort()
 
899
        # jam 20060527 The kernel sized tree seems equivalent whether we 
 
900
        # use a deque and popleft to keep them sorted, or if we use a plain
 
901
        # list and just reverse() them.
 
902
        children = collections.deque(children)
 
903
        stack = [(inv.root.file_id, u'', self.basedir, children)]
 
904
        while stack:
 
905
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
 
906
 
 
907
            while children:
 
908
                f = children.popleft()
674
909
                ## TODO: If we find a subdirectory with its own .bzr
675
910
                ## directory, then that is a separate tree and we
676
911
                ## should exclude it.
677
912
 
678
913
                # the bzrdir for this tree
679
 
                if self.bzrdir.transport.base.endswith(f + '/'):
 
914
                if transport_base_dir == f:
680
915
                    continue
681
916
 
682
 
                # path within tree
683
 
                fp = appendpath(from_dir_relpath, f)
 
917
                # we know that from_dir_relpath and from_dir_abspath never end in a slash
 
918
                # and 'f' doesn't begin with one, we can do a string op, rather
 
919
                # than the checks of pathjoin(), all relative paths will have an extra slash
 
920
                # at the beginning
 
921
                fp = from_dir_relpath + '/' + f
684
922
 
685
923
                # absolute path
686
 
                fap = appendpath(dp, f)
 
924
                fap = from_dir_abspath + '/' + f
687
925
                
688
926
                f_ie = inv.get_child(from_dir_id, f)
689
927
                if f_ie:
690
928
                    c = 'V'
691
 
                elif self.is_ignored(fp):
 
929
                elif self.is_ignored(fp[1:]):
692
930
                    c = 'I'
693
931
                else:
694
 
                    c = '?'
 
932
                    # we may not have found this file, because of a unicode issue
 
933
                    f_norm, can_access = osutils.normalized_filename(f)
 
934
                    if f == f_norm or not can_access:
 
935
                        # No change, so treat this file normally
 
936
                        c = '?'
 
937
                    else:
 
938
                        # this file can be accessed by a normalized path
 
939
                        # check again if it is versioned
 
940
                        # these lines are repeated here for performance
 
941
                        f = f_norm
 
942
                        fp = from_dir_relpath + '/' + f
 
943
                        fap = from_dir_abspath + '/' + f
 
944
                        f_ie = inv.get_child(from_dir_id, f)
 
945
                        if f_ie:
 
946
                            c = 'V'
 
947
                        elif self.is_ignored(fp[1:]):
 
948
                            c = 'I'
 
949
                        else:
 
950
                            c = '?'
695
951
 
696
952
                fk = file_kind(fap)
697
953
 
703
959
 
704
960
                # make a last minute entry
705
961
                if f_ie:
706
 
                    entry = f_ie
 
962
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
707
963
                else:
708
 
                    if fk == 'directory':
709
 
                        entry = TreeDirectory()
710
 
                    elif fk == 'file':
711
 
                        entry = TreeFile()
712
 
                    elif fk == 'symlink':
713
 
                        entry = TreeLink()
714
 
                    else:
715
 
                        entry = TreeEntry()
 
964
                    try:
 
965
                        yield fp[1:], c, fk, None, fk_entries[fk]()
 
966
                    except KeyError:
 
967
                        yield fp[1:], c, fk, None, TreeEntry()
 
968
                    continue
716
969
                
717
 
                yield fp, c, fk, (f_ie and f_ie.file_id), entry
718
 
 
719
970
                if fk != 'directory':
720
971
                    continue
721
972
 
722
 
                if c != 'V':
723
 
                    # don't descend unversioned directories
724
 
                    continue
725
 
                
726
 
                for ff in descend(fp, f_ie.file_id, fap):
727
 
                    yield ff
728
 
 
729
 
        for f in descend(u'', inv.root.file_id, self.basedir):
730
 
            yield f
731
 
 
732
 
    @needs_write_lock
 
973
                # But do this child first
 
974
                new_children = os.listdir(fap)
 
975
                new_children.sort()
 
976
                new_children = collections.deque(new_children)
 
977
                stack.append((f_ie.file_id, fp, fap, new_children))
 
978
                # Break out of inner loop, so that we start outer loop with child
 
979
                break
 
980
            else:
 
981
                # if we finished all children, pop it off the stack
 
982
                stack.pop()
 
983
 
 
984
    @needs_tree_write_lock
733
985
    def move(self, from_paths, to_name):
734
986
        """Rename files.
735
987
 
754
1006
        if not self.has_filename(to_name):
755
1007
            raise BzrError("destination %r not in working directory" % to_abs)
756
1008
        to_dir_id = inv.path2id(to_name)
757
 
        if to_dir_id == None and to_name != '':
 
1009
        if to_dir_id is None and to_name != '':
758
1010
            raise BzrError("destination %r is not a versioned directory" % to_name)
759
1011
        to_dir_ie = inv[to_dir_id]
760
 
        if to_dir_ie.kind not in ('directory', 'root_directory'):
 
1012
        if to_dir_ie.kind != 'directory':
761
1013
            raise BzrError("destination %r is not a directory" % to_abs)
762
1014
 
763
1015
        to_idpath = inv.get_idpath(to_dir_id)
766
1018
            if not self.has_filename(f):
767
1019
                raise BzrError("%r does not exist in working tree" % f)
768
1020
            f_id = inv.path2id(f)
769
 
            if f_id == None:
 
1021
            if f_id is None:
770
1022
                raise BzrError("%r is not versioned" % f)
771
1023
            name_tail = splitpath(f)[-1]
772
 
            dest_path = appendpath(to_name, name_tail)
 
1024
            dest_path = pathjoin(to_name, name_tail)
773
1025
            if self.has_filename(dest_path):
774
1026
                raise BzrError("destination %r already exists" % dest_path)
775
1027
            if f_id in to_idpath:
779
1031
        # create a file in this interval and then the rename might be
780
1032
        # left half-done.  But we should have caught most problems.
781
1033
        orig_inv = deepcopy(self.inventory)
 
1034
        original_modified = self._inventory_is_modified
782
1035
        try:
 
1036
            if len(from_paths):
 
1037
                self._inventory_is_modified = True
783
1038
            for f in from_paths:
784
1039
                name_tail = splitpath(f)[-1]
785
 
                dest_path = appendpath(to_name, name_tail)
 
1040
                dest_path = pathjoin(to_name, name_tail)
786
1041
                result.append((f, dest_path))
787
1042
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
788
1043
                try:
793
1048
                            ["rename rolled back"])
794
1049
        except:
795
1050
            # restore the inventory on error
796
 
            self._set_inventory(orig_inv)
 
1051
            self._set_inventory(orig_inv, dirty=original_modified)
797
1052
            raise
798
1053
        self._write_inventory(inv)
799
1054
        return result
800
1055
 
801
 
    @needs_write_lock
 
1056
    @needs_tree_write_lock
802
1057
    def rename_one(self, from_rel, to_rel):
803
1058
        """Rename one file.
804
1059
 
811
1066
            raise BzrError("can't rename: new working file %r already exists" % to_rel)
812
1067
 
813
1068
        file_id = inv.path2id(from_rel)
814
 
        if file_id == None:
 
1069
        if file_id is None:
815
1070
            raise BzrError("can't rename: old name %r is not versioned" % from_rel)
816
1071
 
817
1072
        entry = inv[file_id]
823
1078
 
824
1079
        to_dir, to_tail = os.path.split(to_rel)
825
1080
        to_dir_id = inv.path2id(to_dir)
826
 
        if to_dir_id == None and to_dir != '':
 
1081
        if to_dir_id is None and to_dir != '':
827
1082
            raise BzrError("can't determine destination directory id for %r" % to_dir)
828
1083
 
829
1084
        mutter("rename_one:")
852
1107
 
853
1108
        These are files in the working directory that are not versioned or
854
1109
        control files or ignored.
855
 
        
856
 
        >>> from bzrlib.bzrdir import ScratchDir
857
 
        >>> d = ScratchDir(files=['foo', 'foo~'])
858
 
        >>> b = d.open_branch()
859
 
        >>> tree = d.open_workingtree()
860
 
        >>> map(str, tree.unknowns())
861
 
        ['foo']
862
 
        >>> tree.add('foo')
863
 
        >>> list(b.unknowns())
864
 
        []
865
 
        >>> tree.remove('foo')
866
 
        >>> list(b.unknowns())
867
 
        [u'foo']
868
1110
        """
869
1111
        for subp in self.extras():
870
1112
            if not self.is_ignored(subp):
871
1113
                yield subp
872
 
 
 
1114
    
 
1115
    @needs_tree_write_lock
 
1116
    def unversion(self, file_ids):
 
1117
        """Remove the file ids in file_ids from the current versioned set.
 
1118
 
 
1119
        When a file_id is unversioned, all of its children are automatically
 
1120
        unversioned.
 
1121
 
 
1122
        :param file_ids: The file ids to stop versioning.
 
1123
        :raises: NoSuchId if any fileid is not currently versioned.
 
1124
        """
 
1125
        for file_id in file_ids:
 
1126
            if self._inventory.has_id(file_id):
 
1127
                self._inventory.remove_recursive_id(file_id)
 
1128
            else:
 
1129
                raise errors.NoSuchId(self, file_id)
 
1130
        if len(file_ids):
 
1131
            # in the future this should just set a dirty bit to wait for the 
 
1132
            # final unlock. However, until all methods of workingtree start
 
1133
            # with the current in -memory inventory rather than triggering 
 
1134
            # a read, it is more complex - we need to teach read_inventory
 
1135
            # to know when to read, and when to not read first... and possibly
 
1136
            # to save first when the in memory one may be corrupted.
 
1137
            # so for now, we just only write it if it is indeed dirty.
 
1138
            # - RBC 20060907
 
1139
            self._write_inventory(self._inventory)
 
1140
    
873
1141
    @deprecated_method(zero_eight)
874
1142
    def iter_conflicts(self):
875
1143
        """List all files in the tree that have text or content conflicts.
878
1146
 
879
1147
    def _iter_conflicts(self):
880
1148
        conflicted = set()
881
 
        for path in (s[0] for s in self.list_files()):
 
1149
        for info in self.list_files():
 
1150
            path = info[0]
882
1151
            stem = get_conflicted_stem(path)
883
1152
            if stem is None:
884
1153
                continue
906
1175
                repository = self.branch.repository
907
1176
                pb = bzrlib.ui.ui_factory.nested_progress_bar()
908
1177
                try:
 
1178
                    new_basis_tree = self.branch.basis_tree()
909
1179
                    merge_inner(self.branch,
910
 
                                self.branch.basis_tree(),
911
 
                                basis_tree, 
912
 
                                this_tree=self, 
 
1180
                                new_basis_tree,
 
1181
                                basis_tree,
 
1182
                                this_tree=self,
913
1183
                                pb=pb)
914
1184
                finally:
915
1185
                    pb.finished()
916
 
                self.set_last_revision(self.branch.last_revision())
 
1186
                # TODO - dedup parents list with things merged by pull ?
 
1187
                # reuse the revisiontree we merged against to set the new
 
1188
                # tree data.
 
1189
                parent_trees = [(self.branch.last_revision(), new_basis_tree)]
 
1190
                # we have to pull the merge trees out again, because 
 
1191
                # merge_inner has set the ids. - this corner is not yet 
 
1192
                # layered well enough to prevent double handling.
 
1193
                merges = self.get_parent_ids()[1:]
 
1194
                parent_trees.extend([
 
1195
                    (parent, repository.revision_tree(parent)) for
 
1196
                     parent in merges])
 
1197
                self.set_parent_trees(parent_trees)
917
1198
            return count
918
1199
        finally:
919
1200
            source.unlock()
920
1201
            top_pb.finished()
921
1202
 
 
1203
    @needs_write_lock
 
1204
    def put_file_bytes_non_atomic(self, file_id, bytes):
 
1205
        """See MutableTree.put_file_bytes_non_atomic."""
 
1206
        stream = file(self.id2abspath(file_id), 'wb')
 
1207
        try:
 
1208
            stream.write(bytes)
 
1209
        finally:
 
1210
            stream.close()
 
1211
        # TODO: update the hashcache here ?
 
1212
 
922
1213
    def extras(self):
923
1214
        """Yield all unknown files in this WorkingTree.
924
1215
 
930
1221
        """
931
1222
        ## TODO: Work from given directory downwards
932
1223
        for path, dir_entry in self.inventory.directories():
933
 
            mutter("search for unknowns in %r", path)
 
1224
            # mutter("search for unknowns in %r", path)
934
1225
            dirabs = self.abspath(path)
935
1226
            if not isdir(dirabs):
936
1227
                # e.g. directory deleted
938
1229
 
939
1230
            fl = []
940
1231
            for subf in os.listdir(dirabs):
941
 
                if (subf != '.bzr'
942
 
                    and (subf not in dir_entry.children)):
943
 
                    fl.append(subf)
 
1232
                if subf == '.bzr':
 
1233
                    continue
 
1234
                if subf not in dir_entry.children:
 
1235
                    subf_norm, can_access = osutils.normalized_filename(subf)
 
1236
                    if subf_norm != subf and can_access:
 
1237
                        if subf_norm not in dir_entry.children:
 
1238
                            fl.append(subf_norm)
 
1239
                    else:
 
1240
                        fl.append(subf)
944
1241
            
945
1242
            fl.sort()
946
1243
            for subf in fl:
947
 
                subp = appendpath(path, subf)
 
1244
                subp = pathjoin(path, subf)
948
1245
                yield subp
949
1246
 
 
1247
    def _translate_ignore_rule(self, rule):
 
1248
        """Translate a single ignore rule to a regex.
 
1249
 
 
1250
        There are two types of ignore rules.  Those that do not contain a / are
 
1251
        matched against the tail of the filename (that is, they do not care
 
1252
        what directory the file is in.)  Rules which do contain a slash must
 
1253
        match the entire path.  As a special case, './' at the start of the
 
1254
        string counts as a slash in the string but is removed before matching
 
1255
        (e.g. ./foo.c, ./src/foo.c)
 
1256
 
 
1257
        :return: The translated regex.
 
1258
        """
 
1259
        if rule[:2] in ('./', '.\\'):
 
1260
            # rootdir rule
 
1261
            result = fnmatch.translate(rule[2:])
 
1262
        elif '/' in rule or '\\' in rule:
 
1263
            # path prefix 
 
1264
            result = fnmatch.translate(rule)
 
1265
        else:
 
1266
            # default rule style.
 
1267
            result = "(?:.*/)?(?!.*/)" + fnmatch.translate(rule)
 
1268
        assert result[-1] == '$', "fnmatch.translate did not add the expected $"
 
1269
        return "(" + result + ")"
 
1270
 
 
1271
    def _combine_ignore_rules(self, rules):
 
1272
        """Combine a list of ignore rules into a single regex object.
 
1273
 
 
1274
        Each individual rule is combined with | to form a big regex, which then
 
1275
        has $ added to it to form something like ()|()|()$. The group index for
 
1276
        each subregex's outermost group is placed in a dictionary mapping back 
 
1277
        to the rule. This allows quick identification of the matching rule that
 
1278
        triggered a match.
 
1279
        :return: a list of the compiled regex and the matching-group index 
 
1280
        dictionaries. We return a list because python complains if you try to 
 
1281
        combine more than 100 regexes.
 
1282
        """
 
1283
        result = []
 
1284
        groups = {}
 
1285
        next_group = 0
 
1286
        translated_rules = []
 
1287
        for rule in rules:
 
1288
            translated_rule = self._translate_ignore_rule(rule)
 
1289
            compiled_rule = re.compile(translated_rule)
 
1290
            groups[next_group] = rule
 
1291
            next_group += compiled_rule.groups
 
1292
            translated_rules.append(translated_rule)
 
1293
            if next_group == 99:
 
1294
                result.append((re.compile("|".join(translated_rules)), groups))
 
1295
                groups = {}
 
1296
                next_group = 0
 
1297
                translated_rules = []
 
1298
        if len(translated_rules):
 
1299
            result.append((re.compile("|".join(translated_rules)), groups))
 
1300
        return result
950
1301
 
951
1302
    def ignored_files(self):
952
1303
        """Yield list of PATH, IGNORE_PATTERN"""
953
1304
        for subp in self.extras():
954
1305
            pat = self.is_ignored(subp)
955
 
            if pat != None:
 
1306
            if pat is not None:
956
1307
                yield subp, pat
957
1308
 
958
 
 
959
1309
    def get_ignore_list(self):
960
1310
        """Return list of ignore patterns.
961
1311
 
962
1312
        Cached in the Tree object after the first call.
963
1313
        """
964
 
        if hasattr(self, '_ignorelist'):
965
 
            return self._ignorelist
966
 
 
967
 
        l = bzrlib.DEFAULT_IGNORE[:]
 
1314
        ignoreset = getattr(self, '_ignoreset', None)
 
1315
        if ignoreset is not None:
 
1316
            return ignoreset
 
1317
 
 
1318
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
 
1319
        ignore_globs.update(ignores.get_runtime_ignores())
 
1320
 
 
1321
        ignore_globs.update(ignores.get_user_ignores())
 
1322
 
968
1323
        if self.has_filename(bzrlib.IGNORE_FILENAME):
969
1324
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
970
 
            l.extend([line.rstrip("\n\r") for line in f.readlines()])
971
 
        self._ignorelist = l
972
 
        return l
973
 
 
 
1325
            try:
 
1326
                ignore_globs.update(ignores.parse_ignore_file(f))
 
1327
            finally:
 
1328
                f.close()
 
1329
 
 
1330
        self._ignoreset = ignore_globs
 
1331
        self._ignore_regex = self._combine_ignore_rules(ignore_globs)
 
1332
        return ignore_globs
 
1333
 
 
1334
    def _get_ignore_rules_as_regex(self):
 
1335
        """Return a regex of the ignore rules and a mapping dict.
 
1336
 
 
1337
        :return: (ignore rules compiled regex, dictionary mapping rule group 
 
1338
        indices to original rule.)
 
1339
        """
 
1340
        if getattr(self, '_ignoreset', None) is None:
 
1341
            self.get_ignore_list()
 
1342
        return self._ignore_regex
974
1343
 
975
1344
    def is_ignored(self, filename):
976
1345
        r"""Check whether the filename matches an ignore pattern.
990
1359
        # treat dotfiles correctly and allows * to match /.
991
1360
        # Eventually it should be replaced with something more
992
1361
        # accurate.
993
 
        
994
 
        for pat in self.get_ignore_list():
995
 
            if '/' in pat or '\\' in pat:
996
 
                
997
 
                # as a special case, you can put ./ at the start of a
998
 
                # pattern; this is good to match in the top-level
999
 
                # only;
1000
 
                
1001
 
                if (pat[:2] == './') or (pat[:2] == '.\\'):
1002
 
                    newpat = pat[2:]
1003
 
                else:
1004
 
                    newpat = pat
1005
 
                if fnmatch.fnmatchcase(filename, newpat):
1006
 
                    return pat
1007
 
            else:
1008
 
                if fnmatch.fnmatchcase(splitpath(filename)[-1], pat):
1009
 
                    return pat
1010
 
        else:
1011
 
            return None
 
1362
    
 
1363
        rules = self._get_ignore_rules_as_regex()
 
1364
        for regex, mapping in rules:
 
1365
            match = regex.match(filename)
 
1366
            if match is not None:
 
1367
                # one or more of the groups in mapping will have a non-None
 
1368
                # group match.
 
1369
                groups = match.groups()
 
1370
                rules = [mapping[group] for group in 
 
1371
                    mapping if groups[group] is not None]
 
1372
                return rules[0]
 
1373
        return None
1012
1374
 
1013
1375
    def kind(self, file_id):
1014
1376
        return file_kind(self.id2abspath(file_id))
1015
1377
 
1016
 
    @needs_read_lock
1017
1378
    def last_revision(self):
1018
 
        """Return the last revision id of this working tree.
1019
 
 
1020
 
        In early branch formats this was == the branch last_revision,
1021
 
        but that cannot be relied upon - for working tree operations,
1022
 
        always use tree.last_revision().
 
1379
        """Return the last revision of the branch for this tree.
 
1380
 
 
1381
        This format tree does not support a separate marker for last-revision
 
1382
        compared to the branch.
 
1383
 
 
1384
        See MutableTree.last_revision
1023
1385
        """
 
1386
        return self._last_revision()
 
1387
 
 
1388
    @needs_read_lock
 
1389
    def _last_revision(self):
 
1390
        """helper for get_parent_ids."""
1024
1391
        return self.branch.last_revision()
1025
1392
 
 
1393
    def is_locked(self):
 
1394
        return self._control_files.is_locked()
 
1395
 
1026
1396
    def lock_read(self):
1027
1397
        """See Branch.lock_read, and WorkingTree.unlock."""
1028
1398
        self.branch.lock_read()
1032
1402
            self.branch.unlock()
1033
1403
            raise
1034
1404
 
 
1405
    def lock_tree_write(self):
 
1406
        """See MutableTree.lock_tree_write, and WorkingTree.unlock."""
 
1407
        self.branch.lock_read()
 
1408
        try:
 
1409
            return self._control_files.lock_write()
 
1410
        except:
 
1411
            self.branch.unlock()
 
1412
            raise
 
1413
 
1035
1414
    def lock_write(self):
1036
 
        """See Branch.lock_write, and WorkingTree.unlock."""
 
1415
        """See MutableTree.lock_write, and WorkingTree.unlock."""
1037
1416
        self.branch.lock_write()
1038
1417
        try:
1039
1418
            return self._control_files.lock_write()
1041
1420
            self.branch.unlock()
1042
1421
            raise
1043
1422
 
 
1423
    def get_physical_lock_status(self):
 
1424
        return self._control_files.get_physical_lock_status()
 
1425
 
1044
1426
    def _basis_inventory_name(self):
1045
 
        return 'basis-inventory'
 
1427
        return 'basis-inventory-cache'
1046
1428
 
1047
 
    @needs_write_lock
 
1429
    @needs_tree_write_lock
1048
1430
    def set_last_revision(self, new_revision):
1049
1431
        """Change the last revision in the working tree."""
1050
1432
        if self._change_last_revision(new_revision):
1059
1441
        if new_revision is None:
1060
1442
            self.branch.set_revision_history([])
1061
1443
            return False
1062
 
        # current format is locked in with the branch
1063
 
        revision_history = self.branch.revision_history()
1064
1444
        try:
1065
 
            position = revision_history.index(new_revision)
1066
 
        except ValueError:
1067
 
            raise errors.NoSuchRevision(self.branch, new_revision)
1068
 
        self.branch.set_revision_history(revision_history[:position + 1])
 
1445
            self.branch.generate_revision_history(new_revision)
 
1446
        except errors.NoSuchRevision:
 
1447
            # not present in the repo - dont try to set it deeper than the tip
 
1448
            self.branch.set_revision_history([new_revision])
1069
1449
        return True
1070
1450
 
 
1451
    def _write_basis_inventory(self, xml):
 
1452
        """Write the basis inventory XML to the basis-inventory file"""
 
1453
        assert isinstance(xml, str), 'serialised xml must be bytestring.'
 
1454
        path = self._basis_inventory_name()
 
1455
        sio = StringIO(xml)
 
1456
        self._control_files.put(path, sio)
 
1457
 
 
1458
    def _create_basis_xml_from_inventory(self, revision_id, inventory):
 
1459
        """Create the text that will be saved in basis-inventory"""
 
1460
        inventory.revision_id = revision_id
 
1461
        return bzrlib.xml6.serializer_v6.write_inventory_to_string(inventory)
 
1462
 
1071
1463
    def _cache_basis_inventory(self, new_revision):
1072
1464
        """Cache new_revision as the basis inventory."""
 
1465
        # TODO: this should allow the ready-to-use inventory to be passed in,
 
1466
        # as commit already has that ready-to-use [while the format is the
 
1467
        # same, that is].
1073
1468
        try:
1074
1469
            # this double handles the inventory - unpack and repack - 
1075
1470
            # but is easier to understand. We can/should put a conditional
1076
1471
            # in here based on whether the inventory is in the latest format
1077
1472
            # - perhaps we should repack all inventories on a repository
1078
1473
            # upgrade ?
1079
 
            inv = self.branch.repository.get_inventory(new_revision)
1080
 
            inv.revision_id = new_revision
1081
 
            xml = bzrlib.xml5.serializer_v5.write_inventory_to_string(inv)
1082
 
 
1083
 
            path = self._basis_inventory_name()
1084
 
            self._control_files.put_utf8(path, xml)
1085
 
        except WeaveRevisionNotPresent:
 
1474
            # the fast path is to copy the raw xml from the repository. If the
 
1475
            # xml contains 'revision_id="', then we assume the right 
 
1476
            # revision_id is set. We must check for this full string, because a
 
1477
            # root node id can legitimately look like 'revision_id' but cannot
 
1478
            # contain a '"'.
 
1479
            xml = self.branch.repository.get_inventory_xml(new_revision)
 
1480
            firstline = xml.split('\n', 1)[0]
 
1481
            if (not 'revision_id="' in firstline or 
 
1482
                'format="6"' not in firstline):
 
1483
                inv = self.branch.repository.deserialise_inventory(
 
1484
                    new_revision, xml)
 
1485
                xml = self._create_basis_xml_from_inventory(new_revision, inv)
 
1486
            self._write_basis_inventory(xml)
 
1487
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1086
1488
            pass
1087
1489
 
1088
1490
    def read_basis_inventory(self):
1089
1491
        """Read the cached basis inventory."""
1090
1492
        path = self._basis_inventory_name()
1091
 
        return self._control_files.get_utf8(path).read()
 
1493
        return self._control_files.get(path).read()
1092
1494
        
1093
1495
    @needs_read_lock
1094
1496
    def read_working_inventory(self):
1095
 
        """Read the working inventory."""
 
1497
        """Read the working inventory.
 
1498
        
 
1499
        :raises errors.InventoryModified: When the current in memory
 
1500
            inventory has been modified, read_working_inventory will
 
1501
            fail.
 
1502
        """
 
1503
        # conceptually this should be an implementation detail of the tree. 
 
1504
        # XXX: Deprecate this.
1096
1505
        # ElementTree does its own conversion from UTF-8, so open in
1097
1506
        # binary.
 
1507
        if self._inventory_is_modified:
 
1508
            raise errors.InventoryModified(self)
1098
1509
        result = bzrlib.xml5.serializer_v5.read_inventory(
1099
1510
            self._control_files.get('inventory'))
1100
 
        self._set_inventory(result)
 
1511
        self._set_inventory(result, dirty=False)
1101
1512
        return result
1102
1513
 
1103
 
    @needs_write_lock
1104
 
    def remove(self, files, verbose=False):
 
1514
    @needs_tree_write_lock
 
1515
    def remove(self, files, verbose=False, to_file=None):
1105
1516
        """Remove nominated files from the working inventory..
1106
1517
 
1107
1518
        This does not remove their text.  This does not run on XXX on what? RBC
1129
1540
                # TODO: Perhaps make this just a warning, and continue?
1130
1541
                # This tends to happen when 
1131
1542
                raise NotVersionedError(path=f)
1132
 
            mutter("remove inventory entry %s {%s}", quotefn(f), fid)
1133
1543
            if verbose:
1134
1544
                # having remove it, it must be either ignored or unknown
1135
1545
                if self.is_ignored(f):
1136
1546
                    new_status = 'I'
1137
1547
                else:
1138
1548
                    new_status = '?'
1139
 
                show_status(new_status, inv[fid].kind, quotefn(f))
 
1549
                show_status(new_status, inv[fid].kind, f, to_file=to_file)
1140
1550
            del inv[fid]
1141
1551
 
1142
1552
        self._write_inventory(inv)
1143
1553
 
1144
 
    @needs_write_lock
 
1554
    @needs_tree_write_lock
1145
1555
    def revert(self, filenames, old_tree=None, backups=True, 
1146
1556
               pb=DummyProgress()):
1147
1557
        from transform import revert
1150
1560
            old_tree = self.basis_tree()
1151
1561
        conflicts = revert(self, old_tree, filenames, backups, pb)
1152
1562
        if not len(filenames):
1153
 
            self.set_pending_merges([])
 
1563
            self.set_parent_ids(self.get_parent_ids()[:1])
1154
1564
            resolve(self)
1155
1565
        else:
1156
1566
            resolve(self, filenames, ignore_misses=True)
1157
1567
        return conflicts
1158
1568
 
 
1569
    def revision_tree(self, revision_id):
 
1570
        """See Tree.revision_tree.
 
1571
 
 
1572
        WorkingTree can supply revision_trees for the basis revision only
 
1573
        because there is only one cached inventory in the bzr directory.
 
1574
        """
 
1575
        if revision_id == self.last_revision():
 
1576
            try:
 
1577
                xml = self.read_basis_inventory()
 
1578
            except NoSuchFile:
 
1579
                pass
 
1580
            else:
 
1581
                try:
 
1582
                    inv = bzrlib.xml6.serializer_v6.read_inventory_from_string(xml)
 
1583
                    # dont use the repository revision_tree api because we want
 
1584
                    # to supply the inventory.
 
1585
                    if inv.revision_id == revision_id:
 
1586
                        return bzrlib.tree.RevisionTree(self.branch.repository,
 
1587
                            inv, revision_id)
 
1588
                except errors.BadInventoryFormat:
 
1589
                    pass
 
1590
        # raise if there was no inventory, or if we read the wrong inventory.
 
1591
        raise errors.NoSuchRevisionInTree(self, revision_id)
 
1592
 
1159
1593
    # XXX: This method should be deprecated in favour of taking in a proper
1160
1594
    # new Inventory object.
1161
 
    @needs_write_lock
 
1595
    @needs_tree_write_lock
1162
1596
    def set_inventory(self, new_inventory_list):
1163
1597
        from bzrlib.inventory import (Inventory,
1164
1598
                                      InventoryDirectory,
1181
1615
                raise BzrError("unknown kind %r" % kind)
1182
1616
        self._write_inventory(inv)
1183
1617
 
1184
 
    @needs_write_lock
 
1618
    @needs_tree_write_lock
1185
1619
    def set_root_id(self, file_id):
1186
1620
        """Set the root id for this tree."""
1187
 
        inv = self.read_working_inventory()
 
1621
        # for compatability 
 
1622
        if file_id is None:
 
1623
            symbol_versioning.warn(symbol_versioning.zero_twelve
 
1624
                % 'WorkingTree.set_root_id with fileid=None',
 
1625
                DeprecationWarning,
 
1626
                stacklevel=3)
 
1627
            file_id = ROOT_ID
 
1628
        inv = self._inventory
1188
1629
        orig_root_id = inv.root.file_id
 
1630
        # TODO: it might be nice to exit early if there was nothing
 
1631
        # to do, saving us from trigger a sync on unlock.
 
1632
        self._inventory_is_modified = True
 
1633
        # we preserve the root inventory entry object, but
 
1634
        # unlinkit from the byid index
1189
1635
        del inv._byid[inv.root.file_id]
1190
1636
        inv.root.file_id = file_id
 
1637
        # and link it into the index with the new changed id.
1191
1638
        inv._byid[inv.root.file_id] = inv.root
 
1639
        # and finally update all children to reference the new id.
 
1640
        # XXX: this should be safe to just look at the root.children
 
1641
        # list, not the WHOLE INVENTORY.
1192
1642
        for fid in inv:
1193
1643
            entry = inv[fid]
1194
1644
            if entry.parent_id == orig_root_id:
1195
1645
                entry.parent_id = inv.root.file_id
1196
 
        self._write_inventory(inv)
1197
1646
 
1198
1647
    def unlock(self):
1199
1648
        """See Branch.unlock.
1204
1653
        between multiple working trees, i.e. via shared storage, then we 
1205
1654
        would probably want to lock both the local tree, and the branch.
1206
1655
        """
1207
 
        # FIXME: We want to write out the hashcache only when the last lock on
1208
 
        # this working copy is released.  Peeking at the lock count is a bit
1209
 
        # of a nasty hack; probably it's better to have a transaction object,
1210
 
        # which can do some finalization when it's either successfully or
1211
 
        # unsuccessfully completed.  (Denys's original patch did that.)
1212
 
        # RBC 20060206 hookinhg into transaction will couple lock and transaction
1213
 
        # wrongly. Hookinh into unllock on the control files object is fine though.
1214
 
        
1215
 
        # TODO: split this per format so there is no ugly if block
1216
 
        if self._hashcache.needs_write and (
1217
 
            # dedicated lock files
1218
 
            self._control_files._lock_count==1 or 
1219
 
            # shared lock files
1220
 
            (self._control_files is self.branch.control_files and 
1221
 
             self._control_files._lock_count==3)):
1222
 
            self._hashcache.write()
1223
 
        # reverse order of locking.
1224
 
        result = self._control_files.unlock()
1225
 
        try:
1226
 
            self.branch.unlock()
1227
 
        finally:
1228
 
            return result
 
1656
        raise NotImplementedError(self.unlock)
1229
1657
 
1230
1658
    @needs_write_lock
1231
1659
    def update(self):
1248
1676
        Do a 'normal' merge of the old branch basis if it is relevant.
1249
1677
        """
1250
1678
        old_tip = self.branch.update()
1251
 
        if old_tip is not None:
1252
 
            self.add_pending_merge(old_tip)
1253
 
        self.branch.lock_read()
 
1679
        # here if old_tip is not None, it is the old tip of the branch before
 
1680
        # it was updated from the master branch. This should become a pending
 
1681
        # merge in the working tree to preserve the user existing work.  we
 
1682
        # cant set that until we update the working trees last revision to be
 
1683
        # one from the new branch, because it will just get absorbed by the
 
1684
        # parent de-duplication logic.
 
1685
        # 
 
1686
        # We MUST save it even if an error occurs, because otherwise the users
 
1687
        # local work is unreferenced and will appear to have been lost.
 
1688
        # 
 
1689
        result = 0
1254
1690
        try:
1255
 
            result = 0
1256
 
            if self.last_revision() != self.branch.last_revision():
1257
 
                # merge tree state up to new branch tip.
1258
 
                basis = self.basis_tree()
1259
 
                to_tree = self.branch.basis_tree()
1260
 
                result += merge_inner(self.branch,
1261
 
                                      to_tree,
1262
 
                                      basis,
1263
 
                                      this_tree=self)
1264
 
                self.set_last_revision(self.branch.last_revision())
1265
 
            if old_tip and old_tip != self.last_revision():
1266
 
                # our last revision was not the prior branch last reivison
1267
 
                # and we have converted that last revision to a pending merge.
1268
 
                # base is somewhere between the branch tip now
1269
 
                # and the now pending merge
1270
 
                from bzrlib.revision import common_ancestor
1271
 
                try:
1272
 
                    base_rev_id = common_ancestor(self.branch.last_revision(),
1273
 
                                                  old_tip,
1274
 
                                                  self.branch.repository)
1275
 
                except errors.NoCommonAncestor:
1276
 
                    base_rev_id = None
1277
 
                base_tree = self.branch.repository.revision_tree(base_rev_id)
1278
 
                other_tree = self.branch.repository.revision_tree(old_tip)
1279
 
                result += merge_inner(self.branch,
1280
 
                                      other_tree,
1281
 
                                      base_tree,
1282
 
                                      this_tree=self)
1283
 
            return result
1284
 
        finally:
1285
 
            self.branch.unlock()
 
1691
            last_rev = self.get_parent_ids()[0]
 
1692
        except IndexError:
 
1693
            last_rev = None
 
1694
        if last_rev != self.branch.last_revision():
 
1695
            # merge tree state up to new branch tip.
 
1696
            basis = self.basis_tree()
 
1697
            to_tree = self.branch.basis_tree()
 
1698
            result += merge_inner(self.branch,
 
1699
                                  to_tree,
 
1700
                                  basis,
 
1701
                                  this_tree=self)
 
1702
            # TODO - dedup parents list with things merged by pull ?
 
1703
            # reuse the tree we've updated to to set the basis:
 
1704
            parent_trees = [(self.branch.last_revision(), to_tree)]
 
1705
            merges = self.get_parent_ids()[1:]
 
1706
            # Ideally we ask the tree for the trees here, that way the working
 
1707
            # tree can decide whether to give us teh entire tree or give us a
 
1708
            # lazy initialised tree. dirstate for instance will have the trees
 
1709
            # in ram already, whereas a last-revision + basis-inventory tree
 
1710
            # will not, but also does not need them when setting parents.
 
1711
            for parent in merges:
 
1712
                parent_trees.append(
 
1713
                    (parent, self.branch.repository.revision_tree(parent)))
 
1714
            if old_tip is not None:
 
1715
                parent_trees.append(
 
1716
                    (old_tip, self.branch.repository.revision_tree(old_tip)))
 
1717
            self.set_parent_trees(parent_trees)
 
1718
            last_rev = parent_trees[0][0]
 
1719
        else:
 
1720
            # the working tree had the same last-revision as the master
 
1721
            # branch did. We may still have pivot local work from the local
 
1722
            # branch into old_tip:
 
1723
            if old_tip is not None:
 
1724
                self.add_parent_tree_id(old_tip)
 
1725
        if old_tip and old_tip != last_rev:
 
1726
            # our last revision was not the prior branch last revision
 
1727
            # and we have converted that last revision to a pending merge.
 
1728
            # base is somewhere between the branch tip now
 
1729
            # and the now pending merge
 
1730
            from bzrlib.revision import common_ancestor
 
1731
            try:
 
1732
                base_rev_id = common_ancestor(self.branch.last_revision(),
 
1733
                                              old_tip,
 
1734
                                              self.branch.repository)
 
1735
            except errors.NoCommonAncestor:
 
1736
                base_rev_id = None
 
1737
            base_tree = self.branch.repository.revision_tree(base_rev_id)
 
1738
            other_tree = self.branch.repository.revision_tree(old_tip)
 
1739
            result += merge_inner(self.branch,
 
1740
                                  other_tree,
 
1741
                                  base_tree,
 
1742
                                  this_tree=self)
 
1743
        return result
1286
1744
 
1287
 
    @needs_write_lock
 
1745
    @needs_tree_write_lock
1288
1746
    def _write_inventory(self, inv):
1289
1747
        """Write inventory as the current inventory."""
1290
 
        sio = StringIO()
1291
 
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
1292
 
        sio.seek(0)
1293
 
        self._control_files.put('inventory', sio)
1294
 
        self._set_inventory(inv)
1295
 
        mutter('wrote working inventory')
 
1748
        self._set_inventory(inv, dirty=True)
 
1749
        self.flush()
1296
1750
 
1297
1751
    def set_conflicts(self, arg):
1298
1752
        raise UnsupportedOperation(self.set_conflicts, self)
1299
1753
 
 
1754
    def add_conflicts(self, arg):
 
1755
        raise UnsupportedOperation(self.add_conflicts, self)
 
1756
 
1300
1757
    @needs_read_lock
1301
1758
    def conflicts(self):
1302
1759
        conflicts = ConflictList()
1305
1762
            try:
1306
1763
                if file_kind(self.abspath(conflicted)) != "file":
1307
1764
                    text = False
1308
 
            except OSError, e:
1309
 
                if e.errno == errno.ENOENT:
1310
 
                    text = False
1311
 
                else:
1312
 
                    raise
 
1765
            except errors.NoSuchFile:
 
1766
                text = False
1313
1767
            if text is True:
1314
1768
                for suffix in ('.THIS', '.OTHER'):
1315
1769
                    try:
1316
1770
                        kind = file_kind(self.abspath(conflicted+suffix))
1317
 
                    except OSError, e:
1318
 
                        if e.errno == errno.ENOENT:
 
1771
                        if kind != "file":
1319
1772
                            text = False
1320
 
                            break
1321
 
                        else:
1322
 
                            raise
1323
 
                    if kind != "file":
 
1773
                    except errors.NoSuchFile:
1324
1774
                        text = False
 
1775
                    if text == False:
1325
1776
                        break
1326
1777
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
1327
1778
            conflicts.append(Conflict.factory(ctype, path=conflicted,
1329
1780
        return conflicts
1330
1781
 
1331
1782
 
 
1783
class WorkingTree2(WorkingTree):
 
1784
    """This is the Format 2 working tree.
 
1785
 
 
1786
    This was the first weave based working tree. 
 
1787
     - uses os locks for locking.
 
1788
     - uses the branch last-revision.
 
1789
    """
 
1790
 
 
1791
    def lock_tree_write(self):
 
1792
        """See WorkingTree.lock_tree_write().
 
1793
 
 
1794
        In Format2 WorkingTrees we have a single lock for the branch and tree
 
1795
        so lock_tree_write() degrades to lock_write().
 
1796
        """
 
1797
        self.branch.lock_write()
 
1798
        try:
 
1799
            return self._control_files.lock_write()
 
1800
        except:
 
1801
            self.branch.unlock()
 
1802
            raise
 
1803
 
 
1804
    def unlock(self):
 
1805
        # we share control files:
 
1806
        if self._control_files._lock_count == 3:
 
1807
            # _inventory_is_modified is always False during a read lock.
 
1808
            if self._inventory_is_modified:
 
1809
                self.flush()
 
1810
            if self._hashcache.needs_write:
 
1811
                self._hashcache.write()
 
1812
        # reverse order of locking.
 
1813
        try:
 
1814
            return self._control_files.unlock()
 
1815
        finally:
 
1816
            self.branch.unlock()
 
1817
 
 
1818
 
1332
1819
class WorkingTree3(WorkingTree):
1333
1820
    """This is the Format 3 working tree.
1334
1821
 
1340
1827
    """
1341
1828
 
1342
1829
    @needs_read_lock
1343
 
    def last_revision(self):
1344
 
        """See WorkingTree.last_revision."""
 
1830
    def _last_revision(self):
 
1831
        """See Mutable.last_revision."""
1345
1832
        try:
1346
1833
            return self._control_files.get_utf8('last-revision').read()
1347
1834
        except NoSuchFile:
1356
1843
                pass
1357
1844
            return False
1358
1845
        else:
1359
 
            try:
1360
 
                self.branch.revision_history().index(revision_id)
1361
 
            except ValueError:
1362
 
                raise errors.NoSuchRevision(self.branch, revision_id)
1363
1846
            self._control_files.put_utf8('last-revision', revision_id)
1364
1847
            return True
1365
1848
 
1366
 
    @needs_write_lock
 
1849
    @needs_tree_write_lock
1367
1850
    def set_conflicts(self, conflicts):
1368
1851
        self._put_rio('conflicts', conflicts.to_stanzas(), 
1369
1852
                      CONFLICT_HEADER_1)
1370
1853
 
 
1854
    @needs_tree_write_lock
 
1855
    def add_conflicts(self, new_conflicts):
 
1856
        conflict_set = set(self.conflicts())
 
1857
        conflict_set.update(set(list(new_conflicts)))
 
1858
        self.set_conflicts(ConflictList(sorted(conflict_set,
 
1859
                                               key=Conflict.sort_key)))
 
1860
 
1371
1861
    @needs_read_lock
1372
1862
    def conflicts(self):
1373
1863
        try:
1381
1871
            raise ConflictFormatError()
1382
1872
        return ConflictList.from_stanzas(RioReader(confile))
1383
1873
 
 
1874
    def unlock(self):
 
1875
        if self._control_files._lock_count == 1:
 
1876
            # _inventory_is_modified is always False during a read lock.
 
1877
            if self._inventory_is_modified:
 
1878
                self.flush()
 
1879
            if self._hashcache.needs_write:
 
1880
                self._hashcache.write()
 
1881
        # reverse order of locking.
 
1882
        try:
 
1883
            return self._control_files.unlock()
 
1884
        finally:
 
1885
            self.branch.unlock()
 
1886
 
1384
1887
 
1385
1888
def get_conflicted_stem(path):
1386
1889
    for suffix in CONFLICT_SUFFIXES:
1437
1940
        except NoSuchFile:
1438
1941
            raise errors.NoWorkingTree(base=transport.base)
1439
1942
        except KeyError:
1440
 
            raise errors.UnknownFormatError(format_string)
 
1943
            raise errors.UnknownFormatError(format=format_string)
1441
1944
 
1442
1945
    @classmethod
1443
1946
    def get_default_format(klass):
1486
1989
        """See WorkingTreeFormat.get_format_description()."""
1487
1990
        return "Working tree format 2"
1488
1991
 
 
1992
    def stub_initialize_remote(self, control_files):
 
1993
        """As a special workaround create critical control files for a remote working tree
 
1994
        
 
1995
        This ensures that it can later be updated and dealt with locally,
 
1996
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
 
1997
        no working tree.  (See bug #43064).
 
1998
        """
 
1999
        sio = StringIO()
 
2000
        inv = Inventory()
 
2001
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
 
2002
        sio.seek(0)
 
2003
        control_files.put('inventory', sio)
 
2004
 
 
2005
        control_files.put_utf8('pending-merges', '')
 
2006
        
 
2007
 
1489
2008
    def initialize(self, a_bzrdir, revision_id=None):
1490
2009
        """See WorkingTreeFormat.initialize()."""
1491
2010
        if not isinstance(a_bzrdir.transport, LocalTransport):
1503
2022
            finally:
1504
2023
                branch.unlock()
1505
2024
        revision = branch.last_revision()
1506
 
        inv = Inventory() 
1507
 
        wt = WorkingTree(a_bzrdir.root_transport.base,
 
2025
        inv = Inventory()
 
2026
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1508
2027
                         branch,
1509
2028
                         inv,
1510
2029
                         _internal=True,
1511
2030
                         _format=self,
1512
2031
                         _bzrdir=a_bzrdir)
1513
 
        wt._write_inventory(inv)
1514
2032
        wt.set_root_id(inv.root.file_id)
1515
 
        wt.set_last_revision(revision)
1516
 
        wt.set_pending_merges([])
1517
 
        build_tree(wt.basis_tree(), wt)
 
2033
        basis_tree = branch.repository.revision_tree(revision)
 
2034
        wt.set_parent_trees([(revision, basis_tree)])
 
2035
        build_tree(basis_tree, wt)
1518
2036
        return wt
1519
2037
 
1520
2038
    def __init__(self):
1532
2050
            raise NotImplementedError
1533
2051
        if not isinstance(a_bzrdir.transport, LocalTransport):
1534
2052
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1535
 
        return WorkingTree(a_bzrdir.root_transport.base,
 
2053
        return WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1536
2054
                           _internal=True,
1537
2055
                           _format=self,
1538
2056
                           _bzrdir=a_bzrdir)
1547
2065
          files, separate from the BzrDir format
1548
2066
        - modifies the hash cache format
1549
2067
        - is new in bzr 0.8
1550
 
        - uses a LockDir to guard access to the repository
 
2068
        - uses a LockDir to guard access for writes.
1551
2069
    """
1552
2070
 
1553
2071
    def get_format_string(self):
1569
2087
    def initialize(self, a_bzrdir, revision_id=None):
1570
2088
        """See WorkingTreeFormat.initialize().
1571
2089
        
1572
 
        revision_id allows creating a working tree at a differnet
 
2090
        revision_id allows creating a working tree at a different
1573
2091
        revision than the branch is at.
1574
2092
        """
1575
2093
        if not isinstance(a_bzrdir.transport, LocalTransport):
1577
2095
        transport = a_bzrdir.get_workingtree_transport(self)
1578
2096
        control_files = self._open_control_files(a_bzrdir)
1579
2097
        control_files.create_lock()
 
2098
        control_files.lock_write()
1580
2099
        control_files.put_utf8('format', self.get_format_string())
1581
2100
        branch = a_bzrdir.open_branch()
1582
2101
        if revision_id is None:
1583
2102
            revision_id = branch.last_revision()
1584
 
        inv = Inventory() 
1585
 
        wt = WorkingTree3(a_bzrdir.root_transport.base,
 
2103
        inv = Inventory()
 
2104
        wt = WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
1586
2105
                         branch,
1587
2106
                         inv,
1588
2107
                         _internal=True,
1589
2108
                         _format=self,
1590
2109
                         _bzrdir=a_bzrdir,
1591
2110
                         _control_files=control_files)
1592
 
        wt._write_inventory(inv)
1593
 
        wt.set_root_id(inv.root.file_id)
1594
 
        wt.set_last_revision(revision_id)
1595
 
        wt.set_pending_merges([])
1596
 
        build_tree(wt.basis_tree(), wt)
 
2111
        wt.lock_tree_write()
 
2112
        try:
 
2113
            wt.set_root_id(inv.root.file_id)
 
2114
            basis_tree = branch.repository.revision_tree(revision_id)
 
2115
            if revision_id == bzrlib.revision.NULL_REVISION:
 
2116
                wt.set_parent_trees([])
 
2117
            else:
 
2118
                wt.set_parent_trees([(revision_id, basis_tree)])
 
2119
            build_tree(basis_tree, wt)
 
2120
        finally:
 
2121
            # unlock in this order so that the unlock-triggers-flush in
 
2122
            # WorkingTree is given a chance to fire.
 
2123
            control_files.unlock()
 
2124
            wt.unlock()
1597
2125
        return wt
1598
2126
 
1599
2127
    def __init__(self):
1611
2139
            raise NotImplementedError
1612
2140
        if not isinstance(a_bzrdir.transport, LocalTransport):
1613
2141
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1614
 
        control_files = self._open_control_files(a_bzrdir)
1615
 
        return WorkingTree3(a_bzrdir.root_transport.base,
 
2142
        return self._open(a_bzrdir, self._open_control_files(a_bzrdir))
 
2143
 
 
2144
    def _open(self, a_bzrdir, control_files):
 
2145
        """Open the tree itself.
 
2146
        
 
2147
        :param a_bzrdir: the dir for the tree.
 
2148
        :param control_files: the control files for the tree.
 
2149
        """
 
2150
        return WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
1616
2151
                           _internal=True,
1617
2152
                           _format=self,
1618
2153
                           _bzrdir=a_bzrdir,
1645
2180
        self._transport_readonly_server = transport_readonly_server
1646
2181
        self._formats = formats
1647
2182
    
 
2183
    def _clone_test(self, test, bzrdir_format, workingtree_format, variation):
 
2184
        """Clone test for adaption."""
 
2185
        new_test = deepcopy(test)
 
2186
        new_test.transport_server = self._transport_server
 
2187
        new_test.transport_readonly_server = self._transport_readonly_server
 
2188
        new_test.bzrdir_format = bzrdir_format
 
2189
        new_test.workingtree_format = workingtree_format
 
2190
        def make_new_test_id():
 
2191
            new_id = "%s(%s)" % (test.id(), variation)
 
2192
            return lambda: new_id
 
2193
        new_test.id = make_new_test_id()
 
2194
        return new_test
 
2195
    
1648
2196
    def adapt(self, test):
1649
2197
        from bzrlib.tests import TestSuite
1650
2198
        result = TestSuite()
1651
2199
        for workingtree_format, bzrdir_format in self._formats:
1652
 
            new_test = deepcopy(test)
1653
 
            new_test.transport_server = self._transport_server
1654
 
            new_test.transport_readonly_server = self._transport_readonly_server
1655
 
            new_test.bzrdir_format = bzrdir_format
1656
 
            new_test.workingtree_format = workingtree_format
1657
 
            def make_new_test_id():
1658
 
                new_id = "%s(%s)" % (new_test.id(), workingtree_format.__class__.__name__)
1659
 
                return lambda: new_id
1660
 
            new_test.id = make_new_test_id()
 
2200
            new_test = self._clone_test(
 
2201
                test,
 
2202
                bzrdir_format,
 
2203
                workingtree_format, workingtree_format.__class__.__name__)
1661
2204
            result.addTest(new_test)
1662
2205
        return result