/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/workingtree.py

  • Committer: Robert Collins
  • Date: 2006-08-11 05:28:55 UTC
  • mto: (1908.6.4 use set_parent_trees.)
  • mto: This revision was merged to the branch mainline in revision 1972.
  • Revision ID: robertc@robertcollins.net-20060811052855-d3622775878f20db
Add add_parent_tree to WorkingTree.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
1
# Copyright (C) 2005, 2006 Canonical Ltd
2
 
 
 
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
5
5
# the Free Software Foundation; either version 2 of the License, or
6
6
# (at your option) any later version.
7
 
 
 
7
#
8
8
# This program is distributed in the hope that it will be useful,
9
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
10
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11
11
# GNU General Public License for more details.
12
 
 
 
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
39
39
# At the moment they may alias the inventory and have old copies of it in
40
40
# memory.  (Now done? -- mbp 20060309)
41
41
 
 
42
from binascii import hexlify
 
43
import collections
42
44
from copy import deepcopy
43
45
from cStringIO import StringIO
44
46
import errno
45
47
import fnmatch
46
48
import os
 
49
import re
47
50
import stat
48
 
 
 
51
from time import time
 
52
import warnings
49
53
 
 
54
import bzrlib
 
55
from bzrlib import bzrdir, errors, ignores, osutils, urlutils
50
56
from bzrlib.atomicfile import AtomicFile
51
 
from bzrlib.branch import (Branch,
52
 
                           quotefn)
 
57
import bzrlib.branch
53
58
from bzrlib.conflicts import Conflict, ConflictList, CONFLICT_SUFFIXES
54
 
import bzrlib.bzrdir as bzrdir
55
59
from bzrlib.decorators import needs_read_lock, needs_write_lock
56
 
import bzrlib.errors as errors
57
60
from bzrlib.errors import (BzrCheckError,
58
61
                           BzrError,
59
62
                           ConflictFormatError,
60
 
                           DivergedBranches,
61
63
                           WeaveRevisionNotPresent,
62
64
                           NotBranchError,
63
65
                           NoSuchFile,
71
73
from bzrlib.merge import merge_inner, transform_tree
72
74
from bzrlib.osutils import (
73
75
                            abspath,
74
 
                            appendpath,
75
76
                            compact_date,
76
77
                            file_kind,
77
78
                            isdir,
80
81
                            pumpfile,
81
82
                            safe_unicode,
82
83
                            splitpath,
83
 
                            rand_bytes,
 
84
                            rand_chars,
84
85
                            normpath,
85
86
                            realpath,
86
87
                            relpath,
90
91
from bzrlib.progress import DummyProgress, ProgressPhase
91
92
from bzrlib.revision import NULL_REVISION
92
93
from bzrlib.rio import RioReader, rio_file, Stanza
93
 
from bzrlib.symbol_versioning import *
94
 
from bzrlib.textui import show_status
95
 
import bzrlib.tree
 
94
from bzrlib.symbol_versioning import (deprecated_passed,
 
95
        deprecated_method,
 
96
        deprecated_function,
 
97
        DEPRECATED_PARAMETER,
 
98
        zero_eight,
 
99
        )
 
100
from bzrlib.trace import mutter, note
96
101
from bzrlib.transform import build_tree
97
 
from bzrlib.trace import mutter, note
98
102
from bzrlib.transport import get_transport
99
103
from bzrlib.transport.local import LocalTransport
 
104
from bzrlib.textui import show_status
 
105
import bzrlib.tree
100
106
import bzrlib.ui
101
107
import bzrlib.xml5
102
108
 
103
109
 
 
110
# the regex removes any weird characters; we don't escape them 
 
111
# but rather just pull them out
 
112
_gen_file_id_re = re.compile(r'[^\w.]')
 
113
_gen_id_suffix = None
 
114
_gen_id_serial = 0
 
115
 
 
116
 
 
117
def _next_id_suffix():
 
118
    """Create a new file id suffix that is reasonably unique.
 
119
    
 
120
    On the first call we combine the current time with 64 bits of randomness
 
121
    to give a highly probably globally unique number. Then each call in the same
 
122
    process adds 1 to a serial number we append to that unique value.
 
123
    """
 
124
    # XXX TODO: change bzrlib.add.smart_add to call workingtree.add() rather 
 
125
    # than having to move the id randomness out of the inner loop like this.
 
126
    # XXX TODO: for the global randomness this uses we should add the thread-id
 
127
    # before the serial #.
 
128
    global _gen_id_suffix, _gen_id_serial
 
129
    if _gen_id_suffix is None:
 
130
        _gen_id_suffix = "-%s-%s-" % (compact_date(time()), rand_chars(16))
 
131
    _gen_id_serial += 1
 
132
    return _gen_id_suffix + str(_gen_id_serial)
 
133
 
 
134
 
104
135
def gen_file_id(name):
105
 
    """Return new file id.
106
 
 
107
 
    This should probably generate proper UUIDs, but for the moment we
108
 
    cope with just randomness because running uuidgen every time is
109
 
    slow."""
110
 
    import re
111
 
    from binascii import hexlify
112
 
    from time import time
113
 
 
114
 
    # get last component
115
 
    idx = name.rfind('/')
116
 
    if idx != -1:
117
 
        name = name[idx+1 : ]
118
 
    idx = name.rfind('\\')
119
 
    if idx != -1:
120
 
        name = name[idx+1 : ]
121
 
 
122
 
    # make it not a hidden file
123
 
    name = name.lstrip('.')
124
 
 
125
 
    # remove any wierd characters; we don't escape them but rather
126
 
    # just pull them out
127
 
    name = re.sub(r'[^\w.]', '', name)
128
 
 
129
 
    s = hexlify(rand_bytes(8))
130
 
    return '-'.join((name, compact_date(time()), s))
 
136
    """Return new file id for the basename 'name'.
 
137
 
 
138
    The uniqueness is supplied from _next_id_suffix.
 
139
    """
 
140
    # The real randomness is in the _next_id_suffix, the
 
141
    # rest of the identifier is just to be nice.
 
142
    # So we:
 
143
    # 1) Remove non-ascii word characters to keep the ids portable
 
144
    # 2) squash to lowercase, so the file id doesn't have to
 
145
    #    be escaped (case insensitive filesystems would bork for ids
 
146
    #    that only differred in case without escaping).
 
147
    # 3) truncate the filename to 20 chars. Long filenames also bork on some
 
148
    #    filesystems
 
149
    # 4) Removing starting '.' characters to prevent the file ids from
 
150
    #    being considered hidden.
 
151
    ascii_word_only = _gen_file_id_re.sub('', name.lower())
 
152
    short_no_dots = ascii_word_only.lstrip('.')[:20]
 
153
    return short_no_dots + _next_id_suffix()
131
154
 
132
155
 
133
156
def gen_root_id():
136
159
 
137
160
 
138
161
class TreeEntry(object):
139
 
    """An entry that implements the minium interface used by commands.
 
162
    """An entry that implements the minimum interface used by commands.
140
163
 
141
164
    This needs further inspection, it may be better to have 
142
165
    InventoryEntries without ids - though that seems wrong. For now,
218
241
        self.bzrdir = _bzrdir
219
242
        if not _internal:
220
243
            # not created via open etc.
221
 
            warn("WorkingTree() is deprecated as of bzr version 0.8. "
 
244
            warnings.warn("WorkingTree() is deprecated as of bzr version 0.8. "
222
245
                 "Please use bzrdir.open_workingtree or WorkingTree.open().",
223
246
                 DeprecationWarning,
224
247
                 stacklevel=2)
225
248
            wt = WorkingTree.open(basedir)
226
 
            self.branch = wt.branch
 
249
            self._branch = wt.branch
227
250
            self.basedir = wt.basedir
228
251
            self._control_files = wt._control_files
229
252
            self._hashcache = wt._hashcache
238
261
        mutter("opening working tree %r", basedir)
239
262
        if deprecated_passed(branch):
240
263
            if not _internal:
241
 
                warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
 
264
                warnings.warn("WorkingTree(..., branch=XXX) is deprecated as of bzr 0.8."
242
265
                     " Please use bzrdir.open_workingtree() or"
243
266
                     " WorkingTree.open().",
244
267
                     DeprecationWarning,
245
268
                     stacklevel=2
246
269
                     )
247
 
            self.branch = branch
 
270
            self._branch = branch
248
271
        else:
249
 
            self.branch = self.bzrdir.open_branch()
250
 
        assert isinstance(self.branch, Branch), \
251
 
            "branch %r is not a Branch" % self.branch
 
272
            self._branch = self.bzrdir.open_branch()
252
273
        self.basedir = realpath(basedir)
253
274
        # if branch is at our basedir and is a format 6 or less
254
275
        if isinstance(self._format, WorkingTreeFormat2):
255
276
            # share control object
256
277
            self._control_files = self.branch.control_files
257
278
        else:
258
 
            # only ready for format 3
259
 
            assert isinstance(self._format, WorkingTreeFormat3)
 
279
            # assume all other formats have their own control files.
260
280
            assert isinstance(_control_files, LockableFiles), \
261
281
                    "_control_files must be a LockableFiles, not %r" \
262
282
                    % _control_files
267
287
        # if needed, or, when the cache sees a change, append it to the hash
268
288
        # cache file, and have the parser take the most recent entry for a
269
289
        # given path only.
270
 
        cache_filename = self.bzrdir.get_workingtree_transport(None).abspath('stat-cache')
 
290
        cache_filename = self.bzrdir.get_workingtree_transport(None).local_abspath('stat-cache')
271
291
        hc = self._hashcache = HashCache(basedir, cache_filename, self._control_files._file_mode)
272
292
        hc.read()
273
293
        # is this scan needed ? it makes things kinda slow.
274
 
        hc.scan()
 
294
        #hc.scan()
275
295
 
276
296
        if hc.needs_write:
277
297
            mutter("write hc")
282
302
        else:
283
303
            self._set_inventory(_inventory)
284
304
 
 
305
    branch = property(
 
306
        fget=lambda self: self._branch,
 
307
        doc="""The branch this WorkingTree is connected to.
 
308
 
 
309
            This cannot be set - it is reflective of the actual disk structure
 
310
            the working tree has been constructed from.
 
311
            """)
 
312
 
 
313
    def break_lock(self):
 
314
        """Break a lock if one is present from another instance.
 
315
 
 
316
        Uses the ui factory to ask for confirmation if the lock may be from
 
317
        an active process.
 
318
 
 
319
        This will probe the repository for its lock as well.
 
320
        """
 
321
        self._control_files.break_lock()
 
322
        self.branch.break_lock()
 
323
 
285
324
    def _set_inventory(self, inv):
286
325
        self._inventory = inv
287
326
        self.path2id = self._inventory.path2id
289
328
    def is_control_filename(self, filename):
290
329
        """True if filename is the name of a control file in this tree.
291
330
        
 
331
        :param filename: A filename within the tree. This is a relative path
 
332
        from the root of this tree.
 
333
 
292
334
        This is true IF and ONLY IF the filename is part of the meta data
293
335
        that bzr controls in this tree. I.E. a random .bzr directory placed
294
336
        on disk will not be a control file for this tree.
295
337
        """
296
 
        try:
297
 
            self.bzrdir.transport.relpath(self.abspath(filename))
298
 
            return True
299
 
        except errors.PathNotChild:
300
 
            return False
 
338
        return self.bzrdir.is_control_filename(filename)
301
339
 
302
340
    @staticmethod
303
341
    def open(path=None, _unsupported=False):
319
357
        run into /.  If there isn't one, raises NotBranchError.
320
358
        TODO: give this a new exception.
321
359
        If there is one, it is returned, along with the unused portion of path.
 
360
 
 
361
        :return: The WorkingTree that contains 'path', and the rest of path
322
362
        """
323
363
        if path is None:
324
 
            path = os.getcwdu()
 
364
            path = osutils.getcwd()
325
365
        control, relpath = bzrdir.BzrDir.open_containing(path)
 
366
 
326
367
        return control.open_workingtree(), relpath
327
368
 
328
369
    @staticmethod
341
382
        """
342
383
        inv = self._inventory
343
384
        for path, ie in inv.iter_entries():
344
 
            if bzrlib.osutils.lexists(self.abspath(path)):
 
385
            if osutils.lexists(self.abspath(path)):
345
386
                yield ie.file_id
346
387
 
347
388
    def __repr__(self):
383
424
        XXX: When BzrDir is present, these should be created through that 
384
425
        interface instead.
385
426
        """
386
 
        warn('delete WorkingTree.create', stacklevel=3)
 
427
        warnings.warn('delete WorkingTree.create', stacklevel=3)
387
428
        transport = get_transport(directory)
388
429
        if branch.bzrdir.root_transport.base == transport.base:
389
430
            # same dir 
404
445
        """
405
446
        return bzrdir.BzrDir.create_standalone_workingtree(directory)
406
447
 
407
 
    def relpath(self, abs):
408
 
        """Return the local path portion from a given absolute path."""
409
 
        return relpath(self.basedir, abs)
 
448
    def relpath(self, path):
 
449
        """Return the local path portion from a given path.
 
450
        
 
451
        The path may be absolute or relative. If its a relative path it is 
 
452
        interpreted relative to the python current working directory.
 
453
        """
 
454
        return relpath(self.basedir, path)
410
455
 
411
456
    def has_filename(self, filename):
412
 
        return bzrlib.osutils.lexists(self.abspath(filename))
 
457
        return osutils.lexists(self.abspath(filename))
413
458
 
414
459
    def get_file(self, file_id):
415
460
        return self.get_file_byname(self.id2path(file_id))
416
461
 
 
462
    def get_file_text(self, file_id):
 
463
        return self.get_file(file_id).read()
 
464
 
417
465
    def get_file_byname(self, filename):
418
466
        return file(self.abspath(filename), 'rb')
419
467
 
 
468
    def get_parent_ids(self):
 
469
        """See Tree.get_parent_ids.
 
470
        
 
471
        This implementation reads the pending merges list and last_revision
 
472
        value and uses that to decide what the parents list should be.
 
473
        """
 
474
        last_rev = self.last_revision()
 
475
        if last_rev is None:
 
476
            parents = []
 
477
        else:
 
478
            parents = [last_rev]
 
479
        other_parents = self.pending_merges()
 
480
        return parents + other_parents
 
481
 
420
482
    def get_root_id(self):
421
483
        """Return the id of this trees root"""
422
484
        inv = self.read_working_inventory()
471
533
        # but with branch a kwarg now, passing in args as is results in the
472
534
        #message being used for the branch
473
535
        args = (DEPRECATED_PARAMETER, message, ) + args
474
 
        Commit().commit(working_tree=self, revprops=revprops, *args, **kwargs)
 
536
        committed_id = Commit().commit( working_tree=self, revprops=revprops,
 
537
            *args, **kwargs)
475
538
        self._set_inventory(self.read_working_inventory())
 
539
        return committed_id
476
540
 
477
541
    def id2abspath(self, file_id):
478
542
        return self.abspath(self.id2path(file_id))
483
547
        if not inv.has_id(file_id):
484
548
            return False
485
549
        path = inv.id2path(file_id)
486
 
        return bzrlib.osutils.lexists(self.abspath(path))
 
550
        return osutils.lexists(self.abspath(path))
487
551
 
488
552
    def has_or_had_id(self, file_id):
489
553
        if file_id == self.inventory.root.file_id:
496
560
        return os.path.getsize(self.id2abspath(file_id))
497
561
 
498
562
    @needs_read_lock
499
 
    def get_file_sha1(self, file_id):
500
 
        path = self._inventory.id2path(file_id)
 
563
    def get_file_sha1(self, file_id, path=None):
 
564
        if not path:
 
565
            path = self._inventory.id2path(file_id)
501
566
        return self._hashcache.get_sha1(path)
502
567
 
503
 
    def is_executable(self, file_id):
504
 
        if not supports_executable():
 
568
    def get_file_mtime(self, file_id, path=None):
 
569
        if not path:
 
570
            path = self._inventory.id2path(file_id)
 
571
        return os.lstat(self.abspath(path)).st_mtime
 
572
 
 
573
    if not supports_executable():
 
574
        def is_executable(self, file_id, path=None):
505
575
            return self._inventory[file_id].executable
506
 
        else:
507
 
            path = self._inventory.id2path(file_id)
 
576
    else:
 
577
        def is_executable(self, file_id, path=None):
 
578
            if not path:
 
579
                path = self._inventory.id2path(file_id)
508
580
            mode = os.lstat(self.abspath(path)).st_mode
509
 
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC&mode)
 
581
            return bool(stat.S_ISREG(mode) and stat.S_IEXEC & mode)
510
582
 
511
583
    @needs_write_lock
512
584
    def add(self, files, ids=None):
547
619
        inv = self.read_working_inventory()
548
620
        for f,file_id in zip(files, ids):
549
621
            if self.is_control_filename(f):
550
 
                raise BzrError("cannot add control file %s" % quotefn(f))
 
622
                raise errors.ForbiddenControlFileError(filename=f)
551
623
 
552
624
            fp = splitpath(f)
553
625
 
555
627
                raise BzrError("cannot add top-level %r" % f)
556
628
 
557
629
            fullpath = normpath(self.abspath(f))
558
 
 
559
630
            try:
560
631
                kind = file_kind(fullpath)
561
632
            except OSError, e:
562
633
                if e.errno == errno.ENOENT:
563
634
                    raise NoSuchFile(fullpath)
564
 
                # maybe something better?
565
 
                raise BzrError('cannot add: not a regular file, symlink or directory: %s' % quotefn(f))
566
 
 
567
635
            if not InventoryEntry.versionable_kind(kind):
568
 
                raise BzrError('cannot add: not a versionable file ('
569
 
                               'i.e. regular file, symlink or directory): %s' % quotefn(f))
570
 
 
 
636
                raise errors.BadFileKindError(filename=f, kind=kind)
571
637
            if file_id is None:
572
 
                file_id = gen_file_id(f)
573
 
            inv.add_path(f, kind=kind, file_id=file_id)
 
638
                inv.add_path(f, kind=kind)
 
639
            else:
 
640
                inv.add_path(f, kind=kind, file_id=file_id)
574
641
 
575
 
            mutter("add file %s file_id:{%s} kind=%r" % (f, file_id, kind))
576
642
        self._write_inventory(inv)
577
643
 
578
644
    @needs_write_lock
 
645
    def add_parent_tree_id(self, revision_id):
 
646
        """Add revision_id as a parent.
 
647
 
 
648
        This is equivalent to retrieving the current list of parent ids
 
649
        and setting the list to its value plus revision_id.
 
650
 
 
651
        :param revision_id: The revision id to add to the parent list. It may
 
652
        be a ghost revision.
 
653
        """
 
654
        self.set_parent_ids(self.get_parent_ids() + [revision_id])
 
655
 
 
656
    @needs_write_lock
 
657
    def add_parent_tree(self, parent_tuple):
 
658
        """Add revision_id, tree tuple as a parent.
 
659
 
 
660
        This is equivalent to retrieving the current list of parent trees
 
661
        and setting the list to its value plus parent_tuple. See also
 
662
        add_parent_tree_id - if you only have a parent id available it will be
 
663
        simpler to use that api. If you have the parent already available, using
 
664
        this api is preferred.
 
665
 
 
666
        :param parent_tuple: The (revision id, tree) to add to the parent list.             If the revision_id is a ghost, pass None for the tree.
 
667
        """
 
668
        self.set_parent_ids(self.get_parent_ids() + [parent_tuple[0]])
 
669
 
 
670
    @needs_write_lock
579
671
    def add_pending_merge(self, *revision_ids):
580
672
        # TODO: Perhaps should check at this point that the
581
673
        # history of the revision is actually present?
598
690
        """
599
691
        try:
600
692
            merges_file = self._control_files.get_utf8('pending-merges')
601
 
        except OSError, e:
602
 
            if e.errno != errno.ENOENT:
603
 
                raise
 
693
        except NoSuchFile:
604
694
            return []
605
695
        p = []
606
696
        for l in merges_file.readlines():
608
698
        return p
609
699
 
610
700
    @needs_write_lock
 
701
    def set_parent_ids(self, revision_ids):
 
702
        """Set the parent ids to revision_ids.
 
703
        
 
704
        See also set_parent_trees. This api will try to retrieve the tree data
 
705
        for each element of revision_ids from the trees repository. If you have
 
706
        tree data already available, it is more efficient to use
 
707
        set_parent_trees rather than set_parent_ids. set_parent_ids is however
 
708
        an easier API to use.
 
709
 
 
710
        :param revision_ids: The revision_ids to set as the parent ids of this
 
711
            working tree. Any of these may be ghosts.
 
712
        """
 
713
        trees = []
 
714
        for rev_id in revision_ids:
 
715
            try:
 
716
                trees.append(
 
717
                    (rev_id, self.branch.repository.revision_tree(rev_id)))
 
718
            except errors.RevisionNotPresent:
 
719
                trees.append((rev_id, None))
 
720
                pass
 
721
        self.set_parent_trees(trees)
 
722
 
 
723
    @needs_write_lock
 
724
    def set_parent_trees(self, parents_list):
 
725
        """Set the parents of the working tree.
 
726
 
 
727
        :param parents_list: A list of (revision_id, tree) tuples. 
 
728
            If tree is None, then that element is treated as an unreachable
 
729
            parent tree - i.e. a ghost.
 
730
        """
 
731
        parent = parents_list[:1]
 
732
        if len(parent):
 
733
            self.set_last_revision(parent[0][0])
 
734
        else:
 
735
            self.set_last_revision(None)
 
736
        merges = parents_list[1:]
 
737
        self.set_pending_merges([revid for revid, tree in merges])
 
738
 
 
739
    @needs_write_lock
611
740
    def set_pending_merges(self, rev_list):
612
741
        self._control_files.put_utf8('pending-merges', '\n'.join(rev_list))
613
742
 
656
785
            return '?'
657
786
 
658
787
    def list_files(self):
659
 
        """Recursively list all files as (path, class, kind, id).
 
788
        """Recursively list all files as (path, class, kind, id, entry).
660
789
 
661
790
        Lists, but does not descend into unversioned directories.
662
791
 
666
795
        Skips the control directory.
667
796
        """
668
797
        inv = self._inventory
669
 
 
670
 
        def descend(from_dir_relpath, from_dir_id, dp):
671
 
            ls = os.listdir(dp)
672
 
            ls.sort()
673
 
            for f in ls:
 
798
        # Convert these into local objects to save lookup times
 
799
        pathjoin = osutils.pathjoin
 
800
        file_kind = osutils.file_kind
 
801
 
 
802
        # transport.base ends in a slash, we want the piece
 
803
        # between the last two slashes
 
804
        transport_base_dir = self.bzrdir.transport.base.rsplit('/', 2)[1]
 
805
 
 
806
        fk_entries = {'directory':TreeDirectory, 'file':TreeFile, 'symlink':TreeLink}
 
807
 
 
808
        # directory file_id, relative path, absolute path, reverse sorted children
 
809
        children = os.listdir(self.basedir)
 
810
        children.sort()
 
811
        # jam 20060527 The kernel sized tree seems equivalent whether we 
 
812
        # use a deque and popleft to keep them sorted, or if we use a plain
 
813
        # list and just reverse() them.
 
814
        children = collections.deque(children)
 
815
        stack = [(inv.root.file_id, u'', self.basedir, children)]
 
816
        while stack:
 
817
            from_dir_id, from_dir_relpath, from_dir_abspath, children = stack[-1]
 
818
 
 
819
            while children:
 
820
                f = children.popleft()
674
821
                ## TODO: If we find a subdirectory with its own .bzr
675
822
                ## directory, then that is a separate tree and we
676
823
                ## should exclude it.
677
824
 
678
825
                # the bzrdir for this tree
679
 
                if self.bzrdir.transport.base.endswith(f + '/'):
 
826
                if transport_base_dir == f:
680
827
                    continue
681
828
 
682
 
                # path within tree
683
 
                fp = appendpath(from_dir_relpath, f)
 
829
                # we know that from_dir_relpath and from_dir_abspath never end in a slash
 
830
                # and 'f' doesn't begin with one, we can do a string op, rather
 
831
                # than the checks of pathjoin(), all relative paths will have an extra slash
 
832
                # at the beginning
 
833
                fp = from_dir_relpath + '/' + f
684
834
 
685
835
                # absolute path
686
 
                fap = appendpath(dp, f)
 
836
                fap = from_dir_abspath + '/' + f
687
837
                
688
838
                f_ie = inv.get_child(from_dir_id, f)
689
839
                if f_ie:
690
840
                    c = 'V'
691
 
                elif self.is_ignored(fp):
 
841
                elif self.is_ignored(fp[1:]):
692
842
                    c = 'I'
693
843
                else:
694
 
                    c = '?'
 
844
                    # we may not have found this file, because of a unicode issue
 
845
                    f_norm, can_access = osutils.normalized_filename(f)
 
846
                    if f == f_norm or not can_access:
 
847
                        # No change, so treat this file normally
 
848
                        c = '?'
 
849
                    else:
 
850
                        # this file can be accessed by a normalized path
 
851
                        # check again if it is versioned
 
852
                        # these lines are repeated here for performance
 
853
                        f = f_norm
 
854
                        fp = from_dir_relpath + '/' + f
 
855
                        fap = from_dir_abspath + '/' + f
 
856
                        f_ie = inv.get_child(from_dir_id, f)
 
857
                        if f_ie:
 
858
                            c = 'V'
 
859
                        elif self.is_ignored(fp[1:]):
 
860
                            c = 'I'
 
861
                        else:
 
862
                            c = '?'
695
863
 
696
864
                fk = file_kind(fap)
697
865
 
703
871
 
704
872
                # make a last minute entry
705
873
                if f_ie:
706
 
                    entry = f_ie
 
874
                    yield fp[1:], c, fk, f_ie.file_id, f_ie
707
875
                else:
708
 
                    if fk == 'directory':
709
 
                        entry = TreeDirectory()
710
 
                    elif fk == 'file':
711
 
                        entry = TreeFile()
712
 
                    elif fk == 'symlink':
713
 
                        entry = TreeLink()
714
 
                    else:
715
 
                        entry = TreeEntry()
 
876
                    try:
 
877
                        yield fp[1:], c, fk, None, fk_entries[fk]()
 
878
                    except KeyError:
 
879
                        yield fp[1:], c, fk, None, TreeEntry()
 
880
                    continue
716
881
                
717
 
                yield fp, c, fk, (f_ie and f_ie.file_id), entry
718
 
 
719
882
                if fk != 'directory':
720
883
                    continue
721
884
 
722
 
                if c != 'V':
723
 
                    # don't descend unversioned directories
724
 
                    continue
725
 
                
726
 
                for ff in descend(fp, f_ie.file_id, fap):
727
 
                    yield ff
 
885
                # But do this child first
 
886
                new_children = os.listdir(fap)
 
887
                new_children.sort()
 
888
                new_children = collections.deque(new_children)
 
889
                stack.append((f_ie.file_id, fp, fap, new_children))
 
890
                # Break out of inner loop, so that we start outer loop with child
 
891
                break
 
892
            else:
 
893
                # if we finished all children, pop it off the stack
 
894
                stack.pop()
728
895
 
729
 
        for f in descend(u'', inv.root.file_id, self.basedir):
730
 
            yield f
731
896
 
732
897
    @needs_write_lock
733
898
    def move(self, from_paths, to_name):
769
934
            if f_id == None:
770
935
                raise BzrError("%r is not versioned" % f)
771
936
            name_tail = splitpath(f)[-1]
772
 
            dest_path = appendpath(to_name, name_tail)
 
937
            dest_path = pathjoin(to_name, name_tail)
773
938
            if self.has_filename(dest_path):
774
939
                raise BzrError("destination %r already exists" % dest_path)
775
940
            if f_id in to_idpath:
782
947
        try:
783
948
            for f in from_paths:
784
949
                name_tail = splitpath(f)[-1]
785
 
                dest_path = appendpath(to_name, name_tail)
 
950
                dest_path = pathjoin(to_name, name_tail)
786
951
                result.append((f, dest_path))
787
952
                inv.rename(inv.path2id(f), to_dir_id, name_tail)
788
953
                try:
852
1017
 
853
1018
        These are files in the working directory that are not versioned or
854
1019
        control files or ignored.
855
 
        
856
 
        >>> from bzrlib.bzrdir import ScratchDir
857
 
        >>> d = ScratchDir(files=['foo', 'foo~'])
858
 
        >>> b = d.open_branch()
859
 
        >>> tree = d.open_workingtree()
860
 
        >>> map(str, tree.unknowns())
861
 
        ['foo']
862
 
        >>> tree.add('foo')
863
 
        >>> list(b.unknowns())
864
 
        []
865
 
        >>> tree.remove('foo')
866
 
        >>> list(b.unknowns())
867
 
        [u'foo']
868
1020
        """
869
1021
        for subp in self.extras():
870
1022
            if not self.is_ignored(subp):
878
1030
 
879
1031
    def _iter_conflicts(self):
880
1032
        conflicted = set()
881
 
        for path in (s[0] for s in self.list_files()):
 
1033
        for info in self.list_files():
 
1034
            path = info[0]
882
1035
            stem = get_conflicted_stem(path)
883
1036
            if stem is None:
884
1037
                continue
930
1083
        """
931
1084
        ## TODO: Work from given directory downwards
932
1085
        for path, dir_entry in self.inventory.directories():
933
 
            mutter("search for unknowns in %r", path)
 
1086
            # mutter("search for unknowns in %r", path)
934
1087
            dirabs = self.abspath(path)
935
1088
            if not isdir(dirabs):
936
1089
                # e.g. directory deleted
938
1091
 
939
1092
            fl = []
940
1093
            for subf in os.listdir(dirabs):
941
 
                if (subf != '.bzr'
942
 
                    and (subf not in dir_entry.children)):
943
 
                    fl.append(subf)
 
1094
                if subf == '.bzr':
 
1095
                    continue
 
1096
                if subf not in dir_entry.children:
 
1097
                    subf_norm, can_access = osutils.normalized_filename(subf)
 
1098
                    if subf_norm != subf and can_access:
 
1099
                        if subf_norm not in dir_entry.children:
 
1100
                            fl.append(subf_norm)
 
1101
                    else:
 
1102
                        fl.append(subf)
944
1103
            
945
1104
            fl.sort()
946
1105
            for subf in fl:
947
 
                subp = appendpath(path, subf)
 
1106
                subp = pathjoin(path, subf)
948
1107
                yield subp
949
1108
 
 
1109
    def _translate_ignore_rule(self, rule):
 
1110
        """Translate a single ignore rule to a regex.
 
1111
 
 
1112
        There are two types of ignore rules.  Those that do not contain a / are
 
1113
        matched against the tail of the filename (that is, they do not care
 
1114
        what directory the file is in.)  Rules which do contain a slash must
 
1115
        match the entire path.  As a special case, './' at the start of the
 
1116
        string counts as a slash in the string but is removed before matching
 
1117
        (e.g. ./foo.c, ./src/foo.c)
 
1118
 
 
1119
        :return: The translated regex.
 
1120
        """
 
1121
        if rule[:2] in ('./', '.\\'):
 
1122
            # rootdir rule
 
1123
            result = fnmatch.translate(rule[2:])
 
1124
        elif '/' in rule or '\\' in rule:
 
1125
            # path prefix 
 
1126
            result = fnmatch.translate(rule)
 
1127
        else:
 
1128
            # default rule style.
 
1129
            result = "(?:.*/)?(?!.*/)" + fnmatch.translate(rule)
 
1130
        assert result[-1] == '$', "fnmatch.translate did not add the expected $"
 
1131
        return "(" + result + ")"
 
1132
 
 
1133
    def _combine_ignore_rules(self, rules):
 
1134
        """Combine a list of ignore rules into a single regex object.
 
1135
 
 
1136
        Each individual rule is combined with | to form a big regex, which then
 
1137
        has $ added to it to form something like ()|()|()$. The group index for
 
1138
        each subregex's outermost group is placed in a dictionary mapping back 
 
1139
        to the rule. This allows quick identification of the matching rule that
 
1140
        triggered a match.
 
1141
        :return: a list of the compiled regex and the matching-group index 
 
1142
        dictionaries. We return a list because python complains if you try to 
 
1143
        combine more than 100 regexes.
 
1144
        """
 
1145
        result = []
 
1146
        groups = {}
 
1147
        next_group = 0
 
1148
        translated_rules = []
 
1149
        for rule in rules:
 
1150
            translated_rule = self._translate_ignore_rule(rule)
 
1151
            compiled_rule = re.compile(translated_rule)
 
1152
            groups[next_group] = rule
 
1153
            next_group += compiled_rule.groups
 
1154
            translated_rules.append(translated_rule)
 
1155
            if next_group == 99:
 
1156
                result.append((re.compile("|".join(translated_rules)), groups))
 
1157
                groups = {}
 
1158
                next_group = 0
 
1159
                translated_rules = []
 
1160
        if len(translated_rules):
 
1161
            result.append((re.compile("|".join(translated_rules)), groups))
 
1162
        return result
950
1163
 
951
1164
    def ignored_files(self):
952
1165
        """Yield list of PATH, IGNORE_PATTERN"""
955
1168
            if pat != None:
956
1169
                yield subp, pat
957
1170
 
958
 
 
959
1171
    def get_ignore_list(self):
960
1172
        """Return list of ignore patterns.
961
1173
 
962
1174
        Cached in the Tree object after the first call.
963
1175
        """
964
 
        if hasattr(self, '_ignorelist'):
965
 
            return self._ignorelist
966
 
 
967
 
        l = bzrlib.DEFAULT_IGNORE[:]
 
1176
        ignoreset = getattr(self, '_ignoreset', None)
 
1177
        if ignoreset is not None:
 
1178
            return ignoreset
 
1179
 
 
1180
        ignore_globs = set(bzrlib.DEFAULT_IGNORE)
 
1181
        ignore_globs.update(ignores.get_runtime_ignores())
 
1182
 
 
1183
        ignore_globs.update(ignores.get_user_ignores())
 
1184
 
968
1185
        if self.has_filename(bzrlib.IGNORE_FILENAME):
969
1186
            f = self.get_file_byname(bzrlib.IGNORE_FILENAME)
970
 
            l.extend([line.rstrip("\n\r") for line in f.readlines()])
971
 
        self._ignorelist = l
972
 
        return l
973
 
 
 
1187
            try:
 
1188
                ignore_globs.update(ignores.parse_ignore_file(f))
 
1189
            finally:
 
1190
                f.close()
 
1191
 
 
1192
        self._ignoreset = ignore_globs
 
1193
        self._ignore_regex = self._combine_ignore_rules(ignore_globs)
 
1194
        return ignore_globs
 
1195
 
 
1196
    def _get_ignore_rules_as_regex(self):
 
1197
        """Return a regex of the ignore rules and a mapping dict.
 
1198
 
 
1199
        :return: (ignore rules compiled regex, dictionary mapping rule group 
 
1200
        indices to original rule.)
 
1201
        """
 
1202
        if getattr(self, '_ignoreset', None) is None:
 
1203
            self.get_ignore_list()
 
1204
        return self._ignore_regex
974
1205
 
975
1206
    def is_ignored(self, filename):
976
1207
        r"""Check whether the filename matches an ignore pattern.
990
1221
        # treat dotfiles correctly and allows * to match /.
991
1222
        # Eventually it should be replaced with something more
992
1223
        # accurate.
993
 
        
994
 
        for pat in self.get_ignore_list():
995
 
            if '/' in pat or '\\' in pat:
996
 
                
997
 
                # as a special case, you can put ./ at the start of a
998
 
                # pattern; this is good to match in the top-level
999
 
                # only;
1000
 
                
1001
 
                if (pat[:2] == './') or (pat[:2] == '.\\'):
1002
 
                    newpat = pat[2:]
1003
 
                else:
1004
 
                    newpat = pat
1005
 
                if fnmatch.fnmatchcase(filename, newpat):
1006
 
                    return pat
1007
 
            else:
1008
 
                if fnmatch.fnmatchcase(splitpath(filename)[-1], pat):
1009
 
                    return pat
1010
 
        else:
1011
 
            return None
 
1224
    
 
1225
        rules = self._get_ignore_rules_as_regex()
 
1226
        for regex, mapping in rules:
 
1227
            match = regex.match(filename)
 
1228
            if match is not None:
 
1229
                # one or more of the groups in mapping will have a non-None group 
 
1230
                # match.
 
1231
                groups = match.groups()
 
1232
                rules = [mapping[group] for group in 
 
1233
                    mapping if groups[group] is not None]
 
1234
                return rules[0]
 
1235
        return None
1012
1236
 
1013
1237
    def kind(self, file_id):
1014
1238
        return file_kind(self.id2abspath(file_id))
1023
1247
        """
1024
1248
        return self.branch.last_revision()
1025
1249
 
 
1250
    def is_locked(self):
 
1251
        return self._control_files.is_locked()
 
1252
 
1026
1253
    def lock_read(self):
1027
1254
        """See Branch.lock_read, and WorkingTree.unlock."""
1028
1255
        self.branch.lock_read()
1041
1268
            self.branch.unlock()
1042
1269
            raise
1043
1270
 
 
1271
    def get_physical_lock_status(self):
 
1272
        return self._control_files.get_physical_lock_status()
 
1273
 
1044
1274
    def _basis_inventory_name(self):
1045
1275
        return 'basis-inventory'
1046
1276
 
1059
1289
        if new_revision is None:
1060
1290
            self.branch.set_revision_history([])
1061
1291
            return False
1062
 
        # current format is locked in with the branch
1063
 
        revision_history = self.branch.revision_history()
1064
1292
        try:
1065
 
            position = revision_history.index(new_revision)
1066
 
        except ValueError:
1067
 
            raise errors.NoSuchRevision(self.branch, new_revision)
1068
 
        self.branch.set_revision_history(revision_history[:position + 1])
 
1293
            self.branch.generate_revision_history(new_revision)
 
1294
        except errors.NoSuchRevision:
 
1295
            # not present in the repo - dont try to set it deeper than the tip
 
1296
            self.branch.set_revision_history([new_revision])
1069
1297
        return True
1070
1298
 
1071
1299
    def _cache_basis_inventory(self, new_revision):
1072
1300
        """Cache new_revision as the basis inventory."""
 
1301
        # TODO: this should allow the ready-to-use inventory to be passed in,
 
1302
        # as commit already has that ready-to-use [while the format is the
 
1303
        # same, that is].
1073
1304
        try:
1074
1305
            # this double handles the inventory - unpack and repack - 
1075
1306
            # but is easier to understand. We can/should put a conditional
1076
1307
            # in here based on whether the inventory is in the latest format
1077
1308
            # - perhaps we should repack all inventories on a repository
1078
1309
            # upgrade ?
1079
 
            inv = self.branch.repository.get_inventory(new_revision)
1080
 
            inv.revision_id = new_revision
1081
 
            xml = bzrlib.xml5.serializer_v5.write_inventory_to_string(inv)
1082
 
 
 
1310
            # the fast path is to copy the raw xml from the repository. If the
 
1311
            # xml contains 'revision_id="', then we assume the right 
 
1312
            # revision_id is set. We must check for this full string, because a
 
1313
            # root node id can legitimately look like 'revision_id' but cannot
 
1314
            # contain a '"'.
 
1315
            xml = self.branch.repository.get_inventory_xml(new_revision)
 
1316
            if not 'revision_id="' in xml.split('\n', 1)[0]:
 
1317
                inv = self.branch.repository.deserialise_inventory(
 
1318
                    new_revision, xml)
 
1319
                inv.revision_id = new_revision
 
1320
                xml = bzrlib.xml5.serializer_v5.write_inventory_to_string(inv)
 
1321
            assert isinstance(xml, str), 'serialised xml must be bytestring.'
1083
1322
            path = self._basis_inventory_name()
1084
 
            self._control_files.put_utf8(path, xml)
1085
 
        except WeaveRevisionNotPresent:
 
1323
            sio = StringIO(xml)
 
1324
            self._control_files.put(path, sio)
 
1325
        except (errors.NoSuchRevision, errors.RevisionNotPresent):
1086
1326
            pass
1087
1327
 
1088
1328
    def read_basis_inventory(self):
1089
1329
        """Read the cached basis inventory."""
1090
1330
        path = self._basis_inventory_name()
1091
 
        return self._control_files.get_utf8(path).read()
 
1331
        return self._control_files.get(path).read()
1092
1332
        
1093
1333
    @needs_read_lock
1094
1334
    def read_working_inventory(self):
1101
1341
        return result
1102
1342
 
1103
1343
    @needs_write_lock
1104
 
    def remove(self, files, verbose=False):
 
1344
    def remove(self, files, verbose=False, to_file=None):
1105
1345
        """Remove nominated files from the working inventory..
1106
1346
 
1107
1347
        This does not remove their text.  This does not run on XXX on what? RBC
1129
1369
                # TODO: Perhaps make this just a warning, and continue?
1130
1370
                # This tends to happen when 
1131
1371
                raise NotVersionedError(path=f)
1132
 
            mutter("remove inventory entry %s {%s}", quotefn(f), fid)
1133
1372
            if verbose:
1134
1373
                # having remove it, it must be either ignored or unknown
1135
1374
                if self.is_ignored(f):
1136
1375
                    new_status = 'I'
1137
1376
                else:
1138
1377
                    new_status = '?'
1139
 
                show_status(new_status, inv[fid].kind, quotefn(f))
 
1378
                show_status(new_status, inv[fid].kind, f, to_file=to_file)
1140
1379
            del inv[fid]
1141
1380
 
1142
1381
        self._write_inventory(inv)
1204
1443
        between multiple working trees, i.e. via shared storage, then we 
1205
1444
        would probably want to lock both the local tree, and the branch.
1206
1445
        """
1207
 
        # FIXME: We want to write out the hashcache only when the last lock on
1208
 
        # this working copy is released.  Peeking at the lock count is a bit
1209
 
        # of a nasty hack; probably it's better to have a transaction object,
1210
 
        # which can do some finalization when it's either successfully or
1211
 
        # unsuccessfully completed.  (Denys's original patch did that.)
1212
 
        # RBC 20060206 hookinhg into transaction will couple lock and transaction
1213
 
        # wrongly. Hookinh into unllock on the control files object is fine though.
1214
 
        
1215
 
        # TODO: split this per format so there is no ugly if block
1216
 
        if self._hashcache.needs_write and (
1217
 
            # dedicated lock files
1218
 
            self._control_files._lock_count==1 or 
1219
 
            # shared lock files
1220
 
            (self._control_files is self.branch.control_files and 
1221
 
             self._control_files._lock_count==3)):
1222
 
            self._hashcache.write()
1223
 
        # reverse order of locking.
1224
 
        result = self._control_files.unlock()
1225
 
        try:
1226
 
            self.branch.unlock()
1227
 
        finally:
1228
 
            return result
 
1446
        raise NotImplementedError(self.unlock)
1229
1447
 
1230
1448
    @needs_write_lock
1231
1449
    def update(self):
1263
1481
                                      this_tree=self)
1264
1482
                self.set_last_revision(self.branch.last_revision())
1265
1483
            if old_tip and old_tip != self.last_revision():
1266
 
                # our last revision was not the prior branch last reivison
 
1484
                # our last revision was not the prior branch last revision
1267
1485
                # and we have converted that last revision to a pending merge.
1268
1486
                # base is somewhere between the branch tip now
1269
1487
                # and the now pending merge
1297
1515
    def set_conflicts(self, arg):
1298
1516
        raise UnsupportedOperation(self.set_conflicts, self)
1299
1517
 
 
1518
    def add_conflicts(self, arg):
 
1519
        raise UnsupportedOperation(self.add_conflicts, self)
 
1520
 
1300
1521
    @needs_read_lock
1301
1522
    def conflicts(self):
1302
1523
        conflicts = ConflictList()
1305
1526
            try:
1306
1527
                if file_kind(self.abspath(conflicted)) != "file":
1307
1528
                    text = False
1308
 
            except OSError, e:
1309
 
                if e.errno == errno.ENOENT:
1310
 
                    text = False
1311
 
                else:
1312
 
                    raise
 
1529
            except errors.NoSuchFile:
 
1530
                text = False
1313
1531
            if text is True:
1314
1532
                for suffix in ('.THIS', '.OTHER'):
1315
1533
                    try:
1316
1534
                        kind = file_kind(self.abspath(conflicted+suffix))
1317
 
                    except OSError, e:
1318
 
                        if e.errno == errno.ENOENT:
 
1535
                        if kind != "file":
1319
1536
                            text = False
1320
 
                            break
1321
 
                        else:
1322
 
                            raise
1323
 
                    if kind != "file":
 
1537
                    except errors.NoSuchFile:
1324
1538
                        text = False
 
1539
                    if text == False:
1325
1540
                        break
1326
1541
            ctype = {True: 'text conflict', False: 'contents conflict'}[text]
1327
1542
            conflicts.append(Conflict.factory(ctype, path=conflicted,
1329
1544
        return conflicts
1330
1545
 
1331
1546
 
 
1547
class WorkingTree2(WorkingTree):
 
1548
    """This is the Format 2 working tree.
 
1549
 
 
1550
    This was the first weave based working tree. 
 
1551
     - uses os locks for locking.
 
1552
     - uses the branch last-revision.
 
1553
    """
 
1554
 
 
1555
    def unlock(self):
 
1556
        # we share control files:
 
1557
        if self._hashcache.needs_write and self._control_files._lock_count==3:
 
1558
            self._hashcache.write()
 
1559
        # reverse order of locking.
 
1560
        try:
 
1561
            return self._control_files.unlock()
 
1562
        finally:
 
1563
            self.branch.unlock()
 
1564
 
 
1565
 
1332
1566
class WorkingTree3(WorkingTree):
1333
1567
    """This is the Format 3 working tree.
1334
1568
 
1356
1590
                pass
1357
1591
            return False
1358
1592
        else:
1359
 
            try:
1360
 
                self.branch.revision_history().index(revision_id)
1361
 
            except ValueError:
1362
 
                raise errors.NoSuchRevision(self.branch, revision_id)
1363
1593
            self._control_files.put_utf8('last-revision', revision_id)
1364
1594
            return True
1365
1595
 
1368
1598
        self._put_rio('conflicts', conflicts.to_stanzas(), 
1369
1599
                      CONFLICT_HEADER_1)
1370
1600
 
 
1601
    @needs_write_lock
 
1602
    def add_conflicts(self, new_conflicts):
 
1603
        conflict_set = set(self.conflicts())
 
1604
        conflict_set.update(set(list(new_conflicts)))
 
1605
        self.set_conflicts(ConflictList(sorted(conflict_set,
 
1606
                                               key=Conflict.sort_key)))
 
1607
 
1371
1608
    @needs_read_lock
1372
1609
    def conflicts(self):
1373
1610
        try:
1381
1618
            raise ConflictFormatError()
1382
1619
        return ConflictList.from_stanzas(RioReader(confile))
1383
1620
 
 
1621
    def unlock(self):
 
1622
        if self._hashcache.needs_write and self._control_files._lock_count==1:
 
1623
            self._hashcache.write()
 
1624
        # reverse order of locking.
 
1625
        try:
 
1626
            return self._control_files.unlock()
 
1627
        finally:
 
1628
            self.branch.unlock()
 
1629
 
1384
1630
 
1385
1631
def get_conflicted_stem(path):
1386
1632
    for suffix in CONFLICT_SUFFIXES:
1437
1683
        except NoSuchFile:
1438
1684
            raise errors.NoWorkingTree(base=transport.base)
1439
1685
        except KeyError:
1440
 
            raise errors.UnknownFormatError(format_string)
 
1686
            raise errors.UnknownFormatError(format=format_string)
1441
1687
 
1442
1688
    @classmethod
1443
1689
    def get_default_format(klass):
1486
1732
        """See WorkingTreeFormat.get_format_description()."""
1487
1733
        return "Working tree format 2"
1488
1734
 
 
1735
    def stub_initialize_remote(self, control_files):
 
1736
        """As a special workaround create critical control files for a remote working tree
 
1737
        
 
1738
        This ensures that it can later be updated and dealt with locally,
 
1739
        since BzrDirFormat6 and BzrDirFormat5 cannot represent dirs with 
 
1740
        no working tree.  (See bug #43064).
 
1741
        """
 
1742
        sio = StringIO()
 
1743
        inv = Inventory()
 
1744
        bzrlib.xml5.serializer_v5.write_inventory(inv, sio)
 
1745
        sio.seek(0)
 
1746
        control_files.put('inventory', sio)
 
1747
 
 
1748
        control_files.put_utf8('pending-merges', '')
 
1749
        
 
1750
 
1489
1751
    def initialize(self, a_bzrdir, revision_id=None):
1490
1752
        """See WorkingTreeFormat.initialize()."""
1491
1753
        if not isinstance(a_bzrdir.transport, LocalTransport):
1504
1766
                branch.unlock()
1505
1767
        revision = branch.last_revision()
1506
1768
        inv = Inventory() 
1507
 
        wt = WorkingTree(a_bzrdir.root_transport.base,
 
1769
        wt = WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1508
1770
                         branch,
1509
1771
                         inv,
1510
1772
                         _internal=True,
1532
1794
            raise NotImplementedError
1533
1795
        if not isinstance(a_bzrdir.transport, LocalTransport):
1534
1796
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1535
 
        return WorkingTree(a_bzrdir.root_transport.base,
 
1797
        return WorkingTree2(a_bzrdir.root_transport.local_abspath('.'),
1536
1798
                           _internal=True,
1537
1799
                           _format=self,
1538
1800
                           _bzrdir=a_bzrdir)
1547
1809
          files, separate from the BzrDir format
1548
1810
        - modifies the hash cache format
1549
1811
        - is new in bzr 0.8
1550
 
        - uses a LockDir to guard access to the repository
 
1812
        - uses a LockDir to guard access for writes.
1551
1813
    """
1552
1814
 
1553
1815
    def get_format_string(self):
1569
1831
    def initialize(self, a_bzrdir, revision_id=None):
1570
1832
        """See WorkingTreeFormat.initialize().
1571
1833
        
1572
 
        revision_id allows creating a working tree at a differnet
 
1834
        revision_id allows creating a working tree at a different
1573
1835
        revision than the branch is at.
1574
1836
        """
1575
1837
        if not isinstance(a_bzrdir.transport, LocalTransport):
1577
1839
        transport = a_bzrdir.get_workingtree_transport(self)
1578
1840
        control_files = self._open_control_files(a_bzrdir)
1579
1841
        control_files.create_lock()
 
1842
        control_files.lock_write()
1580
1843
        control_files.put_utf8('format', self.get_format_string())
1581
1844
        branch = a_bzrdir.open_branch()
1582
1845
        if revision_id is None:
1583
1846
            revision_id = branch.last_revision()
1584
1847
        inv = Inventory() 
1585
 
        wt = WorkingTree3(a_bzrdir.root_transport.base,
 
1848
        wt = WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
1586
1849
                         branch,
1587
1850
                         inv,
1588
1851
                         _internal=True,
1589
1852
                         _format=self,
1590
1853
                         _bzrdir=a_bzrdir,
1591
1854
                         _control_files=control_files)
1592
 
        wt._write_inventory(inv)
1593
 
        wt.set_root_id(inv.root.file_id)
1594
 
        wt.set_last_revision(revision_id)
1595
 
        wt.set_pending_merges([])
1596
 
        build_tree(wt.basis_tree(), wt)
 
1855
        wt.lock_write()
 
1856
        try:
 
1857
            wt._write_inventory(inv)
 
1858
            wt.set_root_id(inv.root.file_id)
 
1859
            wt.set_last_revision(revision_id)
 
1860
            wt.set_pending_merges([])
 
1861
            build_tree(wt.basis_tree(), wt)
 
1862
        finally:
 
1863
            wt.unlock()
 
1864
            control_files.unlock()
1597
1865
        return wt
1598
1866
 
1599
1867
    def __init__(self):
1611
1879
            raise NotImplementedError
1612
1880
        if not isinstance(a_bzrdir.transport, LocalTransport):
1613
1881
            raise errors.NotLocalUrl(a_bzrdir.transport.base)
1614
 
        control_files = self._open_control_files(a_bzrdir)
1615
 
        return WorkingTree3(a_bzrdir.root_transport.base,
 
1882
        return self._open(a_bzrdir, self._open_control_files(a_bzrdir))
 
1883
 
 
1884
    def _open(self, a_bzrdir, control_files):
 
1885
        """Open the tree itself.
 
1886
        
 
1887
        :param a_bzrdir: the dir for the tree.
 
1888
        :param control_files: the control files for the tree.
 
1889
        """
 
1890
        return WorkingTree3(a_bzrdir.root_transport.local_abspath('.'),
1616
1891
                           _internal=True,
1617
1892
                           _format=self,
1618
1893
                           _bzrdir=a_bzrdir,
1645
1920
        self._transport_readonly_server = transport_readonly_server
1646
1921
        self._formats = formats
1647
1922
    
 
1923
    def _clone_test(self, test, bzrdir_format, workingtree_format, variation):
 
1924
        """Clone test for adaption."""
 
1925
        new_test = deepcopy(test)
 
1926
        new_test.transport_server = self._transport_server
 
1927
        new_test.transport_readonly_server = self._transport_readonly_server
 
1928
        new_test.bzrdir_format = bzrdir_format
 
1929
        new_test.workingtree_format = workingtree_format
 
1930
        def make_new_test_id():
 
1931
            new_id = "%s(%s)" % (test.id(), variation)
 
1932
            return lambda: new_id
 
1933
        new_test.id = make_new_test_id()
 
1934
        return new_test
 
1935
    
1648
1936
    def adapt(self, test):
1649
1937
        from bzrlib.tests import TestSuite
1650
1938
        result = TestSuite()
1651
1939
        for workingtree_format, bzrdir_format in self._formats:
1652
 
            new_test = deepcopy(test)
1653
 
            new_test.transport_server = self._transport_server
1654
 
            new_test.transport_readonly_server = self._transport_readonly_server
1655
 
            new_test.bzrdir_format = bzrdir_format
1656
 
            new_test.workingtree_format = workingtree_format
1657
 
            def make_new_test_id():
1658
 
                new_id = "%s(%s)" % (new_test.id(), workingtree_format.__class__.__name__)
1659
 
                return lambda: new_id
1660
 
            new_test.id = make_new_test_id()
 
1940
            new_test = self._clone_test(
 
1941
                test,
 
1942
                bzrdir_format,
 
1943
                workingtree_format, workingtree_format.__class__.__name__)
1661
1944
            result.addTest(new_test)
1662
1945
        return result