/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to breezy/merge.py

  • Committer: Jelmer Vernooij
  • Date: 2019-06-29 19:54:32 UTC
  • mto: This revision was merged to the branch mainline in revision 7378.
  • Revision ID: jelmer@jelmer.uk-20190629195432-xuqzgxejnzq6gs2n
Use more ExitStacks.

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005-2011 Canonical Ltd
 
2
#
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
#
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
#
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
from __future__ import absolute_import
 
18
 
 
19
from .lazy_import import lazy_import
 
20
lazy_import(globals(), """
 
21
import patiencediff
 
22
 
 
23
from breezy import (
 
24
    branch as _mod_branch,
 
25
    cleanup,
 
26
    conflicts as _mod_conflicts,
 
27
    debug,
 
28
    graph as _mod_graph,
 
29
    merge3,
 
30
    osutils,
 
31
    revision as _mod_revision,
 
32
    textfile,
 
33
    trace,
 
34
    transform,
 
35
    tree as _mod_tree,
 
36
    tsort,
 
37
    ui,
 
38
    workingtree,
 
39
    )
 
40
from breezy.bzr import (
 
41
    generate_ids,
 
42
    versionedfile,
 
43
    )
 
44
from breezy.i18n import gettext
 
45
""")
 
46
from . import (
 
47
    decorators,
 
48
    errors,
 
49
    hooks,
 
50
    registry,
 
51
    )
 
52
from .sixish import (
 
53
    viewitems,
 
54
    )
 
55
# TODO: Report back as changes are merged in
 
56
 
 
57
 
 
58
def transform_tree(from_tree, to_tree, interesting_files=None):
 
59
    with from_tree.lock_tree_write():
 
60
        merge_inner(from_tree.branch, to_tree, from_tree,
 
61
                    ignore_zero=True, this_tree=from_tree,
 
62
                    interesting_files=interesting_files)
 
63
 
 
64
 
 
65
class MergeHooks(hooks.Hooks):
 
66
 
 
67
    def __init__(self):
 
68
        hooks.Hooks.__init__(self, "breezy.merge", "Merger.hooks")
 
69
        self.add_hook('merge_file_content',
 
70
                      "Called with a breezy.merge.Merger object to create a per file "
 
71
                      "merge object when starting a merge. "
 
72
                      "Should return either None or a subclass of "
 
73
                      "``breezy.merge.AbstractPerFileMerger``. "
 
74
                      "Such objects will then be called per file "
 
75
                      "that needs to be merged (including when one "
 
76
                      "side has deleted the file and the other has changed it). "
 
77
                      "See the AbstractPerFileMerger API docs for details on how it is "
 
78
                      "used by merge.",
 
79
                      (2, 1))
 
80
        self.add_hook('pre_merge',
 
81
                      'Called before a merge. '
 
82
                      'Receives a Merger object as the single argument.',
 
83
                      (2, 5))
 
84
        self.add_hook('post_merge',
 
85
                      'Called after a merge. '
 
86
                      'Receives a Merger object as the single argument. '
 
87
                      'The return value is ignored.',
 
88
                      (2, 5))
 
89
 
 
90
 
 
91
class AbstractPerFileMerger(object):
 
92
    """PerFileMerger objects are used by plugins extending merge for breezy.
 
93
 
 
94
    See ``breezy.plugins.news_merge.news_merge`` for an example concrete class.
 
95
 
 
96
    :ivar merger: The Merge3Merger performing the merge.
 
97
    """
 
98
 
 
99
    def __init__(self, merger):
 
100
        """Create a PerFileMerger for use with merger."""
 
101
        self.merger = merger
 
102
 
 
103
    def merge_contents(self, merge_params):
 
104
        """Attempt to merge the contents of a single file.
 
105
 
 
106
        :param merge_params: A breezy.merge.MergeFileHookParams
 
107
        :return: A tuple of (status, chunks), where status is one of
 
108
            'not_applicable', 'success', 'conflicted', or 'delete'.  If status
 
109
            is 'success' or 'conflicted', then chunks should be an iterable of
 
110
            strings for the new file contents.
 
111
        """
 
112
        return ('not applicable', None)
 
113
 
 
114
 
 
115
class PerFileMerger(AbstractPerFileMerger):
 
116
    """Merge individual files when self.file_matches returns True.
 
117
 
 
118
    This class is intended to be subclassed.  The file_matches and
 
119
    merge_matching methods should be overridden with concrete implementations.
 
120
    """
 
121
 
 
122
    def file_matches(self, params):
 
123
        """Return True if merge_matching should be called on this file.
 
124
 
 
125
        Only called with merges of plain files with no clear winner.
 
126
 
 
127
        Subclasses must override this.
 
128
        """
 
129
        raise NotImplementedError(self.file_matches)
 
130
 
 
131
    def merge_contents(self, params):
 
132
        """Merge the contents of a single file."""
 
133
        # Check whether this custom merge logic should be used.
 
134
        if (
 
135
            # OTHER is a straight winner, rely on default merge.
 
136
            params.winner == 'other' or
 
137
            # THIS and OTHER aren't both files.
 
138
            not params.is_file_merge() or
 
139
            # The filename doesn't match
 
140
                not self.file_matches(params)):
 
141
            return 'not_applicable', None
 
142
        return self.merge_matching(params)
 
143
 
 
144
    def merge_matching(self, params):
 
145
        """Merge the contents of a single file that has matched the criteria
 
146
        in PerFileMerger.merge_contents (is a conflict, is a file,
 
147
        self.file_matches is True).
 
148
 
 
149
        Subclasses must override this.
 
150
        """
 
151
        raise NotImplementedError(self.merge_matching)
 
152
 
 
153
 
 
154
class ConfigurableFileMerger(PerFileMerger):
 
155
    """Merge individual files when configured via a .conf file.
 
156
 
 
157
    This is a base class for concrete custom file merging logic. Concrete
 
158
    classes should implement ``merge_text``.
 
159
 
 
160
    See ``breezy.plugins.news_merge.news_merge`` for an example concrete class.
 
161
 
 
162
    :ivar affected_files: The configured file paths to merge.
 
163
 
 
164
    :cvar name_prefix: The prefix to use when looking up configuration
 
165
        details. <name_prefix>_merge_files describes the files targeted by the
 
166
        hook for example.
 
167
 
 
168
    :cvar default_files: The default file paths to merge when no configuration
 
169
        is present.
 
170
    """
 
171
 
 
172
    name_prefix = None
 
173
    default_files = None
 
174
 
 
175
    def __init__(self, merger):
 
176
        super(ConfigurableFileMerger, self).__init__(merger)
 
177
        self.affected_files = None
 
178
        self.default_files = self.__class__.default_files or []
 
179
        self.name_prefix = self.__class__.name_prefix
 
180
        if self.name_prefix is None:
 
181
            raise ValueError("name_prefix must be set.")
 
182
 
 
183
    def file_matches(self, params):
 
184
        """Check whether the file should call the merge hook.
 
185
 
 
186
        <name_prefix>_merge_files configuration variable is a list of files
 
187
        that should use the hook.
 
188
        """
 
189
        affected_files = self.affected_files
 
190
        if affected_files is None:
 
191
            config = self.merger.this_branch.get_config()
 
192
            # Until bzr provides a better policy for caching the config, we
 
193
            # just add the part we're interested in to the params to avoid
 
194
            # reading the config files repeatedly (breezy.conf, location.conf,
 
195
            # branch.conf).
 
196
            config_key = self.name_prefix + '_merge_files'
 
197
            affected_files = config.get_user_option_as_list(config_key)
 
198
            if affected_files is None:
 
199
                # If nothing was specified in the config, use the default.
 
200
                affected_files = self.default_files
 
201
            self.affected_files = affected_files
 
202
        if affected_files:
 
203
            filepath = params.this_path
 
204
            if filepath in affected_files:
 
205
                return True
 
206
        return False
 
207
 
 
208
    def merge_matching(self, params):
 
209
        return self.merge_text(params)
 
210
 
 
211
    def merge_text(self, params):
 
212
        """Merge the byte contents of a single file.
 
213
 
 
214
        This is called after checking that the merge should be performed in
 
215
        merge_contents, and it should behave as per
 
216
        ``breezy.merge.AbstractPerFileMerger.merge_contents``.
 
217
        """
 
218
        raise NotImplementedError(self.merge_text)
 
219
 
 
220
 
 
221
class MergeFileHookParams(object):
 
222
    """Object holding parameters passed to merge_file_content hooks.
 
223
 
 
224
    There are some fields hooks can access:
 
225
 
 
226
    :ivar file_id: the file ID of the file being merged
 
227
    :ivar base_path: Path in base tree
 
228
    :ivar other_path: Path in other tree
 
229
    :ivar this_path: Path in this tree
 
230
    :ivar trans_id: the transform ID for the merge of this file
 
231
    :ivar this_kind: kind of file_id in 'this' tree
 
232
    :ivar other_kind: kind of file_id in 'other' tree
 
233
    :ivar winner: one of 'this', 'other', 'conflict'
 
234
    """
 
235
 
 
236
    def __init__(self, merger, file_id, paths, trans_id, this_kind, other_kind,
 
237
                 winner):
 
238
        self._merger = merger
 
239
        self.file_id = file_id
 
240
        self.paths = paths
 
241
        self.base_path, self.other_path, self.this_path = paths
 
242
        self.trans_id = trans_id
 
243
        self.this_kind = this_kind
 
244
        self.other_kind = other_kind
 
245
        self.winner = winner
 
246
 
 
247
    def is_file_merge(self):
 
248
        """True if this_kind and other_kind are both 'file'."""
 
249
        return self.this_kind == 'file' and self.other_kind == 'file'
 
250
 
 
251
    @decorators.cachedproperty
 
252
    def base_lines(self):
 
253
        """The lines of the 'base' version of the file."""
 
254
        return self._merger.get_lines(self._merger.base_tree, self.base_path)
 
255
 
 
256
    @decorators.cachedproperty
 
257
    def this_lines(self):
 
258
        """The lines of the 'this' version of the file."""
 
259
        return self._merger.get_lines(self._merger.this_tree, self.this_path)
 
260
 
 
261
    @decorators.cachedproperty
 
262
    def other_lines(self):
 
263
        """The lines of the 'other' version of the file."""
 
264
        return self._merger.get_lines(self._merger.other_tree, self.other_path)
 
265
 
 
266
 
 
267
class Merger(object):
 
268
 
 
269
    hooks = MergeHooks()
 
270
 
 
271
    def __init__(self, this_branch, other_tree=None, base_tree=None,
 
272
                 this_tree=None, change_reporter=None,
 
273
                 recurse='down', revision_graph=None):
 
274
        object.__init__(self)
 
275
        self.this_branch = this_branch
 
276
        self.this_basis = _mod_revision.ensure_null(
 
277
            this_branch.last_revision())
 
278
        self.this_rev_id = None
 
279
        self.this_tree = this_tree
 
280
        self.this_revision_tree = None
 
281
        self.this_basis_tree = None
 
282
        self.other_tree = other_tree
 
283
        self.other_branch = None
 
284
        self.base_tree = base_tree
 
285
        self.ignore_zero = False
 
286
        self.backup_files = False
 
287
        self.interesting_files = None
 
288
        self.show_base = False
 
289
        self.reprocess = False
 
290
        self.pp = None
 
291
        self.recurse = recurse
 
292
        self.change_reporter = change_reporter
 
293
        self._cached_trees = {}
 
294
        self._revision_graph = revision_graph
 
295
        self._base_is_ancestor = None
 
296
        self._base_is_other_ancestor = None
 
297
        self._is_criss_cross = None
 
298
        self._lca_trees = None
 
299
 
 
300
    def cache_trees_with_revision_ids(self, trees):
 
301
        """Cache any tree in trees if it has a revision_id."""
 
302
        for maybe_tree in trees:
 
303
            if maybe_tree is None:
 
304
                continue
 
305
            try:
 
306
                rev_id = maybe_tree.get_revision_id()
 
307
            except AttributeError:
 
308
                continue
 
309
            self._cached_trees[rev_id] = maybe_tree
 
310
 
 
311
    @property
 
312
    def revision_graph(self):
 
313
        if self._revision_graph is None:
 
314
            self._revision_graph = self.this_branch.repository.get_graph()
 
315
        return self._revision_graph
 
316
 
 
317
    def _set_base_is_ancestor(self, value):
 
318
        self._base_is_ancestor = value
 
319
 
 
320
    def _get_base_is_ancestor(self):
 
321
        if self._base_is_ancestor is None:
 
322
            self._base_is_ancestor = self.revision_graph.is_ancestor(
 
323
                self.base_rev_id, self.this_basis)
 
324
        return self._base_is_ancestor
 
325
 
 
326
    base_is_ancestor = property(_get_base_is_ancestor, _set_base_is_ancestor)
 
327
 
 
328
    def _set_base_is_other_ancestor(self, value):
 
329
        self._base_is_other_ancestor = value
 
330
 
 
331
    def _get_base_is_other_ancestor(self):
 
332
        if self._base_is_other_ancestor is None:
 
333
            if self.other_basis is None:
 
334
                return True
 
335
            self._base_is_other_ancestor = self.revision_graph.is_ancestor(
 
336
                self.base_rev_id, self.other_basis)
 
337
        return self._base_is_other_ancestor
 
338
 
 
339
    base_is_other_ancestor = property(_get_base_is_other_ancestor,
 
340
                                      _set_base_is_other_ancestor)
 
341
 
 
342
    @staticmethod
 
343
    def from_uncommitted(tree, other_tree, base_tree=None):
 
344
        """Return a Merger for uncommitted changes in other_tree.
 
345
 
 
346
        :param tree: The tree to merge into
 
347
        :param other_tree: The tree to get uncommitted changes from
 
348
        :param base_tree: The basis to use for the merge.  If unspecified,
 
349
            other_tree.basis_tree() will be used.
 
350
        """
 
351
        if base_tree is None:
 
352
            base_tree = other_tree.basis_tree()
 
353
        merger = Merger(tree.branch, other_tree, base_tree, tree)
 
354
        merger.base_rev_id = merger.base_tree.get_revision_id()
 
355
        merger.other_rev_id = None
 
356
        merger.other_basis = merger.base_rev_id
 
357
        return merger
 
358
 
 
359
    @classmethod
 
360
    def from_mergeable(klass, tree, mergeable):
 
361
        """Return a Merger for a bundle or merge directive.
 
362
 
 
363
        :param tree: The tree to merge changes into
 
364
        :param mergeable: A merge directive or bundle
 
365
        """
 
366
        mergeable.install_revisions(tree.branch.repository)
 
367
        base_revision_id, other_revision_id, verified =\
 
368
            mergeable.get_merge_request(tree.branch.repository)
 
369
        revision_graph = tree.branch.repository.get_graph()
 
370
        if base_revision_id is not None:
 
371
            if (base_revision_id != _mod_revision.NULL_REVISION and
 
372
                revision_graph.is_ancestor(
 
373
                    base_revision_id, tree.branch.last_revision())):
 
374
                base_revision_id = None
 
375
            else:
 
376
                trace.warning('Performing cherrypick')
 
377
        merger = klass.from_revision_ids(tree, other_revision_id,
 
378
                                         base_revision_id, revision_graph=revision_graph)
 
379
        return merger, verified
 
380
 
 
381
    @staticmethod
 
382
    def from_revision_ids(tree, other, base=None, other_branch=None,
 
383
                          base_branch=None, revision_graph=None,
 
384
                          tree_branch=None):
 
385
        """Return a Merger for revision-ids.
 
386
 
 
387
        :param tree: The tree to merge changes into
 
388
        :param other: The revision-id to use as OTHER
 
389
        :param base: The revision-id to use as BASE.  If not specified, will
 
390
            be auto-selected.
 
391
        :param other_branch: A branch containing the other revision-id.  If
 
392
            not supplied, tree.branch is used.
 
393
        :param base_branch: A branch containing the base revision-id.  If
 
394
            not supplied, other_branch or tree.branch will be used.
 
395
        :param revision_graph: If you have a revision_graph precomputed, pass
 
396
            it in, otherwise it will be created for you.
 
397
        :param tree_branch: The branch associated with tree.  If not supplied,
 
398
            tree.branch will be used.
 
399
        """
 
400
        if tree_branch is None:
 
401
            tree_branch = tree.branch
 
402
        merger = Merger(tree_branch, this_tree=tree,
 
403
                        revision_graph=revision_graph)
 
404
        if other_branch is None:
 
405
            other_branch = tree.branch
 
406
        merger.set_other_revision(other, other_branch)
 
407
        if base is None:
 
408
            merger.find_base()
 
409
        else:
 
410
            if base_branch is None:
 
411
                base_branch = other_branch
 
412
            merger.set_base_revision(base, base_branch)
 
413
        return merger
 
414
 
 
415
    def revision_tree(self, revision_id, branch=None):
 
416
        if revision_id not in self._cached_trees:
 
417
            if branch is None:
 
418
                branch = self.this_branch
 
419
            try:
 
420
                tree = self.this_tree.revision_tree(revision_id)
 
421
            except errors.NoSuchRevisionInTree:
 
422
                tree = branch.repository.revision_tree(revision_id)
 
423
            self._cached_trees[revision_id] = tree
 
424
        return self._cached_trees[revision_id]
 
425
 
 
426
    def _get_tree(self, treespec, possible_transports=None):
 
427
        location, revno = treespec
 
428
        if revno is None:
 
429
            tree = workingtree.WorkingTree.open_containing(location)[0]
 
430
            return tree.branch, tree
 
431
        branch = _mod_branch.Branch.open_containing(
 
432
            location, possible_transports)[0]
 
433
        if revno == -1:
 
434
            revision_id = branch.last_revision()
 
435
        else:
 
436
            revision_id = branch.get_rev_id(revno)
 
437
        revision_id = _mod_revision.ensure_null(revision_id)
 
438
        return branch, self.revision_tree(revision_id, branch)
 
439
 
 
440
    def set_interesting_files(self, file_list):
 
441
        self.interesting_files = file_list
 
442
 
 
443
    def set_pending(self):
 
444
        if (not self.base_is_ancestor or not self.base_is_other_ancestor
 
445
                or self.other_rev_id is None):
 
446
            return
 
447
        self._add_parent()
 
448
 
 
449
    def _add_parent(self):
 
450
        new_parents = self.this_tree.get_parent_ids() + [self.other_rev_id]
 
451
        new_parent_trees = []
 
452
        with cleanup.ExitStack() as stack:
 
453
            for revision_id in new_parents:
 
454
                try:
 
455
                    tree = self.revision_tree(revision_id)
 
456
                except errors.NoSuchRevision:
 
457
                    tree = None
 
458
                else:
 
459
                    stack.enter_context(tree.lock_read())
 
460
                new_parent_trees.append((revision_id, tree))
 
461
            self.this_tree.set_parent_trees(new_parent_trees, allow_leftmost_as_ghost=True)
 
462
 
 
463
    def set_other(self, other_revision, possible_transports=None):
 
464
        """Set the revision and tree to merge from.
 
465
 
 
466
        This sets the other_tree, other_rev_id, other_basis attributes.
 
467
 
 
468
        :param other_revision: The [path, revision] list to merge from.
 
469
        """
 
470
        self.other_branch, self.other_tree = self._get_tree(other_revision,
 
471
                                                            possible_transports)
 
472
        if other_revision[1] == -1:
 
473
            self.other_rev_id = _mod_revision.ensure_null(
 
474
                self.other_branch.last_revision())
 
475
            if _mod_revision.is_null(self.other_rev_id):
 
476
                raise errors.NoCommits(self.other_branch)
 
477
            self.other_basis = self.other_rev_id
 
478
        elif other_revision[1] is not None:
 
479
            self.other_rev_id = self.other_branch.get_rev_id(other_revision[1])
 
480
            self.other_basis = self.other_rev_id
 
481
        else:
 
482
            self.other_rev_id = None
 
483
            self.other_basis = self.other_branch.last_revision()
 
484
            if self.other_basis is None:
 
485
                raise errors.NoCommits(self.other_branch)
 
486
        if self.other_rev_id is not None:
 
487
            self._cached_trees[self.other_rev_id] = self.other_tree
 
488
        self._maybe_fetch(self.other_branch,
 
489
                          self.this_branch, self.other_basis)
 
490
 
 
491
    def set_other_revision(self, revision_id, other_branch):
 
492
        """Set 'other' based on a branch and revision id
 
493
 
 
494
        :param revision_id: The revision to use for a tree
 
495
        :param other_branch: The branch containing this tree
 
496
        """
 
497
        self.other_rev_id = revision_id
 
498
        self.other_branch = other_branch
 
499
        self._maybe_fetch(other_branch, self.this_branch, self.other_rev_id)
 
500
        self.other_tree = self.revision_tree(revision_id)
 
501
        self.other_basis = revision_id
 
502
 
 
503
    def set_base_revision(self, revision_id, branch):
 
504
        """Set 'base' based on a branch and revision id
 
505
 
 
506
        :param revision_id: The revision to use for a tree
 
507
        :param branch: The branch containing this tree
 
508
        """
 
509
        self.base_rev_id = revision_id
 
510
        self.base_branch = branch
 
511
        self._maybe_fetch(branch, self.this_branch, revision_id)
 
512
        self.base_tree = self.revision_tree(revision_id)
 
513
 
 
514
    def _maybe_fetch(self, source, target, revision_id):
 
515
        if not source.repository.has_same_location(target.repository):
 
516
            target.fetch(source, revision_id)
 
517
 
 
518
    def find_base(self):
 
519
        revisions = [_mod_revision.ensure_null(self.this_basis),
 
520
                     _mod_revision.ensure_null(self.other_basis)]
 
521
        if _mod_revision.NULL_REVISION in revisions:
 
522
            self.base_rev_id = _mod_revision.NULL_REVISION
 
523
            self.base_tree = self.revision_tree(self.base_rev_id)
 
524
            self._is_criss_cross = False
 
525
        else:
 
526
            lcas = self.revision_graph.find_lca(revisions[0], revisions[1])
 
527
            self._is_criss_cross = False
 
528
            if len(lcas) == 0:
 
529
                self.base_rev_id = _mod_revision.NULL_REVISION
 
530
            elif len(lcas) == 1:
 
531
                self.base_rev_id = list(lcas)[0]
 
532
            else:  # len(lcas) > 1
 
533
                self._is_criss_cross = True
 
534
                if len(lcas) > 2:
 
535
                    # find_unique_lca can only handle 2 nodes, so we have to
 
536
                    # start back at the beginning. It is a shame to traverse
 
537
                    # the graph again, but better than re-implementing
 
538
                    # find_unique_lca.
 
539
                    self.base_rev_id = self.revision_graph.find_unique_lca(
 
540
                        revisions[0], revisions[1])
 
541
                else:
 
542
                    self.base_rev_id = self.revision_graph.find_unique_lca(
 
543
                        *lcas)
 
544
                sorted_lca_keys = self.revision_graph.find_merge_order(
 
545
                    revisions[0], lcas)
 
546
                if self.base_rev_id == _mod_revision.NULL_REVISION:
 
547
                    self.base_rev_id = sorted_lca_keys[0]
 
548
 
 
549
            if self.base_rev_id == _mod_revision.NULL_REVISION:
 
550
                raise errors.UnrelatedBranches()
 
551
            if self._is_criss_cross:
 
552
                trace.warning('Warning: criss-cross merge encountered.  See bzr'
 
553
                              ' help criss-cross.')
 
554
                trace.mutter('Criss-cross lcas: %r' % lcas)
 
555
                if self.base_rev_id in lcas:
 
556
                    trace.mutter('Unable to find unique lca. '
 
557
                                 'Fallback %r as best option.'
 
558
                                 % self.base_rev_id)
 
559
                interesting_revision_ids = set(lcas)
 
560
                interesting_revision_ids.add(self.base_rev_id)
 
561
                interesting_trees = dict((t.get_revision_id(), t)
 
562
                                         for t in self.this_branch.repository.revision_trees(
 
563
                    interesting_revision_ids))
 
564
                self._cached_trees.update(interesting_trees)
 
565
                if self.base_rev_id in lcas:
 
566
                    self.base_tree = interesting_trees[self.base_rev_id]
 
567
                else:
 
568
                    self.base_tree = interesting_trees.pop(self.base_rev_id)
 
569
                self._lca_trees = [interesting_trees[key]
 
570
                                   for key in sorted_lca_keys]
 
571
            else:
 
572
                self.base_tree = self.revision_tree(self.base_rev_id)
 
573
        self.base_is_ancestor = True
 
574
        self.base_is_other_ancestor = True
 
575
        trace.mutter('Base revid: %r' % self.base_rev_id)
 
576
 
 
577
    def set_base(self, base_revision):
 
578
        """Set the base revision to use for the merge.
 
579
 
 
580
        :param base_revision: A 2-list containing a path and revision number.
 
581
        """
 
582
        trace.mutter("doing merge() with no base_revision specified")
 
583
        if base_revision == [None, None]:
 
584
            self.find_base()
 
585
        else:
 
586
            base_branch, self.base_tree = self._get_tree(base_revision)
 
587
            if base_revision[1] == -1:
 
588
                self.base_rev_id = base_branch.last_revision()
 
589
            elif base_revision[1] is None:
 
590
                self.base_rev_id = _mod_revision.NULL_REVISION
 
591
            else:
 
592
                self.base_rev_id = _mod_revision.ensure_null(
 
593
                    base_branch.get_rev_id(base_revision[1]))
 
594
            self._maybe_fetch(base_branch, self.this_branch, self.base_rev_id)
 
595
 
 
596
    def make_merger(self):
 
597
        kwargs = {'working_tree': self.this_tree, 'this_tree': self.this_tree,
 
598
                  'other_tree': self.other_tree,
 
599
                  'interesting_files': self.interesting_files,
 
600
                  'this_branch': self.this_branch,
 
601
                  'other_branch': self.other_branch,
 
602
                  'do_merge': False}
 
603
        if self.merge_type.requires_base:
 
604
            kwargs['base_tree'] = self.base_tree
 
605
        if self.merge_type.supports_reprocess:
 
606
            kwargs['reprocess'] = self.reprocess
 
607
        elif self.reprocess:
 
608
            raise errors.BzrError(
 
609
                "Conflict reduction is not supported for merge"
 
610
                " type %s." % self.merge_type)
 
611
        if self.merge_type.supports_show_base:
 
612
            kwargs['show_base'] = self.show_base
 
613
        elif self.show_base:
 
614
            raise errors.BzrError("Showing base is not supported for this"
 
615
                                  " merge type. %s" % self.merge_type)
 
616
        if (not getattr(self.merge_type, 'supports_reverse_cherrypick', True)
 
617
                and not self.base_is_other_ancestor):
 
618
            raise errors.CannotReverseCherrypick()
 
619
        if self.merge_type.supports_cherrypick:
 
620
            kwargs['cherrypick'] = (not self.base_is_ancestor or
 
621
                                    not self.base_is_other_ancestor)
 
622
        if self._is_criss_cross and getattr(self.merge_type,
 
623
                                            'supports_lca_trees', False):
 
624
            kwargs['lca_trees'] = self._lca_trees
 
625
        return self.merge_type(change_reporter=self.change_reporter,
 
626
                               **kwargs)
 
627
 
 
628
    def _do_merge_to(self):
 
629
        merge = self.make_merger()
 
630
        if self.other_branch is not None:
 
631
            self.other_branch.update_references(self.this_branch)
 
632
        for hook in Merger.hooks['pre_merge']:
 
633
            hook(merge)
 
634
        merge.do_merge()
 
635
        for hook in Merger.hooks['post_merge']:
 
636
            hook(merge)
 
637
        if self.recurse == 'down':
 
638
            for relpath in self.this_tree.iter_references():
 
639
                sub_tree = self.this_tree.get_nested_tree(relpath)
 
640
                other_revision = self.other_tree.get_reference_revision(
 
641
                    relpath)
 
642
                if other_revision == sub_tree.last_revision():
 
643
                    continue
 
644
                sub_merge = Merger(sub_tree.branch, this_tree=sub_tree)
 
645
                sub_merge.merge_type = self.merge_type
 
646
                other_branch = self.other_branch.reference_parent(relpath)
 
647
                sub_merge.set_other_revision(other_revision, other_branch)
 
648
                base_tree_path = _mod_tree.find_previous_path(
 
649
                    self.this_tree, self.base_tree, relpath)
 
650
                base_revision = self.base_tree.get_reference_revision(
 
651
                    base_tree_path)
 
652
                sub_merge.base_tree = \
 
653
                    sub_tree.branch.repository.revision_tree(base_revision)
 
654
                sub_merge.base_rev_id = base_revision
 
655
                sub_merge.do_merge()
 
656
        return merge
 
657
 
 
658
    def do_merge(self):
 
659
        with cleanup.ExitStack() as stack:
 
660
            stack.enter_context(self.this_tree.lock_tree_write())
 
661
            if self.base_tree is not None:
 
662
                stack.enter_context(self.base_tree.lock_read())
 
663
            if self.other_tree is not None:
 
664
                stack.enter_context(self.other_tree.lock_read())
 
665
            merge = self._do_merge_to()
 
666
        if len(merge.cooked_conflicts) == 0:
 
667
            if not self.ignore_zero and not trace.is_quiet():
 
668
                trace.note(gettext("All changes applied successfully."))
 
669
        else:
 
670
            trace.note(gettext("%d conflicts encountered.")
 
671
                       % len(merge.cooked_conflicts))
 
672
 
 
673
        return len(merge.cooked_conflicts)
 
674
 
 
675
 
 
676
class _InventoryNoneEntry(object):
 
677
    """This represents an inventory entry which *isn't there*.
 
678
 
 
679
    It simplifies the merging logic if we always have an InventoryEntry, even
 
680
    if it isn't actually present
 
681
    """
 
682
    executable = None
 
683
    kind = None
 
684
    name = None
 
685
    parent_id = None
 
686
    revision = None
 
687
    symlink_target = None
 
688
    text_sha1 = None
 
689
 
 
690
 
 
691
_none_entry = _InventoryNoneEntry()
 
692
 
 
693
 
 
694
class Merge3Merger(object):
 
695
    """Three-way merger that uses the merge3 text merger"""
 
696
    requires_base = True
 
697
    supports_reprocess = True
 
698
    supports_show_base = True
 
699
    history_based = False
 
700
    supports_cherrypick = True
 
701
    supports_reverse_cherrypick = True
 
702
    winner_idx = {"this": 2, "other": 1, "conflict": 1}
 
703
    supports_lca_trees = True
 
704
    requires_file_merge_plan = False
 
705
 
 
706
    def __init__(self, working_tree, this_tree, base_tree, other_tree,
 
707
                 reprocess=False, show_base=False,
 
708
                 change_reporter=None, interesting_files=None, do_merge=True,
 
709
                 cherrypick=False, lca_trees=None, this_branch=None,
 
710
                 other_branch=None):
 
711
        """Initialize the merger object and perform the merge.
 
712
 
 
713
        :param working_tree: The working tree to apply the merge to
 
714
        :param this_tree: The local tree in the merge operation
 
715
        :param base_tree: The common tree in the merge operation
 
716
        :param other_tree: The other tree to merge changes from
 
717
        :param this_branch: The branch associated with this_tree.  Defaults to
 
718
            this_tree.branch if not supplied.
 
719
        :param other_branch: The branch associated with other_tree, if any.
 
720
        :param: reprocess If True, perform conflict-reduction processing.
 
721
        :param show_base: If True, show the base revision in text conflicts.
 
722
            (incompatible with reprocess)
 
723
        :param change_reporter: An object that should report changes made
 
724
        :param interesting_files: The tree-relative paths of files that should
 
725
            participate in the merge.  If these paths refer to directories,
 
726
            the contents of those directories will also be included.  If not
 
727
            specified, all files may participate in the
 
728
            merge.
 
729
        :param lca_trees: Can be set to a dictionary of {revision_id:rev_tree}
 
730
            if the ancestry was found to include a criss-cross merge.
 
731
            Otherwise should be None.
 
732
        """
 
733
        object.__init__(self)
 
734
        if this_branch is None:
 
735
            this_branch = this_tree.branch
 
736
        self.interesting_files = interesting_files
 
737
        self.working_tree = working_tree
 
738
        self.this_tree = this_tree
 
739
        self.base_tree = base_tree
 
740
        self.other_tree = other_tree
 
741
        self.this_branch = this_branch
 
742
        self.other_branch = other_branch
 
743
        self._raw_conflicts = []
 
744
        self.cooked_conflicts = []
 
745
        self.reprocess = reprocess
 
746
        self.show_base = show_base
 
747
        self._lca_trees = lca_trees
 
748
        # Uncommenting this will change the default algorithm to always use
 
749
        # _entries_lca. This can be useful for running the test suite and
 
750
        # making sure we haven't missed any corner cases.
 
751
        # if lca_trees is None:
 
752
        #     self._lca_trees = [self.base_tree]
 
753
        self.change_reporter = change_reporter
 
754
        self.cherrypick = cherrypick
 
755
        if do_merge:
 
756
            self.do_merge()
 
757
 
 
758
    def do_merge(self):
 
759
        with cleanup.ExitStack() as stack:
 
760
            stack.enter_context(self.working_tree.lock_tree_write())
 
761
            stack.enter_context(self.this_tree.lock_read())
 
762
            stack.enter_context(self.base_tree.lock_read())
 
763
            stack.enter_context(self.other_tree.lock_read())
 
764
            self.tt = self.working_tree.get_transform()
 
765
            stack.enter_context(self.tt)
 
766
            self._compute_transform()
 
767
            results = self.tt.apply(no_conflicts=True)
 
768
            self.write_modified(results)
 
769
            try:
 
770
                self.working_tree.add_conflicts(self.cooked_conflicts)
 
771
            except errors.UnsupportedOperation:
 
772
                pass
 
773
 
 
774
    def make_preview_transform(self):
 
775
        with self.base_tree.lock_read(), self.other_tree.lock_read():
 
776
            self.tt = transform.TransformPreview(self.working_tree)
 
777
            self._compute_transform()
 
778
            return self.tt
 
779
 
 
780
    def _compute_transform(self):
 
781
        if self._lca_trees is None:
 
782
            entries = self._entries3()
 
783
            resolver = self._three_way
 
784
        else:
 
785
            entries = self._entries_lca()
 
786
            resolver = self._lca_multi_way
 
787
        # Prepare merge hooks
 
788
        factories = Merger.hooks['merge_file_content']
 
789
        # One hook for each registered one plus our default merger
 
790
        hooks = [factory(self) for factory in factories] + [self]
 
791
        self.active_hooks = [hook for hook in hooks if hook is not None]
 
792
        with ui.ui_factory.nested_progress_bar() as child_pb:
 
793
            for num, (file_id, changed, paths3, parents3, names3,
 
794
                      executable3) in enumerate(entries):
 
795
                # Try merging each entry
 
796
                child_pb.update(gettext('Preparing file merge'),
 
797
                                num, len(entries))
 
798
                self._merge_names(file_id, paths3, parents3,
 
799
                                  names3, resolver=resolver)
 
800
                if changed:
 
801
                    file_status = self._do_merge_contents(paths3, file_id)
 
802
                else:
 
803
                    file_status = 'unmodified'
 
804
                self._merge_executable(paths3, file_id, executable3,
 
805
                                       file_status, resolver=resolver)
 
806
        self.tt.fixup_new_roots()
 
807
        self._finish_computing_transform()
 
808
 
 
809
    def _finish_computing_transform(self):
 
810
        """Finalize the transform and report the changes.
 
811
 
 
812
        This is the second half of _compute_transform.
 
813
        """
 
814
        with ui.ui_factory.nested_progress_bar() as child_pb:
 
815
            fs_conflicts = transform.resolve_conflicts(
 
816
                self.tt, child_pb,
 
817
                lambda t, c: transform.conflict_pass(t, c, self.other_tree))
 
818
        if self.change_reporter is not None:
 
819
            from breezy import delta
 
820
            delta.report_changes(
 
821
                self.tt.iter_changes(), self.change_reporter)
 
822
        self.cook_conflicts(fs_conflicts)
 
823
        for conflict in self.cooked_conflicts:
 
824
            trace.warning('%s', conflict.describe())
 
825
 
 
826
    def _entries3(self):
 
827
        """Gather data about files modified between three trees.
 
828
 
 
829
        Return a list of tuples of file_id, changed, parents3, names3,
 
830
        executable3.  changed is a boolean indicating whether the file contents
 
831
        or kind were changed.  parents3 is a tuple of parent ids for base,
 
832
        other and this.  names3 is a tuple of names for base, other and this.
 
833
        executable3 is a tuple of execute-bit values for base, other and this.
 
834
        """
 
835
        result = []
 
836
        iterator = self.other_tree.iter_changes(self.base_tree,
 
837
                                                specific_files=self.interesting_files,
 
838
                                                extra_trees=[self.this_tree])
 
839
        this_interesting_files = self.this_tree.find_related_paths_across_trees(
 
840
            self.interesting_files, trees=[self.other_tree])
 
841
        this_entries = dict(self.this_tree.iter_entries_by_dir(
 
842
                            specific_files=this_interesting_files))
 
843
        for change in iterator:
 
844
            if change.path[0] is not None:
 
845
                this_path = _mod_tree.find_previous_path(
 
846
                    self.base_tree, self.this_tree, change.path[0])
 
847
            else:
 
848
                this_path = _mod_tree.find_previous_path(
 
849
                    self.other_tree, self.this_tree, change.path[1])
 
850
            this_entry = this_entries.get(this_path)
 
851
            if this_entry is not None:
 
852
                this_name = this_entry.name
 
853
                this_parent = this_entry.parent_id
 
854
                this_executable = this_entry.executable
 
855
            else:
 
856
                this_name = None
 
857
                this_parent = None
 
858
                this_executable = None
 
859
            parents3 = change.parent_id + (this_parent,)
 
860
            names3 = change.name + (this_name,)
 
861
            paths3 = change.path + (this_path, )
 
862
            executable3 = change.executable + (this_executable,)
 
863
            result.append(
 
864
                (change.file_id, change.changed_content, paths3,
 
865
                 parents3, names3, executable3))
 
866
        return result
 
867
 
 
868
    def _entries_lca(self):
 
869
        """Gather data about files modified between multiple trees.
 
870
 
 
871
        This compares OTHER versus all LCA trees, and for interesting entries,
 
872
        it then compares with THIS and BASE.
 
873
 
 
874
        For the multi-valued entries, the format will be (BASE, [lca1, lca2])
 
875
 
 
876
        :return: [(file_id, changed, paths, parents, names, executable)], where:
 
877
 
 
878
            * file_id: Simple file_id of the entry
 
879
            * changed: Boolean, True if the kind or contents changed else False
 
880
            * paths: ((base, [path, in, lcas]), path_other, path_this)
 
881
            * parents: ((base, [parent_id, in, lcas]), parent_id_other,
 
882
                        parent_id_this)
 
883
            * names:   ((base, [name, in, lcas]), name_in_other, name_in_this)
 
884
            * executable: ((base, [exec, in, lcas]), exec_in_other,
 
885
                        exec_in_this)
 
886
        """
 
887
        if self.interesting_files is not None:
 
888
            lookup_trees = [self.this_tree, self.base_tree]
 
889
            lookup_trees.extend(self._lca_trees)
 
890
            # I think we should include the lca trees as well
 
891
            interesting_files = self.other_tree.find_related_paths_across_trees(
 
892
                self.interesting_files, lookup_trees)
 
893
        else:
 
894
            interesting_files = None
 
895
        result = []
 
896
        from .multiwalker import MultiWalker
 
897
        walker = MultiWalker(self.other_tree, self._lca_trees)
 
898
 
 
899
        for other_path, file_id, other_ie, lca_values in walker.iter_all():
 
900
            # Is this modified at all from any of the other trees?
 
901
            if other_ie is None:
 
902
                other_ie = _none_entry
 
903
                other_path = None
 
904
            if interesting_files is not None and other_path not in interesting_files:
 
905
                continue
 
906
 
 
907
            # If other_revision is found in any of the lcas, that means this
 
908
            # node is uninteresting. This is because when merging, if there are
 
909
            # multiple heads(), we have to create a new node. So if we didn't,
 
910
            # we know that the ancestry is linear, and that OTHER did not
 
911
            # modify anything
 
912
            # See doc/developers/lca_merge_resolution.txt for details
 
913
            other_revision = other_ie.revision
 
914
            if other_revision is not None:
 
915
                # We can't use this shortcut when other_revision is None,
 
916
                # because it may be None because things are WorkingTrees, and
 
917
                # not because it is *actually* None.
 
918
                is_unmodified = False
 
919
                for lca_path, ie in lca_values:
 
920
                    if ie is not None and ie.revision == other_revision:
 
921
                        is_unmodified = True
 
922
                        break
 
923
                if is_unmodified:
 
924
                    continue
 
925
 
 
926
            lca_entries = []
 
927
            lca_paths = []
 
928
            for lca_path, lca_ie in lca_values:
 
929
                if lca_ie is None:
 
930
                    lca_entries.append(_none_entry)
 
931
                    lca_paths.append(None)
 
932
                else:
 
933
                    lca_entries.append(lca_ie)
 
934
                    lca_paths.append(lca_path)
 
935
 
 
936
            try:
 
937
                base_path = self.base_tree.id2path(file_id)
 
938
            except errors.NoSuchId:
 
939
                base_path = None
 
940
                base_ie = _none_entry
 
941
            else:
 
942
                base_ie = next(self.base_tree.iter_entries_by_dir(specific_files=[base_path]))[1]
 
943
 
 
944
            try:
 
945
                this_path = self.this_tree.id2path(file_id)
 
946
            except errors.NoSuchId:
 
947
                this_ie = _none_entry
 
948
                this_path = None
 
949
            else:
 
950
                this_ie = next(self.this_tree.iter_entries_by_dir(specific_files=[this_path]))[1]
 
951
 
 
952
            lca_kinds = []
 
953
            lca_parent_ids = []
 
954
            lca_names = []
 
955
            lca_executable = []
 
956
            for lca_ie in lca_entries:
 
957
                lca_kinds.append(lca_ie.kind)
 
958
                lca_parent_ids.append(lca_ie.parent_id)
 
959
                lca_names.append(lca_ie.name)
 
960
                lca_executable.append(lca_ie.executable)
 
961
 
 
962
            kind_winner = self._lca_multi_way(
 
963
                (base_ie.kind, lca_kinds),
 
964
                other_ie.kind, this_ie.kind)
 
965
            parent_id_winner = self._lca_multi_way(
 
966
                (base_ie.parent_id, lca_parent_ids),
 
967
                other_ie.parent_id, this_ie.parent_id)
 
968
            name_winner = self._lca_multi_way(
 
969
                (base_ie.name, lca_names),
 
970
                other_ie.name, this_ie.name)
 
971
 
 
972
            content_changed = True
 
973
            if kind_winner == 'this':
 
974
                # No kind change in OTHER, see if there are *any* changes
 
975
                if other_ie.kind == 'directory':
 
976
                    if parent_id_winner == 'this' and name_winner == 'this':
 
977
                        # No change for this directory in OTHER, skip
 
978
                        continue
 
979
                    content_changed = False
 
980
                elif other_ie.kind is None or other_ie.kind == 'file':
 
981
                    def get_sha1(tree, path):
 
982
                        if path is None:
 
983
                            return None
 
984
                        try:
 
985
                            return tree.get_file_sha1(path)
 
986
                        except errors.NoSuchFile:
 
987
                            return None
 
988
                    base_sha1 = get_sha1(self.base_tree, base_path)
 
989
                    lca_sha1s = [get_sha1(tree, lca_path)
 
990
                                 for tree, lca_path
 
991
                                 in zip(self._lca_trees, lca_paths)]
 
992
                    this_sha1 = get_sha1(self.this_tree, this_path)
 
993
                    other_sha1 = get_sha1(self.other_tree, other_path)
 
994
                    sha1_winner = self._lca_multi_way(
 
995
                        (base_sha1, lca_sha1s), other_sha1, this_sha1,
 
996
                        allow_overriding_lca=False)
 
997
                    exec_winner = self._lca_multi_way(
 
998
                        (base_ie.executable, lca_executable),
 
999
                        other_ie.executable, this_ie.executable)
 
1000
                    if (parent_id_winner == 'this' and name_winner == 'this'
 
1001
                            and sha1_winner == 'this' and exec_winner == 'this'):
 
1002
                        # No kind, parent, name, exec, or content change for
 
1003
                        # OTHER, so this node is not considered interesting
 
1004
                        continue
 
1005
                    if sha1_winner == 'this':
 
1006
                        content_changed = False
 
1007
                elif other_ie.kind == 'symlink':
 
1008
                    def get_target(ie, tree, path):
 
1009
                        if ie.kind != 'symlink':
 
1010
                            return None
 
1011
                        return tree.get_symlink_target(path)
 
1012
                    base_target = get_target(base_ie, self.base_tree, base_path)
 
1013
                    lca_targets = [get_target(ie, tree, lca_path) for ie, tree, lca_path
 
1014
                                   in zip(lca_entries, self._lca_trees, lca_paths)]
 
1015
                    this_target = get_target(
 
1016
                        this_ie, self.this_tree, this_path)
 
1017
                    other_target = get_target(
 
1018
                        other_ie, self.other_tree, other_path)
 
1019
                    target_winner = self._lca_multi_way(
 
1020
                        (base_target, lca_targets),
 
1021
                        other_target, this_target)
 
1022
                    if (parent_id_winner == 'this' and name_winner == 'this'
 
1023
                            and target_winner == 'this'):
 
1024
                        # No kind, parent, name, or symlink target change
 
1025
                        # not interesting
 
1026
                        continue
 
1027
                    if target_winner == 'this':
 
1028
                        content_changed = False
 
1029
                elif other_ie.kind == 'tree-reference':
 
1030
                    # The 'changed' information seems to be handled at a higher
 
1031
                    # level. At least, _entries3 returns False for content
 
1032
                    # changed, even when at a new revision_id.
 
1033
                    content_changed = False
 
1034
                    if (parent_id_winner == 'this' and name_winner == 'this'):
 
1035
                        # Nothing interesting
 
1036
                        continue
 
1037
                else:
 
1038
                    raise AssertionError('unhandled kind: %s' % other_ie.kind)
 
1039
 
 
1040
            # If we have gotten this far, that means something has changed
 
1041
            result.append((file_id, content_changed,
 
1042
                           ((base_path, lca_paths),
 
1043
                            other_path, this_path),
 
1044
                           ((base_ie.parent_id, lca_parent_ids),
 
1045
                            other_ie.parent_id, this_ie.parent_id),
 
1046
                           ((base_ie.name, lca_names),
 
1047
                            other_ie.name, this_ie.name),
 
1048
                           ((base_ie.executable, lca_executable),
 
1049
                            other_ie.executable, this_ie.executable)
 
1050
                           ))
 
1051
        return result
 
1052
 
 
1053
    def write_modified(self, results):
 
1054
        if not self.working_tree.supports_merge_modified():
 
1055
            return
 
1056
        modified_hashes = {}
 
1057
        for path in results.modified_paths:
 
1058
            wt_relpath = self.working_tree.relpath(path)
 
1059
            if not self.working_tree.is_versioned(wt_relpath):
 
1060
                continue
 
1061
            hash = self.working_tree.get_file_sha1(wt_relpath)
 
1062
            if hash is None:
 
1063
                continue
 
1064
            modified_hashes[wt_relpath] = hash
 
1065
        self.working_tree.set_merge_modified(modified_hashes)
 
1066
 
 
1067
    @staticmethod
 
1068
    def parent(entry):
 
1069
        """Determine the parent for a file_id (used as a key method)"""
 
1070
        if entry is None:
 
1071
            return None
 
1072
        return entry.parent_id
 
1073
 
 
1074
    @staticmethod
 
1075
    def name(entry):
 
1076
        """Determine the name for a file_id (used as a key method)"""
 
1077
        if entry is None:
 
1078
            return None
 
1079
        return entry.name
 
1080
 
 
1081
    @staticmethod
 
1082
    def contents_sha1(tree, path):
 
1083
        """Determine the sha1 of the file contents (used as a key method)."""
 
1084
        try:
 
1085
            return tree.get_file_sha1(path)
 
1086
        except errors.NoSuchFile:
 
1087
            return None
 
1088
 
 
1089
    @staticmethod
 
1090
    def executable(tree, path):
 
1091
        """Determine the executability of a file-id (used as a key method)."""
 
1092
        try:
 
1093
            if tree.kind(path) != "file":
 
1094
                return False
 
1095
        except errors.NoSuchFile:
 
1096
            return None
 
1097
        return tree.is_executable(path)
 
1098
 
 
1099
    @staticmethod
 
1100
    def kind(tree, path):
 
1101
        """Determine the kind of a file-id (used as a key method)."""
 
1102
        try:
 
1103
            return tree.kind(path)
 
1104
        except errors.NoSuchFile:
 
1105
            return None
 
1106
 
 
1107
    @staticmethod
 
1108
    def _three_way(base, other, this):
 
1109
        if base == other:
 
1110
            # if 'base == other', either they all agree, or only 'this' has
 
1111
            # changed.
 
1112
            return 'this'
 
1113
        elif this not in (base, other):
 
1114
            # 'this' is neither 'base' nor 'other', so both sides changed
 
1115
            return 'conflict'
 
1116
        elif this == other:
 
1117
            # "Ambiguous clean merge" -- both sides have made the same change.
 
1118
            return "this"
 
1119
        else:
 
1120
            # this == base: only other has changed.
 
1121
            return "other"
 
1122
 
 
1123
    @staticmethod
 
1124
    def _lca_multi_way(bases, other, this, allow_overriding_lca=True):
 
1125
        """Consider LCAs when determining whether a change has occurred.
 
1126
 
 
1127
        If LCAS are all identical, this is the same as a _three_way comparison.
 
1128
 
 
1129
        :param bases: value in (BASE, [LCAS])
 
1130
        :param other: value in OTHER
 
1131
        :param this: value in THIS
 
1132
        :param allow_overriding_lca: If there is more than one unique lca
 
1133
            value, allow OTHER to override THIS if it has a new value, and
 
1134
            THIS only has an lca value, or vice versa. This is appropriate for
 
1135
            truly scalar values, not as much for non-scalars.
 
1136
        :return: 'this', 'other', or 'conflict' depending on whether an entry
 
1137
            changed or not.
 
1138
        """
 
1139
        # See doc/developers/lca_tree_merging.txt for details about this
 
1140
        # algorithm.
 
1141
        if other == this:
 
1142
            # Either Ambiguously clean, or nothing was actually changed. We
 
1143
            # don't really care
 
1144
            return 'this'
 
1145
        base_val, lca_vals = bases
 
1146
        # Remove 'base_val' from the lca_vals, because it is not interesting
 
1147
        filtered_lca_vals = [lca_val for lca_val in lca_vals
 
1148
                             if lca_val != base_val]
 
1149
        if len(filtered_lca_vals) == 0:
 
1150
            return Merge3Merger._three_way(base_val, other, this)
 
1151
 
 
1152
        unique_lca_vals = set(filtered_lca_vals)
 
1153
        if len(unique_lca_vals) == 1:
 
1154
            return Merge3Merger._three_way(unique_lca_vals.pop(), other, this)
 
1155
 
 
1156
        if allow_overriding_lca:
 
1157
            if other in unique_lca_vals:
 
1158
                if this in unique_lca_vals:
 
1159
                    # Each side picked a different lca, conflict
 
1160
                    return 'conflict'
 
1161
                else:
 
1162
                    # This has a value which supersedes both lca values, and
 
1163
                    # other only has an lca value
 
1164
                    return 'this'
 
1165
            elif this in unique_lca_vals:
 
1166
                # OTHER has a value which supersedes both lca values, and this
 
1167
                # only has an lca value
 
1168
                return 'other'
 
1169
 
 
1170
        # At this point, the lcas disagree, and the tip disagree
 
1171
        return 'conflict'
 
1172
 
 
1173
    def _merge_names(self, file_id, paths, parents, names, resolver):
 
1174
        """Perform a merge on file_id names and parents"""
 
1175
        base_name, other_name, this_name = names
 
1176
        base_parent, other_parent, this_parent = parents
 
1177
        unused_base_path, other_path, this_path = paths
 
1178
 
 
1179
        name_winner = resolver(*names)
 
1180
 
 
1181
        parent_id_winner = resolver(*parents)
 
1182
        if this_name is None:
 
1183
            if name_winner == "this":
 
1184
                name_winner = "other"
 
1185
            if parent_id_winner == "this":
 
1186
                parent_id_winner = "other"
 
1187
        if name_winner == "this" and parent_id_winner == "this":
 
1188
            return
 
1189
        if name_winner == 'conflict' or parent_id_winner == 'conflict':
 
1190
            # Creating helpers (.OTHER or .THIS) here cause problems down the
 
1191
            # road if a ContentConflict needs to be created so we should not do
 
1192
            # that
 
1193
            trans_id = self.tt.trans_id_file_id(file_id)
 
1194
            self._raw_conflicts.append(('path conflict', trans_id, file_id,
 
1195
                                        this_parent, this_name,
 
1196
                                        other_parent, other_name))
 
1197
        if other_path is None:
 
1198
            # it doesn't matter whether the result was 'other' or
 
1199
            # 'conflict'-- if it has no file id, we leave it alone.
 
1200
            return
 
1201
        parent_id = parents[self.winner_idx[parent_id_winner]]
 
1202
        name = names[self.winner_idx[name_winner]]
 
1203
        if parent_id is not None or name is not None:
 
1204
            # if we get here, name_winner and parent_winner are set to safe
 
1205
            # values.
 
1206
            if parent_id is None and name is not None:
 
1207
                # if parent_id is None and name is non-None, current file is
 
1208
                # the tree root.
 
1209
                if names[self.winner_idx[parent_id_winner]] != '':
 
1210
                    raise AssertionError(
 
1211
                        'File looks like a root, but named %s' %
 
1212
                        names[self.winner_idx[parent_id_winner]])
 
1213
                parent_trans_id = transform.ROOT_PARENT
 
1214
            else:
 
1215
                parent_trans_id = self.tt.trans_id_file_id(parent_id)
 
1216
            self.tt.adjust_path(name, parent_trans_id,
 
1217
                                self.tt.trans_id_file_id(file_id))
 
1218
 
 
1219
    def _do_merge_contents(self, paths, file_id):
 
1220
        """Performs a merge on file_id contents."""
 
1221
        def contents_pair(tree, path):
 
1222
            if path is None:
 
1223
                return (None, None)
 
1224
            try:
 
1225
                kind = tree.kind(path)
 
1226
            except errors.NoSuchFile:
 
1227
                return (None, None)
 
1228
            if kind == "file":
 
1229
                contents = tree.get_file_sha1(path)
 
1230
            elif kind == "symlink":
 
1231
                contents = tree.get_symlink_target(path)
 
1232
            else:
 
1233
                contents = None
 
1234
            return kind, contents
 
1235
 
 
1236
        base_path, other_path, this_path = paths
 
1237
        # See SPOT run.  run, SPOT, run.
 
1238
        # So we're not QUITE repeating ourselves; we do tricky things with
 
1239
        # file kind...
 
1240
        other_pair = contents_pair(self.other_tree, other_path)
 
1241
        this_pair = contents_pair(self.this_tree, this_path)
 
1242
        if self._lca_trees:
 
1243
            (base_path, lca_paths) = base_path
 
1244
            base_pair = contents_pair(self.base_tree, base_path)
 
1245
            lca_pairs = [contents_pair(tree, path)
 
1246
                         for tree, path in zip(self._lca_trees, lca_paths)]
 
1247
            winner = self._lca_multi_way((base_pair, lca_pairs), other_pair,
 
1248
                                         this_pair, allow_overriding_lca=False)
 
1249
        else:
 
1250
            base_pair = contents_pair(self.base_tree, base_path)
 
1251
            if base_pair == other_pair:
 
1252
                winner = 'this'
 
1253
            else:
 
1254
                # We delayed evaluating this_pair as long as we can to avoid
 
1255
                # unnecessary sha1 calculation
 
1256
                this_pair = contents_pair(self.this_tree, this_path)
 
1257
                winner = self._three_way(base_pair, other_pair, this_pair)
 
1258
        if winner == 'this':
 
1259
            # No interesting changes introduced by OTHER
 
1260
            return "unmodified"
 
1261
        # We have a hypothetical conflict, but if we have files, then we
 
1262
        # can try to merge the content
 
1263
        trans_id = self.tt.trans_id_file_id(file_id)
 
1264
        params = MergeFileHookParams(
 
1265
            self, file_id, (base_path, other_path,
 
1266
                            this_path), trans_id, this_pair[0],
 
1267
            other_pair[0], winner)
 
1268
        hooks = self.active_hooks
 
1269
        hook_status = 'not_applicable'
 
1270
        for hook in hooks:
 
1271
            hook_status, lines = hook.merge_contents(params)
 
1272
            if hook_status != 'not_applicable':
 
1273
                # Don't try any more hooks, this one applies.
 
1274
                break
 
1275
        # If the merge ends up replacing the content of the file, we get rid of
 
1276
        # it at the end of this method (this variable is used to track the
 
1277
        # exceptions to this rule).
 
1278
        keep_this = False
 
1279
        result = "modified"
 
1280
        if hook_status == 'not_applicable':
 
1281
            # No merge hook was able to resolve the situation. Two cases exist:
 
1282
            # a content conflict or a duplicate one.
 
1283
            result = None
 
1284
            name = self.tt.final_name(trans_id)
 
1285
            parent_id = self.tt.final_parent(trans_id)
 
1286
            inhibit_content_conflict = False
 
1287
            if params.this_kind is None:  # file_id is not in THIS
 
1288
                # Is the name used for a different file_id ?
 
1289
                if self.this_tree.is_versioned(other_path):
 
1290
                    # Two entries for the same path
 
1291
                    keep_this = True
 
1292
                    # versioning the merged file will trigger a duplicate
 
1293
                    # conflict
 
1294
                    self.tt.version_file(file_id, trans_id)
 
1295
                    transform.create_from_tree(
 
1296
                        self.tt, trans_id, self.other_tree,
 
1297
                        other_path,
 
1298
                        filter_tree_path=self._get_filter_tree_path(other_path))
 
1299
                    inhibit_content_conflict = True
 
1300
            elif params.other_kind is None:  # file_id is not in OTHER
 
1301
                # Is the name used for a different file_id ?
 
1302
                if self.other_tree.is_versioned(this_path):
 
1303
                    # Two entries for the same path again, but here, the other
 
1304
                    # entry will also be merged.  We simply inhibit the
 
1305
                    # 'content' conflict creation because we know OTHER will
 
1306
                    # create (or has already created depending on ordering) an
 
1307
                    # entry at the same path. This will trigger a 'duplicate'
 
1308
                    # conflict later.
 
1309
                    keep_this = True
 
1310
                    inhibit_content_conflict = True
 
1311
            if not inhibit_content_conflict:
 
1312
                if params.this_kind is not None:
 
1313
                    self.tt.unversion_file(trans_id)
 
1314
                # This is a contents conflict, because none of the available
 
1315
                # functions could merge it.
 
1316
                file_group = self._dump_conflicts(
 
1317
                    name, (base_path, other_path, this_path), parent_id,
 
1318
                    file_id, set_version=True)
 
1319
                self._raw_conflicts.append(('contents conflict', file_group))
 
1320
        elif hook_status == 'success':
 
1321
            self.tt.create_file(lines, trans_id)
 
1322
        elif hook_status == 'conflicted':
 
1323
            # XXX: perhaps the hook should be able to provide
 
1324
            # the BASE/THIS/OTHER files?
 
1325
            self.tt.create_file(lines, trans_id)
 
1326
            self._raw_conflicts.append(('text conflict', trans_id))
 
1327
            name = self.tt.final_name(trans_id)
 
1328
            parent_id = self.tt.final_parent(trans_id)
 
1329
            self._dump_conflicts(
 
1330
                name, (base_path, other_path, this_path), parent_id, file_id)
 
1331
        elif hook_status == 'delete':
 
1332
            self.tt.unversion_file(trans_id)
 
1333
            result = "deleted"
 
1334
        elif hook_status == 'done':
 
1335
            # The hook function did whatever it needs to do directly, no
 
1336
            # further action needed here.
 
1337
            pass
 
1338
        else:
 
1339
            raise AssertionError('unknown hook_status: %r' % (hook_status,))
 
1340
        if not this_path and result == "modified":
 
1341
            self.tt.version_file(file_id, trans_id)
 
1342
        if not keep_this:
 
1343
            # The merge has been performed and produced a new content, so the
 
1344
            # old contents should not be retained.
 
1345
            self.tt.delete_contents(trans_id)
 
1346
        return result
 
1347
 
 
1348
    def _default_other_winner_merge(self, merge_hook_params):
 
1349
        """Replace this contents with other."""
 
1350
        trans_id = merge_hook_params.trans_id
 
1351
        if merge_hook_params.other_path is not None:
 
1352
            # OTHER changed the file
 
1353
            transform.create_from_tree(
 
1354
                self.tt, trans_id, self.other_tree,
 
1355
                merge_hook_params.other_path,
 
1356
                filter_tree_path=self._get_filter_tree_path(merge_hook_params.other_path))
 
1357
            return 'done', None
 
1358
        elif merge_hook_params.this_path is not None:
 
1359
            # OTHER deleted the file
 
1360
            return 'delete', None
 
1361
        else:
 
1362
            raise AssertionError(
 
1363
                'winner is OTHER, but file_id %r not in THIS or OTHER tree'
 
1364
                % (file_id,))
 
1365
 
 
1366
    def merge_contents(self, merge_hook_params):
 
1367
        """Fallback merge logic after user installed hooks."""
 
1368
        # This function is used in merge hooks as the fallback instance.
 
1369
        # Perhaps making this function and the functions it calls be a
 
1370
        # a separate class would be better.
 
1371
        if merge_hook_params.winner == 'other':
 
1372
            # OTHER is a straight winner, so replace this contents with other
 
1373
            return self._default_other_winner_merge(merge_hook_params)
 
1374
        elif merge_hook_params.is_file_merge():
 
1375
            # THIS and OTHER are both files, so text merge.  Either
 
1376
            # BASE is a file, or both converted to files, so at least we
 
1377
            # have agreement that output should be a file.
 
1378
            try:
 
1379
                self.text_merge(merge_hook_params.trans_id,
 
1380
                                merge_hook_params.paths, merge_hook_params.file_id)
 
1381
            except errors.BinaryFile:
 
1382
                return 'not_applicable', None
 
1383
            return 'done', None
 
1384
        else:
 
1385
            return 'not_applicable', None
 
1386
 
 
1387
    def get_lines(self, tree, path):
 
1388
        """Return the lines in a file, or an empty list."""
 
1389
        if path is None:
 
1390
            return []
 
1391
        try:
 
1392
            kind = tree.kind(path)
 
1393
        except errors.NoSuchFile:
 
1394
            return []
 
1395
        else:
 
1396
            if kind != 'file':
 
1397
                return []
 
1398
            return tree.get_file_lines(path)
 
1399
 
 
1400
    def text_merge(self, trans_id, paths, file_id):
 
1401
        """Perform a three-way text merge on a file_id"""
 
1402
        # it's possible that we got here with base as a different type.
 
1403
        # if so, we just want two-way text conflicts.
 
1404
        base_path, other_path, this_path = paths
 
1405
        base_lines = self.get_lines(self.base_tree, base_path)
 
1406
        other_lines = self.get_lines(self.other_tree, other_path)
 
1407
        this_lines = self.get_lines(self.this_tree, this_path)
 
1408
        m3 = merge3.Merge3(base_lines, this_lines, other_lines,
 
1409
                           is_cherrypick=self.cherrypick)
 
1410
        start_marker = b"!START OF MERGE CONFLICT!" + b"I HOPE THIS IS UNIQUE"
 
1411
        if self.show_base is True:
 
1412
            base_marker = b'|' * 7
 
1413
        else:
 
1414
            base_marker = None
 
1415
 
 
1416
        def iter_merge3(retval):
 
1417
            retval["text_conflicts"] = False
 
1418
            for line in m3.merge_lines(name_a=b"TREE",
 
1419
                                       name_b=b"MERGE-SOURCE",
 
1420
                                       name_base=b"BASE-REVISION",
 
1421
                                       start_marker=start_marker,
 
1422
                                       base_marker=base_marker,
 
1423
                                       reprocess=self.reprocess):
 
1424
                if line.startswith(start_marker):
 
1425
                    retval["text_conflicts"] = True
 
1426
                    yield line.replace(start_marker, b'<' * 7)
 
1427
                else:
 
1428
                    yield line
 
1429
        retval = {}
 
1430
        merge3_iterator = iter_merge3(retval)
 
1431
        self.tt.create_file(merge3_iterator, trans_id)
 
1432
        if retval["text_conflicts"] is True:
 
1433
            self._raw_conflicts.append(('text conflict', trans_id))
 
1434
            name = self.tt.final_name(trans_id)
 
1435
            parent_id = self.tt.final_parent(trans_id)
 
1436
            file_group = self._dump_conflicts(name, paths, parent_id, file_id,
 
1437
                                              this_lines, base_lines,
 
1438
                                              other_lines)
 
1439
            file_group.append(trans_id)
 
1440
 
 
1441
    def _get_filter_tree_path(self, path):
 
1442
        if self.this_tree.supports_content_filtering():
 
1443
            # We get the path from the working tree if it exists.
 
1444
            # That fails though when OTHER is adding a file, so
 
1445
            # we fall back to the other tree to find the path if
 
1446
            # it doesn't exist locally.
 
1447
            filter_path = _mod_tree.find_previous_path(
 
1448
                self.other_tree, self.working_tree, path)
 
1449
            if filter_path is None:
 
1450
                filter_path = path
 
1451
            return filter_path
 
1452
        # Skip the lookup for older formats
 
1453
        return None
 
1454
 
 
1455
    def _dump_conflicts(self, name, paths, parent_id, file_id, this_lines=None,
 
1456
                        base_lines=None, other_lines=None, set_version=False,
 
1457
                        no_base=False):
 
1458
        """Emit conflict files.
 
1459
        If this_lines, base_lines, or other_lines are omitted, they will be
 
1460
        determined automatically.  If set_version is true, the .OTHER, .THIS
 
1461
        or .BASE (in that order) will be created as versioned files.
 
1462
        """
 
1463
        base_path, other_path, this_path = paths
 
1464
        data = [('OTHER', self.other_tree, other_path, other_lines),
 
1465
                ('THIS', self.this_tree, this_path, this_lines)]
 
1466
        if not no_base:
 
1467
            data.append(('BASE', self.base_tree, base_path, base_lines))
 
1468
 
 
1469
        # We need to use the actual path in the working tree of the file here,
 
1470
        # ignoring the conflict suffixes
 
1471
        wt = self.this_tree
 
1472
        if wt.supports_content_filtering():
 
1473
            try:
 
1474
                filter_tree_path = wt.id2path(file_id)
 
1475
            except errors.NoSuchId:
 
1476
                # file has been deleted
 
1477
                filter_tree_path = None
 
1478
        else:
 
1479
            # Skip the id2path lookup for older formats
 
1480
            filter_tree_path = None
 
1481
 
 
1482
        versioned = False
 
1483
        file_group = []
 
1484
        for suffix, tree, path, lines in data:
 
1485
            if path is not None:
 
1486
                trans_id = self._conflict_file(
 
1487
                    name, parent_id, path, tree, suffix, lines,
 
1488
                    filter_tree_path)
 
1489
                file_group.append(trans_id)
 
1490
                if set_version and not versioned:
 
1491
                    self.tt.version_file(file_id, trans_id)
 
1492
                    versioned = True
 
1493
        return file_group
 
1494
 
 
1495
    def _conflict_file(self, name, parent_id, path, tree, suffix,
 
1496
                       lines=None, filter_tree_path=None):
 
1497
        """Emit a single conflict file."""
 
1498
        name = name + '.' + suffix
 
1499
        trans_id = self.tt.create_path(name, parent_id)
 
1500
        transform.create_from_tree(
 
1501
            self.tt, trans_id, tree, path,
 
1502
            chunks=lines,
 
1503
            filter_tree_path=filter_tree_path)
 
1504
        return trans_id
 
1505
 
 
1506
    def merge_executable(self, paths, file_id, file_status):
 
1507
        """Perform a merge on the execute bit."""
 
1508
        executable = [self.executable(t, p, file_id)
 
1509
                      for t, p in zip([self.base_tree, self.other_tree, self.this_tree], paths)]
 
1510
        self._merge_executable(paths, file_id, executable, file_status,
 
1511
                               resolver=self._three_way)
 
1512
 
 
1513
    def _merge_executable(self, paths, file_id, executable, file_status,
 
1514
                          resolver):
 
1515
        """Perform a merge on the execute bit."""
 
1516
        base_executable, other_executable, this_executable = executable
 
1517
        base_path, other_path, this_path = paths
 
1518
        if file_status == "deleted":
 
1519
            return
 
1520
        winner = resolver(*executable)
 
1521
        if winner == "conflict":
 
1522
            # There must be a None in here, if we have a conflict, but we
 
1523
            # need executability since file status was not deleted.
 
1524
            if other_path is None:
 
1525
                winner = "this"
 
1526
            else:
 
1527
                winner = "other"
 
1528
        if winner == 'this' and file_status != "modified":
 
1529
            return
 
1530
        trans_id = self.tt.trans_id_file_id(file_id)
 
1531
        if self.tt.final_kind(trans_id) != "file":
 
1532
            return
 
1533
        if winner == "this":
 
1534
            executability = this_executable
 
1535
        else:
 
1536
            if other_path is not None:
 
1537
                executability = other_executable
 
1538
            elif this_path is not None:
 
1539
                executability = this_executable
 
1540
            elif base_path is not None:
 
1541
                executability = base_executable
 
1542
        if executability is not None:
 
1543
            trans_id = self.tt.trans_id_file_id(file_id)
 
1544
            self.tt.set_executability(executability, trans_id)
 
1545
 
 
1546
    def cook_conflicts(self, fs_conflicts):
 
1547
        """Convert all conflicts into a form that doesn't depend on trans_id"""
 
1548
        content_conflict_file_ids = set()
 
1549
        cooked_conflicts = transform.cook_conflicts(fs_conflicts, self.tt)
 
1550
        fp = transform.FinalPaths(self.tt)
 
1551
        for conflict in self._raw_conflicts:
 
1552
            conflict_type = conflict[0]
 
1553
            if conflict_type == 'path conflict':
 
1554
                (trans_id, file_id,
 
1555
                 this_parent, this_name,
 
1556
                 other_parent, other_name) = conflict[1:]
 
1557
                if this_parent is None or this_name is None:
 
1558
                    this_path = '<deleted>'
 
1559
                else:
 
1560
                    parent_path = fp.get_path(
 
1561
                        self.tt.trans_id_file_id(this_parent))
 
1562
                    this_path = osutils.pathjoin(parent_path, this_name)
 
1563
                if other_parent is None or other_name is None:
 
1564
                    other_path = '<deleted>'
 
1565
                else:
 
1566
                    if other_parent == self.other_tree.get_root_id():
 
1567
                        # The tree transform doesn't know about the other root,
 
1568
                        # so we special case here to avoid a NoFinalPath
 
1569
                        # exception
 
1570
                        parent_path = ''
 
1571
                    else:
 
1572
                        parent_path = fp.get_path(
 
1573
                            self.tt.trans_id_file_id(other_parent))
 
1574
                    other_path = osutils.pathjoin(parent_path, other_name)
 
1575
                c = _mod_conflicts.Conflict.factory(
 
1576
                    'path conflict', path=this_path,
 
1577
                    conflict_path=other_path,
 
1578
                    file_id=file_id)
 
1579
            elif conflict_type == 'contents conflict':
 
1580
                for trans_id in conflict[1]:
 
1581
                    file_id = self.tt.final_file_id(trans_id)
 
1582
                    if file_id is not None:
 
1583
                        # Ok we found the relevant file-id
 
1584
                        break
 
1585
                path = fp.get_path(trans_id)
 
1586
                for suffix in ('.BASE', '.THIS', '.OTHER'):
 
1587
                    if path.endswith(suffix):
 
1588
                        # Here is the raw path
 
1589
                        path = path[:-len(suffix)]
 
1590
                        break
 
1591
                c = _mod_conflicts.Conflict.factory(conflict_type,
 
1592
                                                    path=path, file_id=file_id)
 
1593
                content_conflict_file_ids.add(file_id)
 
1594
            elif conflict_type == 'text conflict':
 
1595
                trans_id = conflict[1]
 
1596
                path = fp.get_path(trans_id)
 
1597
                file_id = self.tt.final_file_id(trans_id)
 
1598
                c = _mod_conflicts.Conflict.factory(conflict_type,
 
1599
                                                    path=path, file_id=file_id)
 
1600
            else:
 
1601
                raise AssertionError('bad conflict type: %r' % (conflict,))
 
1602
            cooked_conflicts.append(c)
 
1603
 
 
1604
        self.cooked_conflicts = []
 
1605
        # We want to get rid of path conflicts when a corresponding contents
 
1606
        # conflict exists. This can occur when one branch deletes a file while
 
1607
        # the other renames *and* modifies it. In this case, the content
 
1608
        # conflict is enough.
 
1609
        for c in cooked_conflicts:
 
1610
            if (c.typestring == 'path conflict'
 
1611
                    and c.file_id in content_conflict_file_ids):
 
1612
                continue
 
1613
            self.cooked_conflicts.append(c)
 
1614
        self.cooked_conflicts.sort(key=_mod_conflicts.Conflict.sort_key)
 
1615
 
 
1616
 
 
1617
class WeaveMerger(Merge3Merger):
 
1618
    """Three-way tree merger, text weave merger."""
 
1619
    supports_reprocess = True
 
1620
    supports_show_base = False
 
1621
    supports_reverse_cherrypick = False
 
1622
    history_based = True
 
1623
    requires_file_merge_plan = True
 
1624
 
 
1625
    def _generate_merge_plan(self, file_id, base):
 
1626
        return self.this_tree.plan_file_merge(file_id, self.other_tree,
 
1627
                                              base=base)
 
1628
 
 
1629
    def _merged_lines(self, file_id):
 
1630
        """Generate the merged lines.
 
1631
        There is no distinction between lines that are meant to contain <<<<<<<
 
1632
        and conflicts.
 
1633
        """
 
1634
        if self.cherrypick:
 
1635
            base = self.base_tree
 
1636
        else:
 
1637
            base = None
 
1638
        plan = self._generate_merge_plan(file_id, base)
 
1639
        if 'merge' in debug.debug_flags:
 
1640
            plan = list(plan)
 
1641
            trans_id = self.tt.trans_id_file_id(file_id)
 
1642
            name = self.tt.final_name(trans_id) + '.plan'
 
1643
            contents = (b'%11s|%s' % l for l in plan)
 
1644
            self.tt.new_file(name, self.tt.final_parent(trans_id), contents)
 
1645
        textmerge = versionedfile.PlanWeaveMerge(plan, b'<<<<<<< TREE\n',
 
1646
                                                 b'>>>>>>> MERGE-SOURCE\n')
 
1647
        lines, conflicts = textmerge.merge_lines(self.reprocess)
 
1648
        if conflicts:
 
1649
            base_lines = textmerge.base_from_plan()
 
1650
        else:
 
1651
            base_lines = None
 
1652
        return lines, base_lines
 
1653
 
 
1654
    def text_merge(self, trans_id, paths, file_id):
 
1655
        """Perform a (weave) text merge for a given file and file-id.
 
1656
        If conflicts are encountered, .THIS and .OTHER files will be emitted,
 
1657
        and a conflict will be noted.
 
1658
        """
 
1659
        base_path, other_path, this_path = paths
 
1660
        lines, base_lines = self._merged_lines(file_id)
 
1661
        lines = list(lines)
 
1662
        # Note we're checking whether the OUTPUT is binary in this case,
 
1663
        # because we don't want to get into weave merge guts.
 
1664
        textfile.check_text_lines(lines)
 
1665
        self.tt.create_file(lines, trans_id)
 
1666
        if base_lines is not None:
 
1667
            # Conflict
 
1668
            self._raw_conflicts.append(('text conflict', trans_id))
 
1669
            name = self.tt.final_name(trans_id)
 
1670
            parent_id = self.tt.final_parent(trans_id)
 
1671
            file_group = self._dump_conflicts(name, paths, parent_id, file_id,
 
1672
                                              no_base=False,
 
1673
                                              base_lines=base_lines)
 
1674
            file_group.append(trans_id)
 
1675
 
 
1676
 
 
1677
class LCAMerger(WeaveMerger):
 
1678
 
 
1679
    requires_file_merge_plan = True
 
1680
 
 
1681
    def _generate_merge_plan(self, file_id, base):
 
1682
        return self.this_tree.plan_file_lca_merge(file_id, self.other_tree,
 
1683
                                                  base=base)
 
1684
 
 
1685
 
 
1686
class Diff3Merger(Merge3Merger):
 
1687
    """Three-way merger using external diff3 for text merging"""
 
1688
 
 
1689
    requires_file_merge_plan = False
 
1690
 
 
1691
    def dump_file(self, temp_dir, name, tree, path):
 
1692
        out_path = osutils.pathjoin(temp_dir, name)
 
1693
        with open(out_path, "wb") as out_file:
 
1694
            in_file = tree.get_file(path)
 
1695
            for line in in_file:
 
1696
                out_file.write(line)
 
1697
        return out_path
 
1698
 
 
1699
    def text_merge(self, trans_id, paths, file_id):
 
1700
        """Perform a diff3 merge using a specified file-id and trans-id.
 
1701
        If conflicts are encountered, .BASE, .THIS. and .OTHER conflict files
 
1702
        will be dumped, and a will be conflict noted.
 
1703
        """
 
1704
        import breezy.patch
 
1705
        base_path, other_path, this_path = paths
 
1706
        temp_dir = osutils.mkdtemp(prefix="bzr-")
 
1707
        try:
 
1708
            new_file = osutils.pathjoin(temp_dir, "new")
 
1709
            this = self.dump_file(
 
1710
                temp_dir, "this", self.this_tree, this_path)
 
1711
            base = self.dump_file(
 
1712
                temp_dir, "base", self.base_tree, base_path)
 
1713
            other = self.dump_file(
 
1714
                temp_dir, "other", self.other_tree, other_path)
 
1715
            status = breezy.patch.diff3(new_file, this, base, other)
 
1716
            if status not in (0, 1):
 
1717
                raise errors.BzrError("Unhandled diff3 exit code")
 
1718
            with open(new_file, 'rb') as f:
 
1719
                self.tt.create_file(f, trans_id)
 
1720
            if status == 1:
 
1721
                name = self.tt.final_name(trans_id)
 
1722
                parent_id = self.tt.final_parent(trans_id)
 
1723
                self._dump_conflicts(name, paths, parent_id, file_id)
 
1724
                self._raw_conflicts.append(('text conflict', trans_id))
 
1725
        finally:
 
1726
            osutils.rmtree(temp_dir)
 
1727
 
 
1728
 
 
1729
class PathNotInTree(errors.BzrError):
 
1730
 
 
1731
    _fmt = """Merge-into failed because %(tree)s does not contain %(path)s."""
 
1732
 
 
1733
    def __init__(self, path, tree):
 
1734
        errors.BzrError.__init__(self, path=path, tree=tree)
 
1735
 
 
1736
 
 
1737
class MergeIntoMerger(Merger):
 
1738
    """Merger that understands other_tree will be merged into a subdir.
 
1739
 
 
1740
    This also changes the Merger api so that it uses real Branch, revision_id,
 
1741
    and RevisonTree objects, rather than using revision specs.
 
1742
    """
 
1743
 
 
1744
    def __init__(self, this_tree, other_branch, other_tree, target_subdir,
 
1745
                 source_subpath, other_rev_id=None):
 
1746
        """Create a new MergeIntoMerger object.
 
1747
 
 
1748
        source_subpath in other_tree will be effectively copied to
 
1749
        target_subdir in this_tree.
 
1750
 
 
1751
        :param this_tree: The tree that we will be merging into.
 
1752
        :param other_branch: The Branch we will be merging from.
 
1753
        :param other_tree: The RevisionTree object we want to merge.
 
1754
        :param target_subdir: The relative path where we want to merge
 
1755
            other_tree into this_tree
 
1756
        :param source_subpath: The relative path specifying the subtree of
 
1757
            other_tree to merge into this_tree.
 
1758
        """
 
1759
        # It is assumed that we are merging a tree that is not in our current
 
1760
        # ancestry, which means we are using the "EmptyTree" as our basis.
 
1761
        null_ancestor_tree = this_tree.branch.repository.revision_tree(
 
1762
            _mod_revision.NULL_REVISION)
 
1763
        super(MergeIntoMerger, self).__init__(
 
1764
            this_branch=this_tree.branch,
 
1765
            this_tree=this_tree,
 
1766
            other_tree=other_tree,
 
1767
            base_tree=null_ancestor_tree,
 
1768
            )
 
1769
        self._target_subdir = target_subdir
 
1770
        self._source_subpath = source_subpath
 
1771
        self.other_branch = other_branch
 
1772
        if other_rev_id is None:
 
1773
            other_rev_id = other_tree.get_revision_id()
 
1774
        self.other_rev_id = self.other_basis = other_rev_id
 
1775
        self.base_is_ancestor = True
 
1776
        self.backup_files = True
 
1777
        self.merge_type = Merge3Merger
 
1778
        self.show_base = False
 
1779
        self.reprocess = False
 
1780
        self.interesting_files = None
 
1781
        self.merge_type = _MergeTypeParameterizer(MergeIntoMergeType,
 
1782
                                                  target_subdir=self._target_subdir,
 
1783
                                                  source_subpath=self._source_subpath)
 
1784
        if self._source_subpath != '':
 
1785
            # If this isn't a partial merge make sure the revisions will be
 
1786
            # present.
 
1787
            self._maybe_fetch(self.other_branch, self.this_branch,
 
1788
                              self.other_basis)
 
1789
 
 
1790
    def set_pending(self):
 
1791
        if self._source_subpath != '':
 
1792
            return
 
1793
        Merger.set_pending(self)
 
1794
 
 
1795
 
 
1796
class _MergeTypeParameterizer(object):
 
1797
    """Wrap a merge-type class to provide extra parameters.
 
1798
 
 
1799
    This is hack used by MergeIntoMerger to pass some extra parameters to its
 
1800
    merge_type.  Merger.do_merge() sets up its own set of parameters to pass to
 
1801
    the 'merge_type' member.  It is difficult override do_merge without
 
1802
    re-writing the whole thing, so instead we create a wrapper which will pass
 
1803
    the extra parameters.
 
1804
    """
 
1805
 
 
1806
    def __init__(self, merge_type, **kwargs):
 
1807
        self._extra_kwargs = kwargs
 
1808
        self._merge_type = merge_type
 
1809
 
 
1810
    def __call__(self, *args, **kwargs):
 
1811
        kwargs.update(self._extra_kwargs)
 
1812
        return self._merge_type(*args, **kwargs)
 
1813
 
 
1814
    def __getattr__(self, name):
 
1815
        return getattr(self._merge_type, name)
 
1816
 
 
1817
 
 
1818
class MergeIntoMergeType(Merge3Merger):
 
1819
    """Merger that incorporates a tree (or part of a tree) into another."""
 
1820
 
 
1821
    def __init__(self, *args, **kwargs):
 
1822
        """Initialize the merger object.
 
1823
 
 
1824
        :param args: See Merge3Merger.__init__'s args.
 
1825
        :param kwargs: See Merge3Merger.__init__'s keyword args, except for
 
1826
            source_subpath and target_subdir.
 
1827
        :keyword source_subpath: The relative path specifying the subtree of
 
1828
            other_tree to merge into this_tree.
 
1829
        :keyword target_subdir: The relative path where we want to merge
 
1830
            other_tree into this_tree
 
1831
        """
 
1832
        # All of the interesting work happens during Merge3Merger.__init__(),
 
1833
        # so we have have to hack in to get our extra parameters set.
 
1834
        self._source_subpath = kwargs.pop('source_subpath')
 
1835
        self._target_subdir = kwargs.pop('target_subdir')
 
1836
        super(MergeIntoMergeType, self).__init__(*args, **kwargs)
 
1837
 
 
1838
    def _compute_transform(self):
 
1839
        with ui.ui_factory.nested_progress_bar() as child_pb:
 
1840
            entries = self._entries_to_incorporate()
 
1841
            entries = list(entries)
 
1842
            for num, (entry, parent_id, relpath) in enumerate(entries):
 
1843
                child_pb.update(gettext('Preparing file merge'),
 
1844
                                num, len(entries))
 
1845
                parent_trans_id = self.tt.trans_id_file_id(parent_id)
 
1846
                path = osutils.pathjoin(self._source_subpath, relpath)
 
1847
                trans_id = transform.new_by_entry(path, self.tt, entry,
 
1848
                                                  parent_trans_id, self.other_tree)
 
1849
        self._finish_computing_transform()
 
1850
 
 
1851
    def _entries_to_incorporate(self):
 
1852
        """Yields pairs of (inventory_entry, new_parent)."""
 
1853
        subdir_id = self.other_tree.path2id(self._source_subpath)
 
1854
        if subdir_id is None:
 
1855
            # XXX: The error would be clearer if it gave the URL of the source
 
1856
            # branch, but we don't have a reference to that here.
 
1857
            raise PathNotInTree(self._source_subpath, "Source tree")
 
1858
        subdir = next(self.other_tree.iter_entries_by_dir(
 
1859
            specific_files=[self._source_subpath]))[1]
 
1860
        parent_in_target = osutils.dirname(self._target_subdir)
 
1861
        target_id = self.this_tree.path2id(parent_in_target)
 
1862
        if target_id is None:
 
1863
            raise PathNotInTree(self._target_subdir, "Target tree")
 
1864
        name_in_target = osutils.basename(self._target_subdir)
 
1865
        merge_into_root = subdir.copy()
 
1866
        merge_into_root.name = name_in_target
 
1867
        if self.this_tree.has_id(merge_into_root.file_id):
 
1868
            # Give the root a new file-id.
 
1869
            # This can happen fairly easily if the directory we are
 
1870
            # incorporating is the root, and both trees have 'TREE_ROOT' as
 
1871
            # their root_id.  Users will expect this to Just Work, so we
 
1872
            # change the file-id here.
 
1873
            # Non-root file-ids could potentially conflict too.  That's really
 
1874
            # an edge case, so we don't do anything special for those.  We let
 
1875
            # them cause conflicts.
 
1876
            merge_into_root.file_id = generate_ids.gen_file_id(name_in_target)
 
1877
        yield (merge_into_root, target_id, '')
 
1878
        if subdir.kind != 'directory':
 
1879
            # No children, so we are done.
 
1880
            return
 
1881
        for path, entry in self.other_tree.root_inventory.iter_entries_by_dir(subdir_id):
 
1882
            parent_id = entry.parent_id
 
1883
            if parent_id == subdir.file_id:
 
1884
                # The root's parent ID has changed, so make sure children of
 
1885
                # the root refer to the new ID.
 
1886
                parent_id = merge_into_root.file_id
 
1887
            yield (entry, parent_id, path)
 
1888
 
 
1889
 
 
1890
def merge_inner(this_branch, other_tree, base_tree, ignore_zero=False,
 
1891
                backup_files=False,
 
1892
                merge_type=Merge3Merger,
 
1893
                show_base=False,
 
1894
                reprocess=False,
 
1895
                other_rev_id=None,
 
1896
                interesting_files=None,
 
1897
                this_tree=None,
 
1898
                change_reporter=None):
 
1899
    """Primary interface for merging.
 
1900
 
 
1901
    Typical use is probably::
 
1902
 
 
1903
        merge_inner(branch, branch.get_revision_tree(other_revision),
 
1904
                    branch.get_revision_tree(base_revision))
 
1905
    """
 
1906
    if this_tree is None:
 
1907
        raise errors.BzrError("breezy.merge.merge_inner requires a this_tree "
 
1908
                              "parameter")
 
1909
    merger = Merger(this_branch, other_tree, base_tree, this_tree=this_tree,
 
1910
                    change_reporter=change_reporter)
 
1911
    merger.backup_files = backup_files
 
1912
    merger.merge_type = merge_type
 
1913
    merger.ignore_zero = ignore_zero
 
1914
    merger.interesting_files = interesting_files
 
1915
    merger.show_base = show_base
 
1916
    merger.reprocess = reprocess
 
1917
    merger.other_rev_id = other_rev_id
 
1918
    merger.other_basis = other_rev_id
 
1919
    get_revision_id = getattr(base_tree, 'get_revision_id', None)
 
1920
    if get_revision_id is None:
 
1921
        get_revision_id = base_tree.last_revision
 
1922
    merger.cache_trees_with_revision_ids([other_tree, base_tree, this_tree])
 
1923
    merger.set_base_revision(get_revision_id(), this_branch)
 
1924
    return merger.do_merge()
 
1925
 
 
1926
 
 
1927
merge_type_registry = registry.Registry()
 
1928
merge_type_registry.register('diff3', Diff3Merger,
 
1929
                             "Merge using external diff3.")
 
1930
merge_type_registry.register('lca', LCAMerger,
 
1931
                             "LCA-newness merge.")
 
1932
merge_type_registry.register('merge3', Merge3Merger,
 
1933
                             "Native diff3-style merge.")
 
1934
merge_type_registry.register('weave', WeaveMerger,
 
1935
                             "Weave-based merge.")
 
1936
 
 
1937
 
 
1938
def get_merge_type_registry():
 
1939
    """Merge type registry was previously in breezy.option
 
1940
 
 
1941
    This method provides a backwards compatible way to retrieve it.
 
1942
    """
 
1943
    return merge_type_registry
 
1944
 
 
1945
 
 
1946
def _plan_annotate_merge(annotated_a, annotated_b, ancestors_a, ancestors_b):
 
1947
    def status_a(revision, text):
 
1948
        if revision in ancestors_b:
 
1949
            return 'killed-b', text
 
1950
        else:
 
1951
            return 'new-a', text
 
1952
 
 
1953
    def status_b(revision, text):
 
1954
        if revision in ancestors_a:
 
1955
            return 'killed-a', text
 
1956
        else:
 
1957
            return 'new-b', text
 
1958
 
 
1959
    plain_a = [t for (a, t) in annotated_a]
 
1960
    plain_b = [t for (a, t) in annotated_b]
 
1961
    matcher = patiencediff.PatienceSequenceMatcher(None, plain_a, plain_b)
 
1962
    blocks = matcher.get_matching_blocks()
 
1963
    a_cur = 0
 
1964
    b_cur = 0
 
1965
    for ai, bi, l in blocks:
 
1966
        # process all mismatched sections
 
1967
        # (last mismatched section is handled because blocks always
 
1968
        # includes a 0-length last block)
 
1969
        for revision, text in annotated_a[a_cur:ai]:
 
1970
            yield status_a(revision, text)
 
1971
        for revision, text in annotated_b[b_cur:bi]:
 
1972
            yield status_b(revision, text)
 
1973
        # and now the matched section
 
1974
        a_cur = ai + l
 
1975
        b_cur = bi + l
 
1976
        for text_a in plain_a[ai:a_cur]:
 
1977
            yield "unchanged", text_a
 
1978
 
 
1979
 
 
1980
class _PlanMergeBase(object):
 
1981
 
 
1982
    def __init__(self, a_rev, b_rev, vf, key_prefix):
 
1983
        """Contructor.
 
1984
 
 
1985
        :param a_rev: Revision-id of one revision to merge
 
1986
        :param b_rev: Revision-id of the other revision to merge
 
1987
        :param vf: A VersionedFiles containing both revisions
 
1988
        :param key_prefix: A prefix for accessing keys in vf, typically
 
1989
            (file_id,).
 
1990
        """
 
1991
        self.a_rev = a_rev
 
1992
        self.b_rev = b_rev
 
1993
        self.vf = vf
 
1994
        self._last_lines = None
 
1995
        self._last_lines_revision_id = None
 
1996
        self._cached_matching_blocks = {}
 
1997
        self._key_prefix = key_prefix
 
1998
        self._precache_tip_lines()
 
1999
 
 
2000
    def _precache_tip_lines(self):
 
2001
        lines = self.get_lines([self.a_rev, self.b_rev])
 
2002
        self.lines_a = lines[self.a_rev]
 
2003
        self.lines_b = lines[self.b_rev]
 
2004
 
 
2005
    def get_lines(self, revisions):
 
2006
        """Get lines for revisions from the backing VersionedFiles.
 
2007
 
 
2008
        :raises RevisionNotPresent: on absent texts.
 
2009
        """
 
2010
        keys = [(self._key_prefix + (rev,)) for rev in revisions]
 
2011
        result = {}
 
2012
        for record in self.vf.get_record_stream(keys, 'unordered', True):
 
2013
            if record.storage_kind == 'absent':
 
2014
                raise errors.RevisionNotPresent(record.key, self.vf)
 
2015
            result[record.key[-1]] = osutils.chunks_to_lines(
 
2016
                record.get_bytes_as('chunked'))
 
2017
        return result
 
2018
 
 
2019
    def plan_merge(self):
 
2020
        """Generate a 'plan' for merging the two revisions.
 
2021
 
 
2022
        This involves comparing their texts and determining the cause of
 
2023
        differences.  If text A has a line and text B does not, then either the
 
2024
        line was added to text A, or it was deleted from B.  Once the causes
 
2025
        are combined, they are written out in the format described in
 
2026
        VersionedFile.plan_merge
 
2027
        """
 
2028
        blocks = self._get_matching_blocks(self.a_rev, self.b_rev)
 
2029
        unique_a, unique_b = self._unique_lines(blocks)
 
2030
        new_a, killed_b = self._determine_status(self.a_rev, unique_a)
 
2031
        new_b, killed_a = self._determine_status(self.b_rev, unique_b)
 
2032
        return self._iter_plan(blocks, new_a, killed_b, new_b, killed_a)
 
2033
 
 
2034
    def _iter_plan(self, blocks, new_a, killed_b, new_b, killed_a):
 
2035
        last_i = 0
 
2036
        last_j = 0
 
2037
        for i, j, n in blocks:
 
2038
            for a_index in range(last_i, i):
 
2039
                if a_index in new_a:
 
2040
                    if a_index in killed_b:
 
2041
                        yield 'conflicted-a', self.lines_a[a_index]
 
2042
                    else:
 
2043
                        yield 'new-a', self.lines_a[a_index]
 
2044
                else:
 
2045
                    yield 'killed-b', self.lines_a[a_index]
 
2046
            for b_index in range(last_j, j):
 
2047
                if b_index in new_b:
 
2048
                    if b_index in killed_a:
 
2049
                        yield 'conflicted-b', self.lines_b[b_index]
 
2050
                    else:
 
2051
                        yield 'new-b', self.lines_b[b_index]
 
2052
                else:
 
2053
                    yield 'killed-a', self.lines_b[b_index]
 
2054
            # handle common lines
 
2055
            for a_index in range(i, i + n):
 
2056
                yield 'unchanged', self.lines_a[a_index]
 
2057
            last_i = i + n
 
2058
            last_j = j + n
 
2059
 
 
2060
    def _get_matching_blocks(self, left_revision, right_revision):
 
2061
        """Return a description of which sections of two revisions match.
 
2062
 
 
2063
        See SequenceMatcher.get_matching_blocks
 
2064
        """
 
2065
        cached = self._cached_matching_blocks.get((left_revision,
 
2066
                                                   right_revision))
 
2067
        if cached is not None:
 
2068
            return cached
 
2069
        if self._last_lines_revision_id == left_revision:
 
2070
            left_lines = self._last_lines
 
2071
            right_lines = self.get_lines([right_revision])[right_revision]
 
2072
        else:
 
2073
            lines = self.get_lines([left_revision, right_revision])
 
2074
            left_lines = lines[left_revision]
 
2075
            right_lines = lines[right_revision]
 
2076
        self._last_lines = right_lines
 
2077
        self._last_lines_revision_id = right_revision
 
2078
        matcher = patiencediff.PatienceSequenceMatcher(None, left_lines,
 
2079
                                                       right_lines)
 
2080
        return matcher.get_matching_blocks()
 
2081
 
 
2082
    def _unique_lines(self, matching_blocks):
 
2083
        """Analyse matching_blocks to determine which lines are unique
 
2084
 
 
2085
        :return: a tuple of (unique_left, unique_right), where the values are
 
2086
            sets of line numbers of unique lines.
 
2087
        """
 
2088
        last_i = 0
 
2089
        last_j = 0
 
2090
        unique_left = []
 
2091
        unique_right = []
 
2092
        for i, j, n in matching_blocks:
 
2093
            unique_left.extend(range(last_i, i))
 
2094
            unique_right.extend(range(last_j, j))
 
2095
            last_i = i + n
 
2096
            last_j = j + n
 
2097
        return unique_left, unique_right
 
2098
 
 
2099
    @staticmethod
 
2100
    def _subtract_plans(old_plan, new_plan):
 
2101
        """Remove changes from new_plan that came from old_plan.
 
2102
 
 
2103
        It is assumed that the difference between the old_plan and new_plan
 
2104
        is their choice of 'b' text.
 
2105
 
 
2106
        All lines from new_plan that differ from old_plan are emitted
 
2107
        verbatim.  All lines from new_plan that match old_plan but are
 
2108
        not about the 'b' revision are emitted verbatim.
 
2109
 
 
2110
        Lines that match and are about the 'b' revision are the lines we
 
2111
        don't want, so we convert 'killed-b' -> 'unchanged', and 'new-b'
 
2112
        is skipped entirely.
 
2113
        """
 
2114
        matcher = patiencediff.PatienceSequenceMatcher(None, old_plan,
 
2115
                                                       new_plan)
 
2116
        last_j = 0
 
2117
        for i, j, n in matcher.get_matching_blocks():
 
2118
            for jj in range(last_j, j):
 
2119
                yield new_plan[jj]
 
2120
            for jj in range(j, j + n):
 
2121
                plan_line = new_plan[jj]
 
2122
                if plan_line[0] == 'new-b':
 
2123
                    pass
 
2124
                elif plan_line[0] == 'killed-b':
 
2125
                    yield 'unchanged', plan_line[1]
 
2126
                else:
 
2127
                    yield plan_line
 
2128
            last_j = j + n
 
2129
 
 
2130
 
 
2131
class _PlanMerge(_PlanMergeBase):
 
2132
    """Plan an annotate merge using on-the-fly annotation"""
 
2133
 
 
2134
    def __init__(self, a_rev, b_rev, vf, key_prefix):
 
2135
        super(_PlanMerge, self).__init__(a_rev, b_rev, vf, key_prefix)
 
2136
        self.a_key = self._key_prefix + (self.a_rev,)
 
2137
        self.b_key = self._key_prefix + (self.b_rev,)
 
2138
        self.graph = _mod_graph.Graph(self.vf)
 
2139
        heads = self.graph.heads((self.a_key, self.b_key))
 
2140
        if len(heads) == 1:
 
2141
            # one side dominates, so we can just return its values, yay for
 
2142
            # per-file graphs
 
2143
            # Ideally we would know that before we get this far
 
2144
            self._head_key = heads.pop()
 
2145
            if self._head_key == self.a_key:
 
2146
                other = b_rev
 
2147
            else:
 
2148
                other = a_rev
 
2149
            trace.mutter('found dominating revision for %s\n%s > %s', self.vf,
 
2150
                         self._head_key[-1], other)
 
2151
            self._weave = None
 
2152
        else:
 
2153
            self._head_key = None
 
2154
            self._build_weave()
 
2155
 
 
2156
    def _precache_tip_lines(self):
 
2157
        # Turn this into a no-op, because we will do this later
 
2158
        pass
 
2159
 
 
2160
    def _find_recursive_lcas(self):
 
2161
        """Find all the ancestors back to a unique lca"""
 
2162
        cur_ancestors = (self.a_key, self.b_key)
 
2163
        # graph.find_lca(uncommon, keys) now returns plain NULL_REVISION,
 
2164
        # rather than a key tuple. We will just map that directly to no common
 
2165
        # ancestors.
 
2166
        parent_map = {}
 
2167
        while True:
 
2168
            next_lcas = self.graph.find_lca(*cur_ancestors)
 
2169
            # Map a plain NULL_REVISION to a simple no-ancestors
 
2170
            if next_lcas == {_mod_revision.NULL_REVISION}:
 
2171
                next_lcas = ()
 
2172
            # Order the lca's based on when they were merged into the tip
 
2173
            # While the actual merge portion of weave merge uses a set() of
 
2174
            # active revisions, the order of insertion *does* effect the
 
2175
            # implicit ordering of the texts.
 
2176
            for rev_key in cur_ancestors:
 
2177
                ordered_parents = tuple(self.graph.find_merge_order(rev_key,
 
2178
                                                                    next_lcas))
 
2179
                parent_map[rev_key] = ordered_parents
 
2180
            if len(next_lcas) == 0:
 
2181
                break
 
2182
            elif len(next_lcas) == 1:
 
2183
                parent_map[list(next_lcas)[0]] = ()
 
2184
                break
 
2185
            elif len(next_lcas) > 2:
 
2186
                # More than 2 lca's, fall back to grabbing all nodes between
 
2187
                # this and the unique lca.
 
2188
                trace.mutter('More than 2 LCAs, falling back to all nodes for:'
 
2189
                             ' %s, %s\n=> %s',
 
2190
                             self.a_key, self.b_key, cur_ancestors)
 
2191
                cur_lcas = next_lcas
 
2192
                while len(cur_lcas) > 1:
 
2193
                    cur_lcas = self.graph.find_lca(*cur_lcas)
 
2194
                if len(cur_lcas) == 0:
 
2195
                    # No common base to find, use the full ancestry
 
2196
                    unique_lca = None
 
2197
                else:
 
2198
                    unique_lca = list(cur_lcas)[0]
 
2199
                    if unique_lca == _mod_revision.NULL_REVISION:
 
2200
                        # find_lca will return a plain 'NULL_REVISION' rather
 
2201
                        # than a key tuple when there is no common ancestor, we
 
2202
                        # prefer to just use None, because it doesn't confuse
 
2203
                        # _get_interesting_texts()
 
2204
                        unique_lca = None
 
2205
                parent_map.update(self._find_unique_parents(next_lcas,
 
2206
                                                            unique_lca))
 
2207
                break
 
2208
            cur_ancestors = next_lcas
 
2209
        return parent_map
 
2210
 
 
2211
    def _find_unique_parents(self, tip_keys, base_key):
 
2212
        """Find ancestors of tip that aren't ancestors of base.
 
2213
 
 
2214
        :param tip_keys: Nodes that are interesting
 
2215
        :param base_key: Cull all ancestors of this node
 
2216
        :return: The parent map for all revisions between tip_keys and
 
2217
            base_key. base_key will be included. References to nodes outside of
 
2218
            the ancestor set will also be removed.
 
2219
        """
 
2220
        # TODO: this would be simpler if find_unique_ancestors took a list
 
2221
        #       instead of a single tip, internally it supports it, but it
 
2222
        #       isn't a "backwards compatible" api change.
 
2223
        if base_key is None:
 
2224
            parent_map = dict(self.graph.iter_ancestry(tip_keys))
 
2225
            # We remove NULL_REVISION because it isn't a proper tuple key, and
 
2226
            # thus confuses things like _get_interesting_texts, and our logic
 
2227
            # to add the texts into the memory weave.
 
2228
            if _mod_revision.NULL_REVISION in parent_map:
 
2229
                parent_map.pop(_mod_revision.NULL_REVISION)
 
2230
        else:
 
2231
            interesting = set()
 
2232
            for tip in tip_keys:
 
2233
                interesting.update(
 
2234
                    self.graph.find_unique_ancestors(tip, [base_key]))
 
2235
            parent_map = self.graph.get_parent_map(interesting)
 
2236
            parent_map[base_key] = ()
 
2237
        culled_parent_map, child_map, tails = self._remove_external_references(
 
2238
            parent_map)
 
2239
        # Remove all the tails but base_key
 
2240
        if base_key is not None:
 
2241
            tails.remove(base_key)
 
2242
            self._prune_tails(culled_parent_map, child_map, tails)
 
2243
        # Now remove all the uninteresting 'linear' regions
 
2244
        simple_map = _mod_graph.collapse_linear_regions(culled_parent_map)
 
2245
        return simple_map
 
2246
 
 
2247
    @staticmethod
 
2248
    def _remove_external_references(parent_map):
 
2249
        """Remove references that go outside of the parent map.
 
2250
 
 
2251
        :param parent_map: Something returned from Graph.get_parent_map(keys)
 
2252
        :return: (filtered_parent_map, child_map, tails)
 
2253
            filtered_parent_map is parent_map without external references
 
2254
            child_map is the {parent_key: [child_keys]} mapping
 
2255
            tails is a list of nodes that do not have any parents in the map
 
2256
        """
 
2257
        # TODO: The basic effect of this function seems more generic than
 
2258
        #       _PlanMerge. But the specific details of building a child_map,
 
2259
        #       and computing tails seems very specific to _PlanMerge.
 
2260
        #       Still, should this be in Graph land?
 
2261
        filtered_parent_map = {}
 
2262
        child_map = {}
 
2263
        tails = []
 
2264
        for key, parent_keys in viewitems(parent_map):
 
2265
            culled_parent_keys = [p for p in parent_keys if p in parent_map]
 
2266
            if not culled_parent_keys:
 
2267
                tails.append(key)
 
2268
            for parent_key in culled_parent_keys:
 
2269
                child_map.setdefault(parent_key, []).append(key)
 
2270
            # TODO: Do we want to do this, it adds overhead for every node,
 
2271
            #       just to say that the node has no children
 
2272
            child_map.setdefault(key, [])
 
2273
            filtered_parent_map[key] = culled_parent_keys
 
2274
        return filtered_parent_map, child_map, tails
 
2275
 
 
2276
    @staticmethod
 
2277
    def _prune_tails(parent_map, child_map, tails_to_remove):
 
2278
        """Remove tails from the parent map.
 
2279
 
 
2280
        This will remove the supplied revisions until no more children have 0
 
2281
        parents.
 
2282
 
 
2283
        :param parent_map: A dict of {child: [parents]}, this dictionary will
 
2284
            be modified in place.
 
2285
        :param tails_to_remove: A list of tips that should be removed,
 
2286
            this list will be consumed
 
2287
        :param child_map: The reverse dict of parent_map ({parent: [children]})
 
2288
            this dict will be modified
 
2289
        :return: None, parent_map will be modified in place.
 
2290
        """
 
2291
        while tails_to_remove:
 
2292
            next = tails_to_remove.pop()
 
2293
            parent_map.pop(next)
 
2294
            children = child_map.pop(next)
 
2295
            for child in children:
 
2296
                child_parents = parent_map[child]
 
2297
                child_parents.remove(next)
 
2298
                if len(child_parents) == 0:
 
2299
                    tails_to_remove.append(child)
 
2300
 
 
2301
    def _get_interesting_texts(self, parent_map):
 
2302
        """Return a dict of texts we are interested in.
 
2303
 
 
2304
        Note that the input is in key tuples, but the output is in plain
 
2305
        revision ids.
 
2306
 
 
2307
        :param parent_map: The output from _find_recursive_lcas
 
2308
        :return: A dict of {'revision_id':lines} as returned by
 
2309
            _PlanMergeBase.get_lines()
 
2310
        """
 
2311
        all_revision_keys = set(parent_map)
 
2312
        all_revision_keys.add(self.a_key)
 
2313
        all_revision_keys.add(self.b_key)
 
2314
 
 
2315
        # Everything else is in 'keys' but get_lines is in 'revision_ids'
 
2316
        all_texts = self.get_lines([k[-1] for k in all_revision_keys])
 
2317
        return all_texts
 
2318
 
 
2319
    def _build_weave(self):
 
2320
        from .bzr import weave
 
2321
        self._weave = weave.Weave(weave_name='in_memory_weave',
 
2322
                                  allow_reserved=True)
 
2323
        parent_map = self._find_recursive_lcas()
 
2324
 
 
2325
        all_texts = self._get_interesting_texts(parent_map)
 
2326
 
 
2327
        # Note: Unfortunately, the order given by topo_sort will effect the
 
2328
        # ordering resolution in the output. Specifically, if you add A then B,
 
2329
        # then in the output text A lines will show up before B lines. And, of
 
2330
        # course, topo_sort doesn't guarantee any real ordering.
 
2331
        # So we use merge_sort, and add a fake node on the tip.
 
2332
        # This ensures that left-hand parents will always be inserted into the
 
2333
        # weave before right-hand parents.
 
2334
        tip_key = self._key_prefix + (_mod_revision.CURRENT_REVISION,)
 
2335
        parent_map[tip_key] = (self.a_key, self.b_key)
 
2336
 
 
2337
        for seq_num, key, depth, eom in reversed(tsort.merge_sort(parent_map,
 
2338
                                                                  tip_key)):
 
2339
            if key == tip_key:
 
2340
                continue
 
2341
        # for key in tsort.topo_sort(parent_map):
 
2342
            parent_keys = parent_map[key]
 
2343
            revision_id = key[-1]
 
2344
            parent_ids = [k[-1] for k in parent_keys]
 
2345
            self._weave.add_lines(revision_id, parent_ids,
 
2346
                                  all_texts[revision_id])
 
2347
 
 
2348
    def plan_merge(self):
 
2349
        """Generate a 'plan' for merging the two revisions.
 
2350
 
 
2351
        This involves comparing their texts and determining the cause of
 
2352
        differences.  If text A has a line and text B does not, then either the
 
2353
        line was added to text A, or it was deleted from B.  Once the causes
 
2354
        are combined, they are written out in the format described in
 
2355
        VersionedFile.plan_merge
 
2356
        """
 
2357
        if self._head_key is not None:  # There was a single head
 
2358
            if self._head_key == self.a_key:
 
2359
                plan = 'new-a'
 
2360
            else:
 
2361
                if self._head_key != self.b_key:
 
2362
                    raise AssertionError('There was an invalid head: %s != %s'
 
2363
                                         % (self.b_key, self._head_key))
 
2364
                plan = 'new-b'
 
2365
            head_rev = self._head_key[-1]
 
2366
            lines = self.get_lines([head_rev])[head_rev]
 
2367
            return ((plan, line) for line in lines)
 
2368
        return self._weave.plan_merge(self.a_rev, self.b_rev)
 
2369
 
 
2370
 
 
2371
class _PlanLCAMerge(_PlanMergeBase):
 
2372
    """
 
2373
    This merge algorithm differs from _PlanMerge in that:
 
2374
 
 
2375
    1. comparisons are done against LCAs only
 
2376
    2. cases where a contested line is new versus one LCA but old versus
 
2377
       another are marked as conflicts, by emitting the line as conflicted-a
 
2378
       or conflicted-b.
 
2379
 
 
2380
    This is faster, and hopefully produces more useful output.
 
2381
    """
 
2382
 
 
2383
    def __init__(self, a_rev, b_rev, vf, key_prefix, graph):
 
2384
        _PlanMergeBase.__init__(self, a_rev, b_rev, vf, key_prefix)
 
2385
        lcas = graph.find_lca(key_prefix + (a_rev,), key_prefix + (b_rev,))
 
2386
        self.lcas = set()
 
2387
        for lca in lcas:
 
2388
            if lca == _mod_revision.NULL_REVISION:
 
2389
                self.lcas.add(lca)
 
2390
            else:
 
2391
                self.lcas.add(lca[-1])
 
2392
        for lca in self.lcas:
 
2393
            if _mod_revision.is_null(lca):
 
2394
                lca_lines = []
 
2395
            else:
 
2396
                lca_lines = self.get_lines([lca])[lca]
 
2397
            matcher = patiencediff.PatienceSequenceMatcher(None, self.lines_a,
 
2398
                                                           lca_lines)
 
2399
            blocks = list(matcher.get_matching_blocks())
 
2400
            self._cached_matching_blocks[(a_rev, lca)] = blocks
 
2401
            matcher = patiencediff.PatienceSequenceMatcher(None, self.lines_b,
 
2402
                                                           lca_lines)
 
2403
            blocks = list(matcher.get_matching_blocks())
 
2404
            self._cached_matching_blocks[(b_rev, lca)] = blocks
 
2405
 
 
2406
    def _determine_status(self, revision_id, unique_line_numbers):
 
2407
        """Determines the status unique lines versus all lcas.
 
2408
 
 
2409
        Basically, determines why the line is unique to this revision.
 
2410
 
 
2411
        A line may be determined new, killed, or both.
 
2412
 
 
2413
        If a line is determined new, that means it was not present in at least
 
2414
        one LCA, and is not present in the other merge revision.
 
2415
 
 
2416
        If a line is determined killed, that means the line was present in
 
2417
        at least one LCA.
 
2418
 
 
2419
        If a line is killed and new, this indicates that the two merge
 
2420
        revisions contain differing conflict resolutions.
 
2421
 
 
2422
        :param revision_id: The id of the revision in which the lines are
 
2423
            unique
 
2424
        :param unique_line_numbers: The line numbers of unique lines.
 
2425
        :return: a tuple of (new_this, killed_other)
 
2426
        """
 
2427
        new = set()
 
2428
        killed = set()
 
2429
        unique_line_numbers = set(unique_line_numbers)
 
2430
        for lca in self.lcas:
 
2431
            blocks = self._get_matching_blocks(revision_id, lca)
 
2432
            unique_vs_lca, _ignored = self._unique_lines(blocks)
 
2433
            new.update(unique_line_numbers.intersection(unique_vs_lca))
 
2434
            killed.update(unique_line_numbers.difference(unique_vs_lca))
 
2435
        return new, killed