1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
3
 
# This program is free software; you can redistribute it and/or modify
 
4
 
# it under the terms of the GNU General Public License as published by
 
5
 
# the Free Software Foundation; either version 2 of the License, or
 
6
 
# (at your option) any later version.
 
8
 
# This program is distributed in the hope that it will be useful,
 
9
 
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
 
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
 
# GNU General Public License for more details.
 
13
 
# You should have received a copy of the GNU General Public License
 
14
 
# along with this program; if not, write to the Free Software
 
15
 
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
19
 
"""Code to show logs of changes.
 
21
 
Various flavors of log can be produced:
 
23
 
* for one file, or the whole tree, and (not done yet) for
 
24
 
  files in a given directory
 
26
 
* in "verbose" mode with a description of what changed from one
 
29
 
* with file-ids and revision-ids shown
 
31
 
Logs are actually written out through an abstract LogFormatter
 
32
 
interface, which allows for different preferred formats.  Plugins can
 
35
 
Logs can be produced in either forward (oldest->newest) or reverse
 
36
 
(newest->oldest) order.
 
38
 
Logs can be filtered to show only revisions matching a particular
 
39
 
search string, or within a particular range of revisions.  The range
 
40
 
can be given as date/times, which are reduced to revisions before
 
43
 
In verbose mode we show a summary of what changed in each particular
 
44
 
revision.  Note that this is the delta for changes in that revision
 
45
 
relative to its left-most parent, not the delta relative to the last
 
46
 
logged revision.  So for example if you ask for a verbose log of
 
47
 
changes touching hello.c you will get a list of those revisions also
 
48
 
listing other things that were changed in the same revision, but not
 
49
 
all the changes since the previous revision that touched hello.c.
 
53
 
from cStringIO import StringIO
 
54
 
from itertools import (
 
60
 
from warnings import (
 
64
 
from bzrlib.lazy_import import lazy_import
 
65
 
lazy_import(globals(), """
 
73
 
    repository as _mod_repository,
 
74
 
    revision as _mod_revision,
 
84
 
from bzrlib.osutils import (
 
86
 
    format_date_with_offset_in_original_timezone,
 
87
 
    get_terminal_encoding,
 
91
 
from bzrlib.symbol_versioning import (
 
97
 
def find_touching_revisions(branch, file_id):
 
98
 
    """Yield a description of revisions which affect the file_id.
 
100
 
    Each returned element is (revno, revision_id, description)
 
102
 
    This is the list of revisions where the file is either added,
 
103
 
    modified, renamed or deleted.
 
105
 
    TODO: Perhaps some way to limit this to only particular revisions,
 
106
 
    or to traverse a non-mainline set of revisions?
 
111
 
    for revision_id in branch.revision_history():
 
112
 
        this_inv = branch.repository.get_inventory(revision_id)
 
113
 
        if file_id in this_inv:
 
114
 
            this_ie = this_inv[file_id]
 
115
 
            this_path = this_inv.id2path(file_id)
 
117
 
            this_ie = this_path = None
 
119
 
        # now we know how it was last time, and how it is in this revision.
 
120
 
        # are those two states effectively the same or not?
 
122
 
        if not this_ie and not last_ie:
 
123
 
            # not present in either
 
125
 
        elif this_ie and not last_ie:
 
126
 
            yield revno, revision_id, "added " + this_path
 
127
 
        elif not this_ie and last_ie:
 
129
 
            yield revno, revision_id, "deleted " + last_path
 
130
 
        elif this_path != last_path:
 
131
 
            yield revno, revision_id, ("renamed %s => %s" % (last_path, this_path))
 
132
 
        elif (this_ie.text_size != last_ie.text_size
 
133
 
              or this_ie.text_sha1 != last_ie.text_sha1):
 
134
 
            yield revno, revision_id, "modified " + this_path
 
137
 
        last_path = this_path
 
141
 
def _enumerate_history(branch):
 
144
 
    for rev_id in branch.revision_history():
 
145
 
        rh.append((revno, rev_id))
 
152
 
             specific_fileid=None,
 
160
 
    """Write out human-readable log of commits to this branch.
 
162
 
    This function is being retained for backwards compatibility but
 
163
 
    should not be extended with new parameters. Use the new Logger class
 
164
 
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
165
 
    make_log_request_dict function.
 
167
 
    :param lf: The LogFormatter object showing the output.
 
169
 
    :param specific_fileid: If not None, list only the commits affecting the
 
170
 
        specified file, rather than all commits.
 
172
 
    :param verbose: If True show added/changed/deleted/renamed files.
 
174
 
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
177
 
    :param start_revision: If not None, only show revisions >= start_revision
 
179
 
    :param end_revision: If not None, only show revisions <= end_revision
 
181
 
    :param search: If not None, only show revisions with matching commit
 
184
 
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
 
187
 
    :param show_diff: If True, output a diff after each revision.
 
189
 
    # Convert old-style parameters to new-style parameters
 
190
 
    if specific_fileid is not None:
 
191
 
        file_ids = [specific_fileid]
 
196
 
            delta_type = 'partial'
 
203
 
            diff_type = 'partial'
 
209
 
    # Build the request and execute it
 
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
211
 
        start_revision=start_revision, end_revision=end_revision,
 
212
 
        limit=limit, message_search=search,
 
213
 
        delta_type=delta_type, diff_type=diff_type)
 
214
 
    Logger(branch, rqst).show(lf)
 
217
 
# Note: This needs to be kept this in sync with the defaults in
 
218
 
# make_log_request_dict() below
 
219
 
_DEFAULT_REQUEST_PARAMS = {
 
220
 
    'direction': 'reverse',
 
222
 
    'generate_tags': True,
 
223
 
    'exclude_common_ancestry': False,
 
224
 
    '_match_using_deltas': True,
 
228
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
229
 
                          start_revision=None, end_revision=None, limit=None,
 
230
 
                          message_search=None, levels=1, generate_tags=True,
 
232
 
                          diff_type=None, _match_using_deltas=True,
 
233
 
                          exclude_common_ancestry=False,
 
235
 
    """Convenience function for making a logging request dictionary.
 
237
 
    Using this function may make code slightly safer by ensuring
 
238
 
    parameters have the correct names. It also provides a reference
 
239
 
    point for documenting the supported parameters.
 
241
 
    :param direction: 'reverse' (default) is latest to earliest;
 
242
 
      'forward' is earliest to latest.
 
244
 
    :param specific_fileids: If not None, only include revisions
 
245
 
      affecting the specified files, rather than all revisions.
 
247
 
    :param start_revision: If not None, only generate
 
248
 
      revisions >= start_revision
 
250
 
    :param end_revision: If not None, only generate
 
251
 
      revisions <= end_revision
 
253
 
    :param limit: If set, generate only 'limit' revisions, all revisions
 
254
 
      are shown if None or 0.
 
256
 
    :param message_search: If not None, only include revisions with
 
257
 
      matching commit messages
 
259
 
    :param levels: the number of levels of revisions to
 
260
 
      generate; 1 for just the mainline; 0 for all levels.
 
262
 
    :param generate_tags: If True, include tags for matched revisions.
 
264
 
    :param delta_type: Either 'full', 'partial' or None.
 
265
 
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
266
 
      'partial' means filter the delta using specific_fileids;
 
267
 
      None means do not generate any delta.
 
269
 
    :param diff_type: Either 'full', 'partial' or None.
 
270
 
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
271
 
      'partial' means filter the diff using specific_fileids;
 
272
 
      None means do not generate any diff.
 
274
 
    :param _match_using_deltas: a private parameter controlling the
 
275
 
      algorithm used for matching specific_fileids. This parameter
 
276
 
      may be removed in the future so bzrlib client code should NOT
 
279
 
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
 
280
 
      range operator or as a graph difference.
 
283
 
        'direction': direction,
 
284
 
        'specific_fileids': specific_fileids,
 
285
 
        'start_revision': start_revision,
 
286
 
        'end_revision': end_revision,
 
288
 
        'message_search': message_search,
 
290
 
        'generate_tags': generate_tags,
 
291
 
        'delta_type': delta_type,
 
292
 
        'diff_type': diff_type,
 
293
 
        'exclude_common_ancestry': exclude_common_ancestry,
 
294
 
        # Add 'private' attributes for features that may be deprecated
 
295
 
        '_match_using_deltas': _match_using_deltas,
 
299
 
def _apply_log_request_defaults(rqst):
 
300
 
    """Apply default values to a request dictionary."""
 
301
 
    result = _DEFAULT_REQUEST_PARAMS
 
307
 
class LogGenerator(object):
 
308
 
    """A generator of log revisions."""
 
310
 
    def iter_log_revisions(self):
 
311
 
        """Iterate over LogRevision objects.
 
313
 
        :return: An iterator yielding LogRevision objects.
 
315
 
        raise NotImplementedError(self.iter_log_revisions)
 
318
 
class Logger(object):
 
319
 
    """An object that generates, formats and displays a log."""
 
321
 
    def __init__(self, branch, rqst):
 
324
 
        :param branch: the branch to log
 
325
 
        :param rqst: A dictionary specifying the query parameters.
 
326
 
          See make_log_request_dict() for supported values.
 
329
 
        self.rqst = _apply_log_request_defaults(rqst)
 
334
 
        :param lf: The LogFormatter object to send the output to.
 
336
 
        if not isinstance(lf, LogFormatter):
 
337
 
            warn("not a LogFormatter instance: %r" % lf)
 
339
 
        self.branch.lock_read()
 
341
 
            if getattr(lf, 'begin_log', None):
 
344
 
            if getattr(lf, 'end_log', None):
 
349
 
    def _show_body(self, lf):
 
350
 
        """Show the main log output.
 
352
 
        Subclasses may wish to override this.
 
354
 
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
355
 
        # (There's no point generating stuff if the formatter can't display it.)
 
357
 
        rqst['levels'] = lf.get_levels()
 
358
 
        if not getattr(lf, 'supports_tags', False):
 
359
 
            rqst['generate_tags'] = False
 
360
 
        if not getattr(lf, 'supports_delta', False):
 
361
 
            rqst['delta_type'] = None
 
362
 
        if not getattr(lf, 'supports_diff', False):
 
363
 
            rqst['diff_type'] = None
 
365
 
        # Find and print the interesting revisions
 
366
 
        generator = self._generator_factory(self.branch, rqst)
 
367
 
        for lr in generator.iter_log_revisions():
 
371
 
    def _generator_factory(self, branch, rqst):
 
372
 
        """Make the LogGenerator object to use.
 
374
 
        Subclasses may wish to override this.
 
376
 
        return _DefaultLogGenerator(branch, rqst)
 
379
 
class _StartNotLinearAncestor(Exception):
 
380
 
    """Raised when a start revision is not found walking left-hand history."""
 
383
 
class _DefaultLogGenerator(LogGenerator):
 
384
 
    """The default generator of log revisions."""
 
386
 
    def __init__(self, branch, rqst):
 
389
 
        if rqst.get('generate_tags') and branch.supports_tags():
 
390
 
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
392
 
            self.rev_tag_dict = {}
 
394
 
    def iter_log_revisions(self):
 
395
 
        """Iterate over LogRevision objects.
 
397
 
        :return: An iterator yielding LogRevision objects.
 
400
 
        levels = rqst.get('levels')
 
401
 
        limit = rqst.get('limit')
 
402
 
        diff_type = rqst.get('diff_type')
 
404
 
        revision_iterator = self._create_log_revision_iterator()
 
405
 
        for revs in revision_iterator:
 
406
 
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
407
 
                # 0 levels means show everything; merge_depth counts from 0
 
408
 
                if levels != 0 and merge_depth >= levels:
 
410
 
                if diff_type is None:
 
413
 
                    diff = self._format_diff(rev, rev_id, diff_type)
 
414
 
                yield LogRevision(rev, revno, merge_depth, delta,
 
415
 
                    self.rev_tag_dict.get(rev_id), diff)
 
418
 
                    if log_count >= limit:
 
421
 
    def _format_diff(self, rev, rev_id, diff_type):
 
422
 
        repo = self.branch.repository
 
423
 
        if len(rev.parent_ids) == 0:
 
424
 
            ancestor_id = _mod_revision.NULL_REVISION
 
426
 
            ancestor_id = rev.parent_ids[0]
 
427
 
        tree_1 = repo.revision_tree(ancestor_id)
 
428
 
        tree_2 = repo.revision_tree(rev_id)
 
429
 
        file_ids = self.rqst.get('specific_fileids')
 
430
 
        if diff_type == 'partial' and file_ids is not None:
 
431
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
433
 
            specific_files = None
 
435
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
439
 
    def _create_log_revision_iterator(self):
 
440
 
        """Create a revision iterator for log.
 
442
 
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
445
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
446
 
            self.branch, self.rqst.get('start_revision'),
 
447
 
            self.rqst.get('end_revision'))
 
448
 
        if self.rqst.get('_match_using_deltas'):
 
449
 
            return self._log_revision_iterator_using_delta_matching()
 
451
 
            # We're using the per-file-graph algorithm. This scales really
 
452
 
            # well but only makes sense if there is a single file and it's
 
454
 
            file_count = len(self.rqst.get('specific_fileids'))
 
456
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
457
 
                    "when logging %d files" % file_count)
 
458
 
            return self._log_revision_iterator_using_per_file_graph()
 
460
 
    def _log_revision_iterator_using_delta_matching(self):
 
461
 
        # Get the base revisions, filtering by the revision range
 
463
 
        generate_merge_revisions = rqst.get('levels') != 1
 
464
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
465
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
466
 
        view_revisions = _calc_view_revisions(
 
467
 
            self.branch, self.start_rev_id, self.end_rev_id,
 
468
 
            rqst.get('direction'),
 
469
 
            generate_merge_revisions=generate_merge_revisions,
 
470
 
            delayed_graph_generation=delayed_graph_generation,
 
471
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
473
 
        # Apply the other filters
 
474
 
        return make_log_rev_iterator(self.branch, view_revisions,
 
475
 
            rqst.get('delta_type'), rqst.get('message_search'),
 
476
 
            file_ids=rqst.get('specific_fileids'),
 
477
 
            direction=rqst.get('direction'))
 
479
 
    def _log_revision_iterator_using_per_file_graph(self):
 
480
 
        # Get the base revisions, filtering by the revision range.
 
481
 
        # Note that we always generate the merge revisions because
 
482
 
        # filter_revisions_touching_file_id() requires them ...
 
484
 
        view_revisions = _calc_view_revisions(
 
485
 
            self.branch, self.start_rev_id, self.end_rev_id,
 
486
 
            rqst.get('direction'), generate_merge_revisions=True,
 
487
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
488
 
        if not isinstance(view_revisions, list):
 
489
 
            view_revisions = list(view_revisions)
 
490
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
491
 
            rqst.get('specific_fileids')[0], view_revisions,
 
492
 
            include_merges=rqst.get('levels') != 1)
 
493
 
        return make_log_rev_iterator(self.branch, view_revisions,
 
494
 
            rqst.get('delta_type'), rqst.get('message_search'))
 
497
 
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
 
498
 
                         generate_merge_revisions,
 
499
 
                         delayed_graph_generation=False,
 
500
 
                         exclude_common_ancestry=False,
 
502
 
    """Calculate the revisions to view.
 
504
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
505
 
             a list of the same tuples.
 
507
 
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
 
508
 
        raise errors.BzrCommandError(
 
509
 
            '--exclude-common-ancestry requires two different revisions')
 
510
 
    if direction not in ('reverse', 'forward'):
 
511
 
        raise ValueError('invalid direction %r' % direction)
 
512
 
    br_revno, br_rev_id = branch.last_revision_info()
 
516
 
    if (end_rev_id and start_rev_id == end_rev_id
 
517
 
        and (not generate_merge_revisions
 
518
 
             or not _has_merges(branch, end_rev_id))):
 
519
 
        # If a single revision is requested, check we can handle it
 
520
 
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
 
522
 
    elif not generate_merge_revisions:
 
523
 
        # If we only want to see linear revisions, we can iterate ...
 
524
 
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
526
 
        if direction == 'forward':
 
527
 
            iter_revs = reversed(iter_revs)
 
529
 
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
530
 
                                            direction, delayed_graph_generation,
 
531
 
                                            exclude_common_ancestry)
 
532
 
        if direction == 'forward':
 
533
 
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
 
537
 
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
538
 
    if rev_id == br_rev_id:
 
540
 
        return [(br_rev_id, br_revno, 0)]
 
542
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
543
 
        revno_str = '.'.join(str(n) for n in revno)
 
544
 
        return [(rev_id, revno_str, 0)]
 
547
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
548
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
549
 
    # If a start limit was given and it's not obviously an
 
550
 
    # ancestor of the end limit, check it before outputting anything
 
551
 
    if direction == 'forward' or (start_rev_id
 
552
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
554
 
            result = list(result)
 
555
 
        except _StartNotLinearAncestor:
 
556
 
            raise errors.BzrCommandError('Start revision not found in'
 
557
 
                ' left-hand history of end revision.')
 
561
 
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
562
 
                            delayed_graph_generation,
 
563
 
                            exclude_common_ancestry=False):
 
564
 
    # On large trees, generating the merge graph can take 30-60 seconds
 
565
 
    # so we delay doing it until a merge is detected, incrementally
 
566
 
    # returning initial (non-merge) revisions while we can.
 
568
 
    # The above is only true for old formats (<= 0.92), for newer formats, a
 
569
 
    # couple of seconds only should be needed to load the whole graph and the
 
570
 
    # other graph operations needed are even faster than that -- vila 100201
 
571
 
    initial_revisions = []
 
572
 
    if delayed_graph_generation:
 
574
 
            for rev_id, revno, depth in  _linear_view_revisions(
 
575
 
                branch, start_rev_id, end_rev_id):
 
576
 
                if _has_merges(branch, rev_id):
 
577
 
                    # The end_rev_id can be nested down somewhere. We need an
 
578
 
                    # explicit ancestry check. There is an ambiguity here as we
 
579
 
                    # may not raise _StartNotLinearAncestor for a revision that
 
580
 
                    # is an ancestor but not a *linear* one. But since we have
 
581
 
                    # loaded the graph to do the check (or calculate a dotted
 
582
 
                    # revno), we may as well accept to show the log...  We need
 
583
 
                    # the check only if start_rev_id is not None as all
 
584
 
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
 
586
 
                    graph = branch.repository.get_graph()
 
587
 
                    if (start_rev_id is not None
 
588
 
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
589
 
                        raise _StartNotLinearAncestor()
 
590
 
                    # Since we collected the revisions so far, we need to
 
595
 
                    initial_revisions.append((rev_id, revno, depth))
 
597
 
                # No merged revisions found
 
598
 
                return initial_revisions
 
599
 
        except _StartNotLinearAncestor:
 
600
 
            # A merge was never detected so the lower revision limit can't
 
601
 
            # be nested down somewhere
 
602
 
            raise errors.BzrCommandError('Start revision not found in'
 
603
 
                ' history of end revision.')
 
605
 
    # We exit the loop above because we encounter a revision with merges, from
 
606
 
    # this revision, we need to switch to _graph_view_revisions.
 
608
 
    # A log including nested merges is required. If the direction is reverse,
 
609
 
    # we rebase the initial merge depths so that the development line is
 
610
 
    # shown naturally, i.e. just like it is for linear logging. We can easily
 
611
 
    # make forward the exact opposite display, but showing the merge revisions
 
612
 
    # indented at the end seems slightly nicer in that case.
 
613
 
    view_revisions = chain(iter(initial_revisions),
 
614
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
615
 
                              rebase_initial_depths=(direction == 'reverse'),
 
616
 
                              exclude_common_ancestry=exclude_common_ancestry))
 
617
 
    return view_revisions
 
620
 
def _has_merges(branch, rev_id):
 
621
 
    """Does a revision have multiple parents or not?"""
 
622
 
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
 
623
 
    return len(parents) > 1
 
626
 
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
 
627
 
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
 
628
 
    if start_rev_id and end_rev_id:
 
629
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
630
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
631
 
        if len(start_dotted) == 1 and len(end_dotted) == 1:
 
633
 
            return start_dotted[0] <= end_dotted[0]
 
634
 
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
 
635
 
            start_dotted[0:1] == end_dotted[0:1]):
 
636
 
            # both on same development line
 
637
 
            return start_dotted[2] <= end_dotted[2]
 
641
 
    # if either start or end is not specified then we use either the first or
 
642
 
    # the last revision and *they* are obvious ancestors.
 
646
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
647
 
    """Calculate a sequence of revisions to view, newest to oldest.
 
649
 
    :param start_rev_id: the lower revision-id
 
650
 
    :param end_rev_id: the upper revision-id
 
651
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
652
 
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
 
653
 
      is not found walking the left-hand history
 
655
 
    br_revno, br_rev_id = branch.last_revision_info()
 
656
 
    repo = branch.repository
 
657
 
    if start_rev_id is None and end_rev_id is None:
 
659
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
 
660
 
            yield revision_id, str(cur_revno), 0
 
663
 
        if end_rev_id is None:
 
664
 
            end_rev_id = br_rev_id
 
665
 
        found_start = start_rev_id is None
 
666
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
667
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
 
668
 
            revno_str = '.'.join(str(n) for n in revno)
 
669
 
            if not found_start and revision_id == start_rev_id:
 
670
 
                yield revision_id, revno_str, 0
 
674
 
                yield revision_id, revno_str, 0
 
677
 
                raise _StartNotLinearAncestor()
 
680
 
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
681
 
                          rebase_initial_depths=True,
 
682
 
                          exclude_common_ancestry=False):
 
683
 
    """Calculate revisions to view including merges, newest to oldest.
 
685
 
    :param branch: the branch
 
686
 
    :param start_rev_id: the lower revision-id
 
687
 
    :param end_rev_id: the upper revision-id
 
688
 
    :param rebase_initial_depth: should depths be rebased until a mainline
 
690
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
692
 
    if exclude_common_ancestry:
 
693
 
        stop_rule = 'with-merges-without-common-ancestry'
 
695
 
        stop_rule = 'with-merges'
 
696
 
    view_revisions = branch.iter_merge_sorted_revisions(
 
697
 
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
 
699
 
    if not rebase_initial_depths:
 
700
 
        for (rev_id, merge_depth, revno, end_of_merge
 
702
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
704
 
        # We're following a development line starting at a merged revision.
 
705
 
        # We need to adjust depths down by the initial depth until we find
 
706
 
        # a depth less than it. Then we use that depth as the adjustment.
 
707
 
        # If and when we reach the mainline, depth adjustment ends.
 
708
 
        depth_adjustment = None
 
709
 
        for (rev_id, merge_depth, revno, end_of_merge
 
711
 
            if depth_adjustment is None:
 
712
 
                depth_adjustment = merge_depth
 
714
 
                if merge_depth < depth_adjustment:
 
715
 
                    # From now on we reduce the depth adjustement, this can be
 
716
 
                    # surprising for users. The alternative requires two passes
 
717
 
                    # which breaks the fast display of the first revision
 
719
 
                    depth_adjustment = merge_depth
 
720
 
                merge_depth -= depth_adjustment
 
721
 
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
724
 
@deprecated_function(deprecated_in((2, 2, 0)))
 
725
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
726
 
        specific_fileid, generate_merge_revisions):
 
727
 
    """Calculate the revisions to view.
 
729
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
730
 
             a list of the same tuples.
 
732
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
734
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
735
 
        direction, generate_merge_revisions or specific_fileid))
 
737
 
        view_revisions = _filter_revisions_touching_file_id(branch,
 
738
 
            specific_fileid, view_revisions,
 
739
 
            include_merges=generate_merge_revisions)
 
740
 
    return _rebase_merge_depth(view_revisions)
 
743
 
def _rebase_merge_depth(view_revisions):
 
744
 
    """Adjust depths upwards so the top level is 0."""
 
745
 
    # If either the first or last revision have a merge_depth of 0, we're done
 
746
 
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
 
747
 
        min_depth = min([d for r,n,d in view_revisions])
 
749
 
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
 
750
 
    return view_revisions
 
753
 
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
 
754
 
        file_ids=None, direction='reverse'):
 
755
 
    """Create a revision iterator for log.
 
757
 
    :param branch: The branch being logged.
 
758
 
    :param view_revisions: The revisions being viewed.
 
759
 
    :param generate_delta: Whether to generate a delta for each revision.
 
760
 
      Permitted values are None, 'full' and 'partial'.
 
761
 
    :param search: A user text search string.
 
762
 
    :param file_ids: If non empty, only revisions matching one or more of
 
763
 
      the file-ids are to be kept.
 
764
 
    :param direction: the direction in which view_revisions is sorted
 
765
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
768
 
    # Convert view_revisions into (view, None, None) groups to fit with
 
769
 
    # the standard interface here.
 
770
 
    if type(view_revisions) == list:
 
771
 
        # A single batch conversion is faster than many incremental ones.
 
772
 
        # As we have all the data, do a batch conversion.
 
773
 
        nones = [None] * len(view_revisions)
 
774
 
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
 
777
 
            for view in view_revisions:
 
778
 
                yield (view, None, None)
 
779
 
        log_rev_iterator = iter([_convert()])
 
780
 
    for adapter in log_adapters:
 
781
 
        # It would be nicer if log adapters were first class objects
 
782
 
        # with custom parameters. This will do for now. IGC 20090127
 
783
 
        if adapter == _make_delta_filter:
 
784
 
            log_rev_iterator = adapter(branch, generate_delta,
 
785
 
                search, log_rev_iterator, file_ids, direction)
 
787
 
            log_rev_iterator = adapter(branch, generate_delta,
 
788
 
                search, log_rev_iterator)
 
789
 
    return log_rev_iterator
 
792
 
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
 
793
 
    """Create a filtered iterator of log_rev_iterator matching on a regex.
 
795
 
    :param branch: The branch being logged.
 
796
 
    :param generate_delta: Whether to generate a delta for each revision.
 
797
 
    :param search: A user text search string.
 
798
 
    :param log_rev_iterator: An input iterator containing all revisions that
 
799
 
        could be displayed, in lists.
 
800
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
804
 
        return log_rev_iterator
 
805
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
806
 
            'log message filter')
 
807
 
    return _filter_message_re(searchRE, log_rev_iterator)
 
810
 
def _filter_message_re(searchRE, log_rev_iterator):
 
811
 
    for revs in log_rev_iterator:
 
813
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
814
 
            if searchRE.search(rev.message):
 
815
 
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
 
819
 
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
 
820
 
    fileids=None, direction='reverse'):
 
821
 
    """Add revision deltas to a log iterator if needed.
 
823
 
    :param branch: The branch being logged.
 
824
 
    :param generate_delta: Whether to generate a delta for each revision.
 
825
 
      Permitted values are None, 'full' and 'partial'.
 
826
 
    :param search: A user text search string.
 
827
 
    :param log_rev_iterator: An input iterator containing all revisions that
 
828
 
        could be displayed, in lists.
 
829
 
    :param fileids: If non empty, only revisions matching one or more of
 
830
 
      the file-ids are to be kept.
 
831
 
    :param direction: the direction in which view_revisions is sorted
 
832
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
835
 
    if not generate_delta and not fileids:
 
836
 
        return log_rev_iterator
 
837
 
    return _generate_deltas(branch.repository, log_rev_iterator,
 
838
 
        generate_delta, fileids, direction)
 
841
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
843
 
    """Create deltas for each batch of revisions in log_rev_iterator.
 
845
 
    If we're only generating deltas for the sake of filtering against
 
846
 
    file-ids, we stop generating deltas once all file-ids reach the
 
847
 
    appropriate life-cycle point. If we're receiving data newest to
 
848
 
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
 
850
 
    check_fileids = fileids is not None and len(fileids) > 0
 
852
 
        fileid_set = set(fileids)
 
853
 
        if direction == 'reverse':
 
859
 
    for revs in log_rev_iterator:
 
860
 
        # If we were matching against fileids and we've run out,
 
861
 
        # there's nothing left to do
 
862
 
        if check_fileids and not fileid_set:
 
864
 
        revisions = [rev[1] for rev in revs]
 
866
 
        if delta_type == 'full' and not check_fileids:
 
867
 
            deltas = repository.get_deltas_for_revisions(revisions)
 
868
 
            for rev, delta in izip(revs, deltas):
 
869
 
                new_revs.append((rev[0], rev[1], delta))
 
871
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
872
 
            for rev, delta in izip(revs, deltas):
 
874
 
                    if delta is None or not delta.has_changed():
 
877
 
                        _update_fileids(delta, fileid_set, stop_on)
 
878
 
                        if delta_type is None:
 
880
 
                        elif delta_type == 'full':
 
881
 
                            # If the file matches all the time, rebuilding
 
882
 
                            # a full delta like this in addition to a partial
 
883
 
                            # one could be slow. However, it's likely that
 
884
 
                            # most revisions won't get this far, making it
 
885
 
                            # faster to filter on the partial deltas and
 
886
 
                            # build the occasional full delta than always
 
887
 
                            # building full deltas and filtering those.
 
889
 
                            delta = repository.get_revision_delta(rev_id)
 
890
 
                new_revs.append((rev[0], rev[1], delta))
 
894
 
def _update_fileids(delta, fileids, stop_on):
 
895
 
    """Update the set of file-ids to search based on file lifecycle events.
 
897
 
    :param fileids: a set of fileids to update
 
898
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
 
899
 
      fileids set once their add or remove entry is detected respectively
 
902
 
        for item in delta.added:
 
903
 
            if item[1] in fileids:
 
904
 
                fileids.remove(item[1])
 
905
 
    elif stop_on == 'delete':
 
906
 
        for item in delta.removed:
 
907
 
            if item[1] in fileids:
 
908
 
                fileids.remove(item[1])
 
911
 
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
 
912
 
    """Extract revision objects from the repository
 
914
 
    :param branch: The branch being logged.
 
915
 
    :param generate_delta: Whether to generate a delta for each revision.
 
916
 
    :param search: A user text search string.
 
917
 
    :param log_rev_iterator: An input iterator containing all revisions that
 
918
 
        could be displayed, in lists.
 
919
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
922
 
    repository = branch.repository
 
923
 
    for revs in log_rev_iterator:
 
924
 
        # r = revision_id, n = revno, d = merge depth
 
925
 
        revision_ids = [view[0] for view, _, _ in revs]
 
926
 
        revisions = repository.get_revisions(revision_ids)
 
927
 
        revs = [(rev[0], revision, rev[2]) for rev, revision in
 
928
 
            izip(revs, revisions)]
 
932
 
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
 
933
 
    """Group up a single large batch into smaller ones.
 
935
 
    :param branch: The branch being logged.
 
936
 
    :param generate_delta: Whether to generate a delta for each revision.
 
937
 
    :param search: A user text search string.
 
938
 
    :param log_rev_iterator: An input iterator containing all revisions that
 
939
 
        could be displayed, in lists.
 
940
 
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
943
 
    repository = branch.repository
 
945
 
    for batch in log_rev_iterator:
 
948
 
            step = [detail for _, detail in zip(range(num), batch)]
 
952
 
            num = min(int(num * 1.5), 200)
 
955
 
def _get_revision_limits(branch, start_revision, end_revision):
 
956
 
    """Get and check revision limits.
 
958
 
    :param  branch: The branch containing the revisions.
 
960
 
    :param  start_revision: The first revision to be logged.
 
961
 
            For backwards compatibility this may be a mainline integer revno,
 
962
 
            but for merge revision support a RevisionInfo is expected.
 
964
 
    :param  end_revision: The last revision to be logged.
 
965
 
            For backwards compatibility this may be a mainline integer revno,
 
966
 
            but for merge revision support a RevisionInfo is expected.
 
968
 
    :return: (start_rev_id, end_rev_id) tuple.
 
970
 
    branch_revno, branch_rev_id = branch.last_revision_info()
 
972
 
    if start_revision is None:
 
975
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
976
 
            start_rev_id = start_revision.rev_id
 
977
 
            start_revno = start_revision.revno or 1
 
979
 
            branch.check_real_revno(start_revision)
 
980
 
            start_revno = start_revision
 
981
 
            start_rev_id = branch.get_rev_id(start_revno)
 
984
 
    if end_revision is None:
 
985
 
        end_revno = branch_revno
 
987
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
988
 
            end_rev_id = end_revision.rev_id
 
989
 
            end_revno = end_revision.revno or branch_revno
 
991
 
            branch.check_real_revno(end_revision)
 
992
 
            end_revno = end_revision
 
993
 
            end_rev_id = branch.get_rev_id(end_revno)
 
995
 
    if branch_revno != 0:
 
996
 
        if (start_rev_id == _mod_revision.NULL_REVISION
 
997
 
            or end_rev_id == _mod_revision.NULL_REVISION):
 
998
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
999
 
        if start_revno > end_revno:
 
1000
 
            raise errors.BzrCommandError("Start revision must be older than "
 
1001
 
                                         "the end revision.")
 
1002
 
    return (start_rev_id, end_rev_id)
 
1005
 
def _get_mainline_revs(branch, start_revision, end_revision):
 
1006
 
    """Get the mainline revisions from the branch.
 
1008
 
    Generates the list of mainline revisions for the branch.
 
1010
 
    :param  branch: The branch containing the revisions.
 
1012
 
    :param  start_revision: The first revision to be logged.
 
1013
 
            For backwards compatibility this may be a mainline integer revno,
 
1014
 
            but for merge revision support a RevisionInfo is expected.
 
1016
 
    :param  end_revision: The last revision to be logged.
 
1017
 
            For backwards compatibility this may be a mainline integer revno,
 
1018
 
            but for merge revision support a RevisionInfo is expected.
 
1020
 
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
 
1022
 
    branch_revno, branch_last_revision = branch.last_revision_info()
 
1023
 
    if branch_revno == 0:
 
1024
 
        return None, None, None, None
 
1026
 
    # For mainline generation, map start_revision and end_revision to
 
1027
 
    # mainline revnos. If the revision is not on the mainline choose the
 
1028
 
    # appropriate extreme of the mainline instead - the extra will be
 
1030
 
    # Also map the revisions to rev_ids, to be used in the later filtering
 
1033
 
    if start_revision is None:
 
1036
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
1037
 
            start_rev_id = start_revision.rev_id
 
1038
 
            start_revno = start_revision.revno or 1
 
1040
 
            branch.check_real_revno(start_revision)
 
1041
 
            start_revno = start_revision
 
1044
 
    if end_revision is None:
 
1045
 
        end_revno = branch_revno
 
1047
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
1048
 
            end_rev_id = end_revision.rev_id
 
1049
 
            end_revno = end_revision.revno or branch_revno
 
1051
 
            branch.check_real_revno(end_revision)
 
1052
 
            end_revno = end_revision
 
1054
 
    if ((start_rev_id == _mod_revision.NULL_REVISION)
 
1055
 
        or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1056
 
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
1057
 
    if start_revno > end_revno:
 
1058
 
        raise errors.BzrCommandError("Start revision must be older than "
 
1059
 
                                     "the end revision.")
 
1061
 
    if end_revno < start_revno:
 
1062
 
        return None, None, None, None
 
1063
 
    cur_revno = branch_revno
 
1066
 
    for revision_id in branch.repository.iter_reverse_revision_history(
 
1067
 
                        branch_last_revision):
 
1068
 
        if cur_revno < start_revno:
 
1069
 
            # We have gone far enough, but we always add 1 more revision
 
1070
 
            rev_nos[revision_id] = cur_revno
 
1071
 
            mainline_revs.append(revision_id)
 
1073
 
        if cur_revno <= end_revno:
 
1074
 
            rev_nos[revision_id] = cur_revno
 
1075
 
            mainline_revs.append(revision_id)
 
1078
 
        # We walked off the edge of all revisions, so we add a 'None' marker
 
1079
 
        mainline_revs.append(None)
 
1081
 
    mainline_revs.reverse()
 
1083
 
    # override the mainline to look like the revision history.
 
1084
 
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
 
1087
 
@deprecated_function(deprecated_in((2, 2, 0)))
 
1088
 
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
 
1089
 
    """Filter view_revisions based on revision ranges.
 
1091
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1092
 
            tuples to be filtered.
 
1094
 
    :param start_rev_id: If not NONE specifies the first revision to be logged.
 
1095
 
            If NONE then all revisions up to the end_rev_id are logged.
 
1097
 
    :param end_rev_id: If not NONE specifies the last revision to be logged.
 
1098
 
            If NONE then all revisions up to the end of the log are logged.
 
1100
 
    :return: The filtered view_revisions.
 
1102
 
    if start_rev_id or end_rev_id:
 
1103
 
        revision_ids = [r for r, n, d in view_revisions]
 
1105
 
            start_index = revision_ids.index(start_rev_id)
 
1108
 
        if start_rev_id == end_rev_id:
 
1109
 
            end_index = start_index
 
1112
 
                end_index = revision_ids.index(end_rev_id)
 
1114
 
                end_index = len(view_revisions) - 1
 
1115
 
        # To include the revisions merged into the last revision,
 
1116
 
        # extend end_rev_id down to, but not including, the next rev
 
1117
 
        # with the same or lesser merge_depth
 
1118
 
        end_merge_depth = view_revisions[end_index][2]
 
1120
 
            for index in xrange(end_index+1, len(view_revisions)+1):
 
1121
 
                if view_revisions[index][2] <= end_merge_depth:
 
1122
 
                    end_index = index - 1
 
1125
 
            # if the search falls off the end then log to the end as well
 
1126
 
            end_index = len(view_revisions) - 1
 
1127
 
        view_revisions = view_revisions[start_index:end_index+1]
 
1128
 
    return view_revisions
 
1131
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
 
1132
 
    include_merges=True):
 
1133
 
    r"""Return the list of revision ids which touch a given file id.
 
1135
 
    The function filters view_revisions and returns a subset.
 
1136
 
    This includes the revisions which directly change the file id,
 
1137
 
    and the revisions which merge these changes. So if the
 
1149
 
    And 'C' changes a file, then both C and D will be returned. F will not be
 
1150
 
    returned even though it brings the changes to C into the branch starting
 
1151
 
    with E. (Note that if we were using F as the tip instead of G, then we
 
1154
 
    This will also be restricted based on a subset of the mainline.
 
1156
 
    :param branch: The branch where we can get text revision information.
 
1158
 
    :param file_id: Filter out revisions that do not touch file_id.
 
1160
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1161
 
        tuples. This is the list of revisions which will be filtered. It is
 
1162
 
        assumed that view_revisions is in merge_sort order (i.e. newest
 
1165
 
    :param include_merges: include merge revisions in the result or not
 
1167
 
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
 
1169
 
    # Lookup all possible text keys to determine which ones actually modified
 
1171
 
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1173
 
    # Looking up keys in batches of 1000 can cut the time in half, as well as
 
1174
 
    # memory consumption. GraphIndex *does* like to look for a few keys in
 
1175
 
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
 
1176
 
    # TODO: This code needs to be re-evaluated periodically as we tune the
 
1177
 
    #       indexing layer. We might consider passing in hints as to the known
 
1178
 
    #       access pattern (sparse/clustered, high success rate/low success
 
1179
 
    #       rate). This particular access is clustered with a low success rate.
 
1180
 
    get_parent_map = branch.repository.texts.get_parent_map
 
1181
 
    modified_text_revisions = set()
 
1183
 
    for start in xrange(0, len(text_keys), chunk_size):
 
1184
 
        next_keys = text_keys[start:start + chunk_size]
 
1185
 
        # Only keep the revision_id portion of the key
 
1186
 
        modified_text_revisions.update(
 
1187
 
            [k[1] for k in get_parent_map(next_keys)])
 
1188
 
    del text_keys, next_keys
 
1191
 
    # Track what revisions will merge the current revision, replace entries
 
1192
 
    # with 'None' when they have been added to result
 
1193
 
    current_merge_stack = [None]
 
1194
 
    for info in view_revisions:
 
1195
 
        rev_id, revno, depth = info
 
1196
 
        if depth == len(current_merge_stack):
 
1197
 
            current_merge_stack.append(info)
 
1199
 
            del current_merge_stack[depth + 1:]
 
1200
 
            current_merge_stack[-1] = info
 
1202
 
        if rev_id in modified_text_revisions:
 
1203
 
            # This needs to be logged, along with the extra revisions
 
1204
 
            for idx in xrange(len(current_merge_stack)):
 
1205
 
                node = current_merge_stack[idx]
 
1206
 
                if node is not None:
 
1207
 
                    if include_merges or node[2] == 0:
 
1209
 
                        current_merge_stack[idx] = None
 
1213
 
@deprecated_function(deprecated_in((2, 2, 0)))
 
1214
 
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
 
1215
 
                       include_merges=True):
 
1216
 
    """Produce an iterator of revisions to show
 
1217
 
    :return: an iterator of (revision_id, revno, merge_depth)
 
1218
 
    (if there is no revno for a revision, None is supplied)
 
1220
 
    if not include_merges:
 
1221
 
        revision_ids = mainline_revs[1:]
 
1222
 
        if direction == 'reverse':
 
1223
 
            revision_ids.reverse()
 
1224
 
        for revision_id in revision_ids:
 
1225
 
            yield revision_id, str(rev_nos[revision_id]), 0
 
1227
 
    graph = branch.repository.get_graph()
 
1228
 
    # This asks for all mainline revisions, which means we only have to spider
 
1229
 
    # sideways, rather than depth history. That said, its still size-of-history
 
1230
 
    # and should be addressed.
 
1231
 
    # mainline_revisions always includes an extra revision at the beginning, so
 
1233
 
    parent_map = dict(((key, value) for key, value in
 
1234
 
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
 
1235
 
    # filter out ghosts; merge_sort errors on ghosts.
 
1236
 
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
 
1237
 
    merge_sorted_revisions = tsort.merge_sort(
 
1241
 
        generate_revno=True)
 
1243
 
    if direction == 'forward':
 
1244
 
        # forward means oldest first.
 
1245
 
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
 
1246
 
    elif direction != 'reverse':
 
1247
 
        raise ValueError('invalid direction %r' % direction)
 
1249
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1250
 
         ) in merge_sorted_revisions:
 
1251
 
        yield rev_id, '.'.join(map(str, revno)), merge_depth
 
1254
 
def reverse_by_depth(merge_sorted_revisions, _depth=0):
 
1255
 
    """Reverse revisions by depth.
 
1257
 
    Revisions with a different depth are sorted as a group with the previous
 
1258
 
    revision of that depth.  There may be no topological justification for this,
 
1259
 
    but it looks much nicer.
 
1261
 
    # Add a fake revision at start so that we can always attach sub revisions
 
1262
 
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
 
1264
 
    for val in merge_sorted_revisions:
 
1265
 
        if val[2] == _depth:
 
1266
 
            # Each revision at the current depth becomes a chunk grouping all
 
1267
 
            # higher depth revisions.
 
1268
 
            zd_revisions.append([val])
 
1270
 
            zd_revisions[-1].append(val)
 
1271
 
    for revisions in zd_revisions:
 
1272
 
        if len(revisions) > 1:
 
1273
 
            # We have higher depth revisions, let reverse them locally
 
1274
 
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
 
1275
 
    zd_revisions.reverse()
 
1277
 
    for chunk in zd_revisions:
 
1278
 
        result.extend(chunk)
 
1280
 
        # Top level call, get rid of the fake revisions that have been added
 
1281
 
        result = [r for r in result if r[0] is not None and r[1] is not None]
 
1285
 
class LogRevision(object):
 
1286
 
    """A revision to be logged (by LogFormatter.log_revision).
 
1288
 
    A simple wrapper for the attributes of a revision to be logged.
 
1289
 
    The attributes may or may not be populated, as determined by the
 
1290
 
    logging options and the log formatter capabilities.
 
1293
 
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
 
1294
 
                 tags=None, diff=None):
 
1296
 
        self.revno = str(revno)
 
1297
 
        self.merge_depth = merge_depth
 
1303
 
class LogFormatter(object):
 
1304
 
    """Abstract class to display log messages.
 
1306
 
    At a minimum, a derived class must implement the log_revision method.
 
1308
 
    If the LogFormatter needs to be informed of the beginning or end of
 
1309
 
    a log it should implement the begin_log and/or end_log hook methods.
 
1311
 
    A LogFormatter should define the following supports_XXX flags
 
1312
 
    to indicate which LogRevision attributes it supports:
 
1314
 
    - supports_delta must be True if this log formatter supports delta.
 
1315
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1316
 
        attribute describes whether the 'short_status' format (1) or the long
 
1317
 
        one (2) should be used.
 
1319
 
    - supports_merge_revisions must be True if this log formatter supports
 
1320
 
        merge revisions.  If not, then only mainline revisions will be passed
 
1323
 
    - preferred_levels is the number of levels this formatter defaults to.
 
1324
 
        The default value is zero meaning display all levels.
 
1325
 
        This value is only relevant if supports_merge_revisions is True.
 
1327
 
    - supports_tags must be True if this log formatter supports tags.
 
1328
 
        Otherwise the tags attribute may not be populated.
 
1330
 
    - supports_diff must be True if this log formatter supports diffs.
 
1331
 
        Otherwise the diff attribute may not be populated.
 
1333
 
    Plugins can register functions to show custom revision properties using
 
1334
 
    the properties_handler_registry. The registered function
 
1335
 
    must respect the following interface description:
 
1336
 
        def my_show_properties(properties_dict):
 
1337
 
            # code that returns a dict {'name':'value'} of the properties
 
1340
 
    preferred_levels = 0
 
1342
 
    def __init__(self, to_file, show_ids=False, show_timezone='original',
 
1343
 
                 delta_format=None, levels=None, show_advice=False,
 
1344
 
                 to_exact_file=None):
 
1345
 
        """Create a LogFormatter.
 
1347
 
        :param to_file: the file to output to
 
1348
 
        :param to_exact_file: if set, gives an output stream to which 
 
1349
 
             non-Unicode diffs are written.
 
1350
 
        :param show_ids: if True, revision-ids are to be displayed
 
1351
 
        :param show_timezone: the timezone to use
 
1352
 
        :param delta_format: the level of delta information to display
 
1353
 
          or None to leave it to the formatter to decide
 
1354
 
        :param levels: the number of levels to display; None or -1 to
 
1355
 
          let the log formatter decide.
 
1356
 
        :param show_advice: whether to show advice at the end of the
 
1359
 
        self.to_file = to_file
 
1360
 
        # 'exact' stream used to show diff, it should print content 'as is'
 
1361
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1362
 
        if to_exact_file is not None:
 
1363
 
            self.to_exact_file = to_exact_file
 
1365
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
 
1366
 
            # for code that expects to get diffs to pass in the exact file
 
1368
 
            self.to_exact_file = getattr(to_file, 'stream', to_file)
 
1369
 
        self.show_ids = show_ids
 
1370
 
        self.show_timezone = show_timezone
 
1371
 
        if delta_format is None:
 
1372
 
            # Ensures backward compatibility
 
1373
 
            delta_format = 2 # long format
 
1374
 
        self.delta_format = delta_format
 
1375
 
        self.levels = levels
 
1376
 
        self._show_advice = show_advice
 
1377
 
        self._merge_count = 0
 
1379
 
    def get_levels(self):
 
1380
 
        """Get the number of levels to display or 0 for all."""
 
1381
 
        if getattr(self, 'supports_merge_revisions', False):
 
1382
 
            if self.levels is None or self.levels == -1:
 
1383
 
                self.levels = self.preferred_levels
 
1388
 
    def log_revision(self, revision):
 
1391
 
        :param  revision:   The LogRevision to be logged.
 
1393
 
        raise NotImplementedError('not implemented in abstract base')
 
1395
 
    def show_advice(self):
 
1396
 
        """Output user advice, if any, when the log is completed."""
 
1397
 
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1398
 
            advice_sep = self.get_advice_separator()
 
1400
 
                self.to_file.write(advice_sep)
 
1402
 
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1404
 
    def get_advice_separator(self):
 
1405
 
        """Get the text separating the log from the closing advice."""
 
1408
 
    def short_committer(self, rev):
 
1409
 
        name, address = config.parse_username(rev.committer)
 
1414
 
    def short_author(self, rev):
 
1415
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
 
1420
 
    def merge_marker(self, revision):
 
1421
 
        """Get the merge marker to include in the output or '' if none."""
 
1422
 
        if len(revision.rev.parent_ids) > 1:
 
1423
 
            self._merge_count += 1
 
1428
 
    def show_properties(self, revision, indent):
 
1429
 
        """Displays the custom properties returned by each registered handler.
 
1431
 
        If a registered handler raises an error it is propagated.
 
1433
 
        for line in self.custom_properties(revision):
 
1434
 
            self.to_file.write("%s%s\n" % (indent, line))
 
1436
 
    def custom_properties(self, revision):
 
1437
 
        """Format the custom properties returned by each registered handler.
 
1439
 
        If a registered handler raises an error it is propagated.
 
1441
 
        :return: a list of formatted lines (excluding trailing newlines)
 
1443
 
        lines = self._foreign_info_properties(revision)
 
1444
 
        for key, handler in properties_handler_registry.iteritems():
 
1445
 
            lines.extend(self._format_properties(handler(revision)))
 
1448
 
    def _foreign_info_properties(self, rev):
 
1449
 
        """Custom log displayer for foreign revision identifiers.
 
1451
 
        :param rev: Revision object.
 
1453
 
        # Revision comes directly from a foreign repository
 
1454
 
        if isinstance(rev, foreign.ForeignRevision):
 
1455
 
            return self._format_properties(
 
1456
 
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
 
1458
 
        # Imported foreign revision revision ids always contain :
 
1459
 
        if not ":" in rev.revision_id:
 
1462
 
        # Revision was once imported from a foreign repository
 
1464
 
            foreign_revid, mapping = \
 
1465
 
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1466
 
        except errors.InvalidRevisionId:
 
1469
 
        return self._format_properties(
 
1470
 
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1472
 
    def _format_properties(self, properties):
 
1474
 
        for key, value in properties.items():
 
1475
 
            lines.append(key + ': ' + value)
 
1478
 
    def show_diff(self, to_file, diff, indent):
 
1479
 
        for l in diff.rstrip().split('\n'):
 
1480
 
            to_file.write(indent + '%s\n' % (l,))
 
1483
 
# Separator between revisions in long format
 
1484
 
_LONG_SEP = '-' * 60
 
1487
 
class LongLogFormatter(LogFormatter):
 
1489
 
    supports_merge_revisions = True
 
1490
 
    preferred_levels = 1
 
1491
 
    supports_delta = True
 
1492
 
    supports_tags = True
 
1493
 
    supports_diff = True
 
1495
 
    def __init__(self, *args, **kwargs):
 
1496
 
        super(LongLogFormatter, self).__init__(*args, **kwargs)
 
1497
 
        if self.show_timezone == 'original':
 
1498
 
            self.date_string = self._date_string_original_timezone
 
1500
 
            self.date_string = self._date_string_with_timezone
 
1502
 
    def _date_string_with_timezone(self, rev):
 
1503
 
        return format_date(rev.timestamp, rev.timezone or 0,
 
1506
 
    def _date_string_original_timezone(self, rev):
 
1507
 
        return format_date_with_offset_in_original_timezone(rev.timestamp,
 
1510
 
    def log_revision(self, revision):
 
1511
 
        """Log a revision, either merged or not."""
 
1512
 
        indent = '    ' * revision.merge_depth
 
1514
 
        if revision.revno is not None:
 
1515
 
            lines.append('revno: %s%s' % (revision.revno,
 
1516
 
                self.merge_marker(revision)))
 
1518
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
1520
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
 
1521
 
            for parent_id in revision.rev.parent_ids:
 
1522
 
                lines.append('parent: %s' % (parent_id,))
 
1523
 
        lines.extend(self.custom_properties(revision.rev))
 
1525
 
        committer = revision.rev.committer
 
1526
 
        authors = revision.rev.get_apparent_authors()
 
1527
 
        if authors != [committer]:
 
1528
 
            lines.append('author: %s' % (", ".join(authors),))
 
1529
 
        lines.append('committer: %s' % (committer,))
 
1531
 
        branch_nick = revision.rev.properties.get('branch-nick', None)
 
1532
 
        if branch_nick is not None:
 
1533
 
            lines.append('branch nick: %s' % (branch_nick,))
 
1535
 
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
 
1537
 
        lines.append('message:')
 
1538
 
        if not revision.rev.message:
 
1539
 
            lines.append('  (no message)')
 
1541
 
            message = revision.rev.message.rstrip('\r\n')
 
1542
 
            for l in message.split('\n'):
 
1543
 
                lines.append('  %s' % (l,))
 
1545
 
        # Dump the output, appending the delta and diff if requested
 
1546
 
        to_file = self.to_file
 
1547
 
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
1548
 
        if revision.delta is not None:
 
1549
 
            # Use the standard status output to display changes
 
1550
 
            from bzrlib.delta import report_delta
 
1551
 
            report_delta(to_file, revision.delta, short_status=False, 
 
1552
 
                         show_ids=self.show_ids, indent=indent)
 
1553
 
        if revision.diff is not None:
 
1554
 
            to_file.write(indent + 'diff:\n')
 
1556
 
            # Note: we explicitly don't indent the diff (relative to the
 
1557
 
            # revision information) so that the output can be fed to patch -p0
 
1558
 
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1559
 
            self.to_exact_file.flush()
 
1561
 
    def get_advice_separator(self):
 
1562
 
        """Get the text separating the log from the closing advice."""
 
1563
 
        return '-' * 60 + '\n'
 
1566
 
class ShortLogFormatter(LogFormatter):
 
1568
 
    supports_merge_revisions = True
 
1569
 
    preferred_levels = 1
 
1570
 
    supports_delta = True
 
1571
 
    supports_tags = True
 
1572
 
    supports_diff = True
 
1574
 
    def __init__(self, *args, **kwargs):
 
1575
 
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
 
1576
 
        self.revno_width_by_depth = {}
 
1578
 
    def log_revision(self, revision):
 
1579
 
        # We need two indents: one per depth and one for the information
 
1580
 
        # relative to that indent. Most mainline revnos are 5 chars or
 
1581
 
        # less while dotted revnos are typically 11 chars or less. Once
 
1582
 
        # calculated, we need to remember the offset for a given depth
 
1583
 
        # as we might be starting from a dotted revno in the first column
 
1584
 
        # and we want subsequent mainline revisions to line up.
 
1585
 
        depth = revision.merge_depth
 
1586
 
        indent = '    ' * depth
 
1587
 
        revno_width = self.revno_width_by_depth.get(depth)
 
1588
 
        if revno_width is None:
 
1589
 
            if revision.revno.find('.') == -1:
 
1590
 
                # mainline revno, e.g. 12345
 
1593
 
                # dotted revno, e.g. 12345.10.55
 
1595
 
            self.revno_width_by_depth[depth] = revno_width
 
1596
 
        offset = ' ' * (revno_width + 1)
 
1598
 
        to_file = self.to_file
 
1601
 
            tags = ' {%s}' % (', '.join(revision.tags))
 
1602
 
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
 
1603
 
                revision.revno, self.short_author(revision.rev),
 
1604
 
                format_date(revision.rev.timestamp,
 
1605
 
                            revision.rev.timezone or 0,
 
1606
 
                            self.show_timezone, date_fmt="%Y-%m-%d",
 
1608
 
                tags, self.merge_marker(revision)))
 
1609
 
        self.show_properties(revision.rev, indent+offset)
 
1611
 
            to_file.write(indent + offset + 'revision-id:%s\n'
 
1612
 
                          % (revision.rev.revision_id,))
 
1613
 
        if not revision.rev.message:
 
1614
 
            to_file.write(indent + offset + '(no message)\n')
 
1616
 
            message = revision.rev.message.rstrip('\r\n')
 
1617
 
            for l in message.split('\n'):
 
1618
 
                to_file.write(indent + offset + '%s\n' % (l,))
 
1620
 
        if revision.delta is not None:
 
1621
 
            # Use the standard status output to display changes
 
1622
 
            from bzrlib.delta import report_delta
 
1623
 
            report_delta(to_file, revision.delta, 
 
1624
 
                         short_status=self.delta_format==1, 
 
1625
 
                         show_ids=self.show_ids, indent=indent + offset)
 
1626
 
        if revision.diff is not None:
 
1627
 
            self.show_diff(self.to_exact_file, revision.diff, '      ')
 
1631
 
class LineLogFormatter(LogFormatter):
 
1633
 
    supports_merge_revisions = True
 
1634
 
    preferred_levels = 1
 
1635
 
    supports_tags = True
 
1637
 
    def __init__(self, *args, **kwargs):
 
1638
 
        super(LineLogFormatter, self).__init__(*args, **kwargs)
 
1639
 
        width = terminal_width()
 
1640
 
        if width is not None:
 
1641
 
            # we need one extra space for terminals that wrap on last char
 
1643
 
        self._max_chars = width
 
1645
 
    def truncate(self, str, max_len):
 
1646
 
        if max_len is None or len(str) <= max_len:
 
1648
 
        return str[:max_len-3] + '...'
 
1650
 
    def date_string(self, rev):
 
1651
 
        return format_date(rev.timestamp, rev.timezone or 0,
 
1652
 
                           self.show_timezone, date_fmt="%Y-%m-%d",
 
1655
 
    def message(self, rev):
 
1657
 
            return '(no message)'
 
1661
 
    def log_revision(self, revision):
 
1662
 
        indent = '  ' * revision.merge_depth
 
1663
 
        self.to_file.write(self.log_string(revision.revno, revision.rev,
 
1664
 
            self._max_chars, revision.tags, indent))
 
1665
 
        self.to_file.write('\n')
 
1667
 
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
1668
 
        """Format log info into one string. Truncate tail of string
 
1669
 
        :param  revno:      revision number or None.
 
1670
 
                            Revision numbers counts from 1.
 
1671
 
        :param  rev:        revision object
 
1672
 
        :param  max_chars:  maximum length of resulting string
 
1673
 
        :param  tags:       list of tags or None
 
1674
 
        :param  prefix:     string to prefix each line
 
1675
 
        :return:            formatted truncated string
 
1679
 
            # show revno only when is not None
 
1680
 
            out.append("%s:" % revno)
 
1681
 
        out.append(self.truncate(self.short_author(rev), 20))
 
1682
 
        out.append(self.date_string(rev))
 
1683
 
        if len(rev.parent_ids) > 1:
 
1684
 
            out.append('[merge]')
 
1686
 
            tag_str = '{%s}' % (', '.join(tags))
 
1688
 
        out.append(rev.get_summary())
 
1689
 
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
 
1692
 
class GnuChangelogLogFormatter(LogFormatter):
 
1694
 
    supports_merge_revisions = True
 
1695
 
    supports_delta = True
 
1697
 
    def log_revision(self, revision):
 
1698
 
        """Log a revision, either merged or not."""
 
1699
 
        to_file = self.to_file
 
1701
 
        date_str = format_date(revision.rev.timestamp,
 
1702
 
                               revision.rev.timezone or 0,
 
1704
 
                               date_fmt='%Y-%m-%d',
 
1706
 
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
 
1707
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1709
 
        if revision.delta is not None and revision.delta.has_changed():
 
1710
 
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
 
1712
 
                to_file.write('\t* %s:\n' % (path,))
 
1713
 
            for c in revision.delta.renamed:
 
1714
 
                oldpath,newpath = c[:2]
 
1715
 
                # For renamed files, show both the old and the new path
 
1716
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1719
 
        if not revision.rev.message:
 
1720
 
            to_file.write('\tNo commit message\n')
 
1722
 
            message = revision.rev.message.rstrip('\r\n')
 
1723
 
            for l in message.split('\n'):
 
1724
 
                to_file.write('\t%s\n' % (l.lstrip(),))
 
1728
 
def line_log(rev, max_chars):
 
1729
 
    lf = LineLogFormatter(None)
 
1730
 
    return lf.log_string(None, rev, max_chars)
 
1733
 
class LogFormatterRegistry(registry.Registry):
 
1734
 
    """Registry for log formatters"""
 
1736
 
    def make_formatter(self, name, *args, **kwargs):
 
1737
 
        """Construct a formatter from arguments.
 
1739
 
        :param name: Name of the formatter to construct.  'short', 'long' and
 
1740
 
            'line' are built-in.
 
1742
 
        return self.get(name)(*args, **kwargs)
 
1744
 
    def get_default(self, branch):
 
1745
 
        return self.get(branch.get_config().log_format())
 
1748
 
log_formatter_registry = LogFormatterRegistry()
 
1751
 
log_formatter_registry.register('short', ShortLogFormatter,
 
1752
 
                                'Moderately short log format')
 
1753
 
log_formatter_registry.register('long', LongLogFormatter,
 
1754
 
                                'Detailed log format')
 
1755
 
log_formatter_registry.register('line', LineLogFormatter,
 
1756
 
                                'Log format with one line per revision')
 
1757
 
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
 
1758
 
                                'Format used by GNU ChangeLog files')
 
1761
 
def register_formatter(name, formatter):
 
1762
 
    log_formatter_registry.register(name, formatter)
 
1765
 
def log_formatter(name, *args, **kwargs):
 
1766
 
    """Construct a formatter from arguments.
 
1768
 
    name -- Name of the formatter to construct; currently 'long', 'short' and
 
1769
 
        'line' are supported.
 
1772
 
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
 
1774
 
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
 
1777
 
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
 
1778
 
    # deprecated; for compatibility
 
1779
 
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
 
1780
 
    lf.show(revno, rev, delta)
 
1783
 
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
 
1785
 
    """Show the change in revision history comparing the old revision history to the new one.
 
1787
 
    :param branch: The branch where the revisions exist
 
1788
 
    :param old_rh: The old revision history
 
1789
 
    :param new_rh: The new revision history
 
1790
 
    :param to_file: A file to write the results to. If None, stdout will be used
 
1793
 
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
 
1795
 
    lf = log_formatter(log_format,
 
1798
 
                       show_timezone='original')
 
1800
 
    # This is the first index which is different between
 
1803
 
    for i in xrange(max(len(new_rh),
 
1805
 
        if (len(new_rh) <= i
 
1807
 
            or new_rh[i] != old_rh[i]):
 
1811
 
    if base_idx is None:
 
1812
 
        to_file.write('Nothing seems to have changed\n')
 
1814
 
    ## TODO: It might be nice to do something like show_log
 
1815
 
    ##       and show the merged entries. But since this is the
 
1816
 
    ##       removed revisions, it shouldn't be as important
 
1817
 
    if base_idx < len(old_rh):
 
1818
 
        to_file.write('*'*60)
 
1819
 
        to_file.write('\nRemoved Revisions:\n')
 
1820
 
        for i in range(base_idx, len(old_rh)):
 
1821
 
            rev = branch.repository.get_revision(old_rh[i])
 
1822
 
            lr = LogRevision(rev, i+1, 0, None)
 
1824
 
        to_file.write('*'*60)
 
1825
 
        to_file.write('\n\n')
 
1826
 
    if base_idx < len(new_rh):
 
1827
 
        to_file.write('Added Revisions:\n')
 
1832
 
                 direction='forward',
 
1833
 
                 start_revision=base_idx+1,
 
1834
 
                 end_revision=len(new_rh),
 
1838
 
def get_history_change(old_revision_id, new_revision_id, repository):
 
1839
 
    """Calculate the uncommon lefthand history between two revisions.
 
1841
 
    :param old_revision_id: The original revision id.
 
1842
 
    :param new_revision_id: The new revision id.
 
1843
 
    :param repository: The repository to use for the calculation.
 
1845
 
    return old_history, new_history
 
1848
 
    old_revisions = set()
 
1850
 
    new_revisions = set()
 
1851
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1852
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
 
1853
 
    stop_revision = None
 
1856
 
    while do_new or do_old:
 
1859
 
                new_revision = new_iter.next()
 
1860
 
            except StopIteration:
 
1863
 
                new_history.append(new_revision)
 
1864
 
                new_revisions.add(new_revision)
 
1865
 
                if new_revision in old_revisions:
 
1866
 
                    stop_revision = new_revision
 
1870
 
                old_revision = old_iter.next()
 
1871
 
            except StopIteration:
 
1874
 
                old_history.append(old_revision)
 
1875
 
                old_revisions.add(old_revision)
 
1876
 
                if old_revision in new_revisions:
 
1877
 
                    stop_revision = old_revision
 
1879
 
    new_history.reverse()
 
1880
 
    old_history.reverse()
 
1881
 
    if stop_revision is not None:
 
1882
 
        new_history = new_history[new_history.index(stop_revision) + 1:]
 
1883
 
        old_history = old_history[old_history.index(stop_revision) + 1:]
 
1884
 
    return old_history, new_history
 
1887
 
def show_branch_change(branch, output, old_revno, old_revision_id):
 
1888
 
    """Show the changes made to a branch.
 
1890
 
    :param branch: The branch to show changes about.
 
1891
 
    :param output: A file-like object to write changes to.
 
1892
 
    :param old_revno: The revno of the old tip.
 
1893
 
    :param old_revision_id: The revision_id of the old tip.
 
1895
 
    new_revno, new_revision_id = branch.last_revision_info()
 
1896
 
    old_history, new_history = get_history_change(old_revision_id,
 
1899
 
    if old_history == [] and new_history == []:
 
1900
 
        output.write('Nothing seems to have changed\n')
 
1903
 
    log_format = log_formatter_registry.get_default(branch)
 
1904
 
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
 
1905
 
    if old_history != []:
 
1906
 
        output.write('*'*60)
 
1907
 
        output.write('\nRemoved Revisions:\n')
 
1908
 
        show_flat_log(branch.repository, old_history, old_revno, lf)
 
1909
 
        output.write('*'*60)
 
1910
 
        output.write('\n\n')
 
1911
 
    if new_history != []:
 
1912
 
        output.write('Added Revisions:\n')
 
1913
 
        start_revno = new_revno - len(new_history) + 1
 
1914
 
        show_log(branch, lf, None, verbose=False, direction='forward',
 
1915
 
                 start_revision=start_revno,)
 
1918
 
def show_flat_log(repository, history, last_revno, lf):
 
1919
 
    """Show a simple log of the specified history.
 
1921
 
    :param repository: The repository to retrieve revisions from.
 
1922
 
    :param history: A list of revision_ids indicating the lefthand history.
 
1923
 
    :param last_revno: The revno of the last revision_id in the history.
 
1924
 
    :param lf: The log formatter to use.
 
1926
 
    start_revno = last_revno - len(history) + 1
 
1927
 
    revisions = repository.get_revisions(history)
 
1928
 
    for i, rev in enumerate(revisions):
 
1929
 
        lr = LogRevision(rev, i + last_revno, 0, None)
 
1933
 
def _get_info_for_log_files(revisionspec_list, file_list):
 
1934
 
    """Find file-ids and kinds given a list of files and a revision range.
 
1936
 
    We search for files at the end of the range. If not found there,
 
1937
 
    we try the start of the range.
 
1939
 
    :param revisionspec_list: revision range as parsed on the command line
 
1940
 
    :param file_list: the list of paths given on the command line;
 
1941
 
      the first of these can be a branch location or a file path,
 
1942
 
      the remainder must be file paths
 
1943
 
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
1944
 
      info_list is a list of (relative_path, file_id, kind) tuples where
 
1945
 
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
1946
 
      branch will be read-locked.
 
1948
 
    from builtins import _get_revision_range, safe_relpath_files
 
1949
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
1951
 
    # XXX: It's damn messy converting a list of paths to relative paths when
 
1952
 
    # those paths might be deleted ones, they might be on a case-insensitive
 
1953
 
    # filesystem and/or they might be in silly locations (like another branch).
 
1954
 
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
1955
 
    # file2 implicitly in the same dir as file1 or should its directory be
 
1956
 
    # taken from the current tree somehow?) For now, this solves the common
 
1957
 
    # case of running log in a nested directory, assuming paths beyond the
 
1958
 
    # first one haven't been deleted ...
 
1960
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
 
1962
 
        relpaths = [path] + file_list[1:]
 
1964
 
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
1966
 
    if relpaths in ([], [u'']):
 
1967
 
        return b, [], start_rev_info, end_rev_info
 
1968
 
    if start_rev_info is None and end_rev_info is None:
 
1970
 
            tree = b.basis_tree()
 
1973
 
            file_id = tree.path2id(fp)
 
1974
 
            kind = _get_kind_for_file_id(tree, file_id)
 
1976
 
                # go back to when time began
 
1979
 
                        rev1 = b.get_rev_id(1)
 
1980
 
                    except errors.NoSuchRevision:
 
1985
 
                        tree1 = b.repository.revision_tree(rev1)
 
1987
 
                    file_id = tree1.path2id(fp)
 
1988
 
                    kind = _get_kind_for_file_id(tree1, file_id)
 
1989
 
            info_list.append((fp, file_id, kind))
 
1991
 
    elif start_rev_info == end_rev_info:
 
1992
 
        # One revision given - file must exist in it
 
1993
 
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
1995
 
            file_id = tree.path2id(fp)
 
1996
 
            kind = _get_kind_for_file_id(tree, file_id)
 
1997
 
            info_list.append((fp, file_id, kind))
 
2000
 
        # Revision range given. Get the file-id from the end tree.
 
2001
 
        # If that fails, try the start tree.
 
2002
 
        rev_id = end_rev_info.rev_id
 
2004
 
            tree = b.basis_tree()
 
2006
 
            tree = b.repository.revision_tree(rev_id)
 
2009
 
            file_id = tree.path2id(fp)
 
2010
 
            kind = _get_kind_for_file_id(tree, file_id)
 
2013
 
                    rev_id = start_rev_info.rev_id
 
2015
 
                        rev1 = b.get_rev_id(1)
 
2016
 
                        tree1 = b.repository.revision_tree(rev1)
 
2018
 
                        tree1 = b.repository.revision_tree(rev_id)
 
2019
 
                file_id = tree1.path2id(fp)
 
2020
 
                kind = _get_kind_for_file_id(tree1, file_id)
 
2021
 
            info_list.append((fp, file_id, kind))
 
2022
 
    return b, info_list, start_rev_info, end_rev_info
 
2025
 
def _get_kind_for_file_id(tree, file_id):
 
2026
 
    """Return the kind of a file-id or None if it doesn't exist."""
 
2027
 
    if file_id is not None:
 
2028
 
        return tree.kind(file_id)
 
2033
 
properties_handler_registry = registry.Registry()
 
2035
 
# Use the properties handlers to print out bug information if available
 
2036
 
def _bugs_properties_handler(revision):
 
2037
 
    if revision.properties.has_key('bugs'):
 
2038
 
        bug_lines = revision.properties['bugs'].split('\n')
 
2039
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
 
2040
 
        fixed_bug_urls = [row[0] for row in bug_rows if
 
2041
 
                          len(row) > 1 and row[1] == 'fixed']
 
2044
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
 
2047
 
properties_handler_registry.register('bugs_properties_handler',
 
2048
 
                                     _bugs_properties_handler)
 
2051
 
# adapters which revision ids to log are filtered. When log is called, the
 
2052
 
# log_rev_iterator is adapted through each of these factory methods.
 
2053
 
# Plugins are welcome to mutate this list in any way they like - as long
 
2054
 
# as the overall behaviour is preserved. At this point there is no extensible
 
2055
 
# mechanism for getting parameters to each factory method, and until there is
 
2056
 
# this won't be considered a stable api.
 
2060
 
    # read revision objects
 
2061
 
    _make_revision_objects,
 
2062
 
    # filter on log messages
 
2063
 
    _make_search_filter,
 
2064
 
    # generate deltas for things we will show