/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to breezy/log.py

  • Committer: Jelmer Vernooij
  • Date: 2020-02-19 23:18:42 UTC
  • mto: (7490.3.4 work)
  • mto: This revision was merged to the branch mainline in revision 7495.
  • Revision ID: jelmer@jelmer.uk-20200219231842-agwjh2db66cpajqg
Consistent return values.

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Copyright (C) 2005-2011 Canonical Ltd
 
2
#
 
3
# This program is free software; you can redistribute it and/or modify
 
4
# it under the terms of the GNU General Public License as published by
 
5
# the Free Software Foundation; either version 2 of the License, or
 
6
# (at your option) any later version.
 
7
#
 
8
# This program is distributed in the hope that it will be useful,
 
9
# but WITHOUT ANY WARRANTY; without even the implied warranty of
 
10
# MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 
11
# GNU General Public License for more details.
 
12
#
 
13
# You should have received a copy of the GNU General Public License
 
14
# along with this program; if not, write to the Free Software
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
 
16
 
 
17
"""Code to show logs of changes.
 
18
 
 
19
Various flavors of log can be produced:
 
20
 
 
21
* for one file, or the whole tree, and (not done yet) for
 
22
  files in a given directory
 
23
 
 
24
* in "verbose" mode with a description of what changed from one
 
25
  version to the next
 
26
 
 
27
* with file-ids and revision-ids shown
 
28
 
 
29
Logs are actually written out through an abstract LogFormatter
 
30
interface, which allows for different preferred formats.  Plugins can
 
31
register formats too.
 
32
 
 
33
Logs can be produced in either forward (oldest->newest) or reverse
 
34
(newest->oldest) order.
 
35
 
 
36
Logs can be filtered to show only revisions matching a particular
 
37
search string, or within a particular range of revisions.  The range
 
38
can be given as date/times, which are reduced to revisions before
 
39
calling in here.
 
40
 
 
41
In verbose mode we show a summary of what changed in each particular
 
42
revision.  Note that this is the delta for changes in that revision
 
43
relative to its left-most parent, not the delta relative to the last
 
44
logged revision.  So for example if you ask for a verbose log of
 
45
changes touching hello.c you will get a list of those revisions also
 
46
listing other things that were changed in the same revision, but not
 
47
all the changes since the previous revision that touched hello.c.
 
48
"""
 
49
 
 
50
from __future__ import absolute_import
 
51
 
 
52
import codecs
 
53
import itertools
 
54
import re
 
55
import sys
 
56
from warnings import (
 
57
    warn,
 
58
    )
 
59
 
 
60
from .lazy_import import lazy_import
 
61
lazy_import(globals(), """
 
62
 
 
63
from breezy import (
 
64
    config,
 
65
    controldir,
 
66
    diff,
 
67
    foreign,
 
68
    lazy_regex,
 
69
    revision as _mod_revision,
 
70
    )
 
71
from breezy.i18n import gettext, ngettext
 
72
""")
 
73
 
 
74
from . import (
 
75
    errors,
 
76
    registry,
 
77
    revisionspec,
 
78
    trace,
 
79
    )
 
80
from .osutils import (
 
81
    format_date,
 
82
    format_date_with_offset_in_original_timezone,
 
83
    get_diff_header_encoding,
 
84
    get_terminal_encoding,
 
85
    terminal_width,
 
86
    )
 
87
from .sixish import (
 
88
    BytesIO,
 
89
    range,
 
90
    zip,
 
91
    )
 
92
from .tree import InterTree
 
93
 
 
94
 
 
95
def find_touching_revisions(repository, last_revision, last_tree, last_path):
 
96
    """Yield a description of revisions which affect the file_id.
 
97
 
 
98
    Each returned element is (revno, revision_id, description)
 
99
 
 
100
    This is the list of revisions where the file is either added,
 
101
    modified, renamed or deleted.
 
102
 
 
103
    TODO: Perhaps some way to limit this to only particular revisions,
 
104
    or to traverse a non-mainline set of revisions?
 
105
    """
 
106
    last_verifier = last_tree.get_file_verifier(last_path)
 
107
    graph = repository.get_graph()
 
108
    history = list(graph.iter_lefthand_ancestry(last_revision, []))
 
109
    revno = len(history)
 
110
    for revision_id in history:
 
111
        this_tree = repository.revision_tree(revision_id)
 
112
        this_intertree = InterTree.get(this_tree, last_tree)
 
113
        this_path = this_intertree.find_source_path(last_path)
 
114
 
 
115
        # now we know how it was last time, and how it is in this revision.
 
116
        # are those two states effectively the same or not?
 
117
        if this_path is not None and last_path is None:
 
118
            yield revno, revision_id, "deleted " + this_path
 
119
            this_verifier = this_tree.get_file_verifier(this_path)
 
120
        elif this_path is None and last_path is not None:
 
121
            yield revno, revision_id, "added " + last_path
 
122
        elif this_path != last_path:
 
123
            yield revno, revision_id, ("renamed %s => %s" % (this_path, last_path))
 
124
            this_verifier = this_tree.get_file_verifier(this_path)
 
125
        else:
 
126
            this_verifier = this_tree.get_file_verifier(this_path)
 
127
            if (this_verifier != last_verifier):
 
128
                yield revno, revision_id, "modified " + this_path
 
129
 
 
130
        last_verifier = this_verifier
 
131
        last_path = this_path
 
132
        last_tree = this_tree
 
133
        if last_path is None:
 
134
            return
 
135
        revno -= 1
 
136
 
 
137
 
 
138
def show_log(branch,
 
139
             lf,
 
140
             verbose=False,
 
141
             direction='reverse',
 
142
             start_revision=None,
 
143
             end_revision=None,
 
144
             search=None,
 
145
             limit=None,
 
146
             show_diff=False,
 
147
             match=None):
 
148
    """Write out human-readable log of commits to this branch.
 
149
 
 
150
    This function is being retained for backwards compatibility but
 
151
    should not be extended with new parameters. Use the new Logger class
 
152
    instead, eg. Logger(branch, rqst).show(lf), adding parameters to the
 
153
    make_log_request_dict function.
 
154
 
 
155
    :param lf: The LogFormatter object showing the output.
 
156
 
 
157
    :param verbose: If True show added/changed/deleted/renamed files.
 
158
 
 
159
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
 
160
        earliest to latest.
 
161
 
 
162
    :param start_revision: If not None, only show revisions >= start_revision
 
163
 
 
164
    :param end_revision: If not None, only show revisions <= end_revision
 
165
 
 
166
    :param search: If not None, only show revisions with matching commit
 
167
        messages
 
168
 
 
169
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
 
170
        if None or 0.
 
171
 
 
172
    :param show_diff: If True, output a diff after each revision.
 
173
 
 
174
    :param match: Dictionary of search lists to use when matching revision
 
175
      properties.
 
176
    """
 
177
    if verbose:
 
178
        delta_type = 'full'
 
179
    else:
 
180
        delta_type = None
 
181
    if show_diff:
 
182
        diff_type = 'full'
 
183
    else:
 
184
        diff_type = None
 
185
 
 
186
    if isinstance(start_revision, int):
 
187
        try:
 
188
            start_revision = revisionspec.RevisionInfo(branch, start_revision)
 
189
        except (errors.NoSuchRevision, errors.RevnoOutOfBounds):
 
190
            raise errors.InvalidRevisionNumber(start_revision)
 
191
 
 
192
    if isinstance(end_revision, int):
 
193
        try:
 
194
            end_revision = revisionspec.RevisionInfo(branch, end_revision)
 
195
        except (errors.NoSuchRevision, errors.RevnoOutOfBounds):
 
196
            raise errors.InvalidRevisionNumber(end_revision)
 
197
 
 
198
    if end_revision is not None and end_revision.revno == 0:
 
199
        raise errors.InvalidRevisionNumber(end_revision.revno)
 
200
 
 
201
    # Build the request and execute it
 
202
    rqst = make_log_request_dict(
 
203
        direction=direction,
 
204
        start_revision=start_revision, end_revision=end_revision,
 
205
        limit=limit, message_search=search,
 
206
        delta_type=delta_type, diff_type=diff_type)
 
207
    Logger(branch, rqst).show(lf)
 
208
 
 
209
 
 
210
# Note: This needs to be kept in sync with the defaults in
 
211
# make_log_request_dict() below
 
212
_DEFAULT_REQUEST_PARAMS = {
 
213
    'direction': 'reverse',
 
214
    'levels': None,
 
215
    'generate_tags': True,
 
216
    'exclude_common_ancestry': False,
 
217
    '_match_using_deltas': True,
 
218
    }
 
219
 
 
220
 
 
221
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
222
                          start_revision=None, end_revision=None, limit=None,
 
223
                          message_search=None, levels=None, generate_tags=True,
 
224
                          delta_type=None,
 
225
                          diff_type=None, _match_using_deltas=True,
 
226
                          exclude_common_ancestry=False, match=None,
 
227
                          signature=False, omit_merges=False,
 
228
                          ):
 
229
    """Convenience function for making a logging request dictionary.
 
230
 
 
231
    Using this function may make code slightly safer by ensuring
 
232
    parameters have the correct names. It also provides a reference
 
233
    point for documenting the supported parameters.
 
234
 
 
235
    :param direction: 'reverse' (default) is latest to earliest;
 
236
      'forward' is earliest to latest.
 
237
 
 
238
    :param specific_fileids: If not None, only include revisions
 
239
      affecting the specified files, rather than all revisions.
 
240
 
 
241
    :param start_revision: If not None, only generate
 
242
      revisions >= start_revision
 
243
 
 
244
    :param end_revision: If not None, only generate
 
245
      revisions <= end_revision
 
246
 
 
247
    :param limit: If set, generate only 'limit' revisions, all revisions
 
248
      are shown if None or 0.
 
249
 
 
250
    :param message_search: If not None, only include revisions with
 
251
      matching commit messages
 
252
 
 
253
    :param levels: the number of levels of revisions to
 
254
      generate; 1 for just the mainline; 0 for all levels, or None for
 
255
      a sensible default.
 
256
 
 
257
    :param generate_tags: If True, include tags for matched revisions.
 
258
`
 
259
    :param delta_type: Either 'full', 'partial' or None.
 
260
      'full' means generate the complete delta - adds/deletes/modifies/etc;
 
261
      'partial' means filter the delta using specific_fileids;
 
262
      None means do not generate any delta.
 
263
 
 
264
    :param diff_type: Either 'full', 'partial' or None.
 
265
      'full' means generate the complete diff - adds/deletes/modifies/etc;
 
266
      'partial' means filter the diff using specific_fileids;
 
267
      None means do not generate any diff.
 
268
 
 
269
    :param _match_using_deltas: a private parameter controlling the
 
270
      algorithm used for matching specific_fileids. This parameter
 
271
      may be removed in the future so breezy client code should NOT
 
272
      use it.
 
273
 
 
274
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
 
275
      range operator or as a graph difference.
 
276
 
 
277
    :param signature: show digital signature information
 
278
 
 
279
    :param match: Dictionary of list of search strings to use when filtering
 
280
      revisions. Keys can be 'message', 'author', 'committer', 'bugs' or
 
281
      the empty string to match any of the preceding properties.
 
282
 
 
283
    :param omit_merges: If True, commits with more than one parent are
 
284
      omitted.
 
285
 
 
286
    """
 
287
    # Take care of old style message_search parameter
 
288
    if message_search:
 
289
        if match:
 
290
            if 'message' in match:
 
291
                match['message'].append(message_search)
 
292
            else:
 
293
                match['message'] = [message_search]
 
294
        else:
 
295
            match = {'message': [message_search]}
 
296
    return {
 
297
        'direction': direction,
 
298
        'specific_fileids': specific_fileids,
 
299
        'start_revision': start_revision,
 
300
        'end_revision': end_revision,
 
301
        'limit': limit,
 
302
        'levels': levels,
 
303
        'generate_tags': generate_tags,
 
304
        'delta_type': delta_type,
 
305
        'diff_type': diff_type,
 
306
        'exclude_common_ancestry': exclude_common_ancestry,
 
307
        'signature': signature,
 
308
        'match': match,
 
309
        'omit_merges': omit_merges,
 
310
        # Add 'private' attributes for features that may be deprecated
 
311
        '_match_using_deltas': _match_using_deltas,
 
312
    }
 
313
 
 
314
 
 
315
def _apply_log_request_defaults(rqst):
 
316
    """Apply default values to a request dictionary."""
 
317
    result = _DEFAULT_REQUEST_PARAMS.copy()
 
318
    if rqst:
 
319
        result.update(rqst)
 
320
    return result
 
321
 
 
322
 
 
323
def format_signature_validity(rev_id, branch):
 
324
    """get the signature validity
 
325
 
 
326
    :param rev_id: revision id to validate
 
327
    :param branch: branch of revision
 
328
    :return: human readable string to print to log
 
329
    """
 
330
    from breezy import gpg
 
331
 
 
332
    gpg_strategy = gpg.GPGStrategy(branch.get_config_stack())
 
333
    result = branch.repository.verify_revision_signature(rev_id, gpg_strategy)
 
334
    if result[0] == gpg.SIGNATURE_VALID:
 
335
        return u"valid signature from {0}".format(result[1])
 
336
    if result[0] == gpg.SIGNATURE_KEY_MISSING:
 
337
        return "unknown key {0}".format(result[1])
 
338
    if result[0] == gpg.SIGNATURE_NOT_VALID:
 
339
        return "invalid signature!"
 
340
    if result[0] == gpg.SIGNATURE_NOT_SIGNED:
 
341
        return "no signature"
 
342
 
 
343
 
 
344
class LogGenerator(object):
 
345
    """A generator of log revisions."""
 
346
 
 
347
    def iter_log_revisions(self):
 
348
        """Iterate over LogRevision objects.
 
349
 
 
350
        :return: An iterator yielding LogRevision objects.
 
351
        """
 
352
        raise NotImplementedError(self.iter_log_revisions)
 
353
 
 
354
 
 
355
class Logger(object):
 
356
    """An object that generates, formats and displays a log."""
 
357
 
 
358
    def __init__(self, branch, rqst):
 
359
        """Create a Logger.
 
360
 
 
361
        :param branch: the branch to log
 
362
        :param rqst: A dictionary specifying the query parameters.
 
363
          See make_log_request_dict() for supported values.
 
364
        """
 
365
        self.branch = branch
 
366
        self.rqst = _apply_log_request_defaults(rqst)
 
367
 
 
368
    def show(self, lf):
 
369
        """Display the log.
 
370
 
 
371
        :param lf: The LogFormatter object to send the output to.
 
372
        """
 
373
        if not isinstance(lf, LogFormatter):
 
374
            warn("not a LogFormatter instance: %r" % lf)
 
375
 
 
376
        with self.branch.lock_read():
 
377
            if getattr(lf, 'begin_log', None):
 
378
                lf.begin_log()
 
379
            self._show_body(lf)
 
380
            if getattr(lf, 'end_log', None):
 
381
                lf.end_log()
 
382
 
 
383
    def _show_body(self, lf):
 
384
        """Show the main log output.
 
385
 
 
386
        Subclasses may wish to override this.
 
387
        """
 
388
        # Tweak the LogRequest based on what the LogFormatter can handle.
 
389
        # (There's no point generating stuff if the formatter can't display it.)
 
390
        rqst = self.rqst
 
391
        if rqst['levels'] is None or lf.get_levels() > rqst['levels']:
 
392
            # user didn't specify levels, use whatever the LF can handle:
 
393
            rqst['levels'] = lf.get_levels()
 
394
 
 
395
        if not getattr(lf, 'supports_tags', False):
 
396
            rqst['generate_tags'] = False
 
397
        if not getattr(lf, 'supports_delta', False):
 
398
            rqst['delta_type'] = None
 
399
        if not getattr(lf, 'supports_diff', False):
 
400
            rqst['diff_type'] = None
 
401
        if not getattr(lf, 'supports_signatures', False):
 
402
            rqst['signature'] = False
 
403
 
 
404
        # Find and print the interesting revisions
 
405
        generator = self._generator_factory(self.branch, rqst)
 
406
        try:
 
407
            for lr in generator.iter_log_revisions():
 
408
                lf.log_revision(lr)
 
409
        except errors.GhostRevisionUnusableHere:
 
410
            raise errors.BzrCommandError(
 
411
                gettext('Further revision history missing.'))
 
412
        lf.show_advice()
 
413
 
 
414
    def _generator_factory(self, branch, rqst):
 
415
        """Make the LogGenerator object to use.
 
416
 
 
417
        Subclasses may wish to override this.
 
418
        """
 
419
        return _DefaultLogGenerator(branch, rqst)
 
420
 
 
421
 
 
422
class _StartNotLinearAncestor(Exception):
 
423
    """Raised when a start revision is not found walking left-hand history."""
 
424
 
 
425
 
 
426
class _DefaultLogGenerator(LogGenerator):
 
427
    """The default generator of log revisions."""
 
428
 
 
429
    def __init__(self, branch, rqst):
 
430
        self.branch = branch
 
431
        self.rqst = rqst
 
432
        if rqst.get('generate_tags') and branch.supports_tags():
 
433
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
 
434
        else:
 
435
            self.rev_tag_dict = {}
 
436
 
 
437
    def iter_log_revisions(self):
 
438
        """Iterate over LogRevision objects.
 
439
 
 
440
        :return: An iterator yielding LogRevision objects.
 
441
        """
 
442
        rqst = self.rqst
 
443
        levels = rqst.get('levels')
 
444
        limit = rqst.get('limit')
 
445
        diff_type = rqst.get('diff_type')
 
446
        show_signature = rqst.get('signature')
 
447
        omit_merges = rqst.get('omit_merges')
 
448
        log_count = 0
 
449
        revision_iterator = self._create_log_revision_iterator()
 
450
        for revs in revision_iterator:
 
451
            for (rev_id, revno, merge_depth), rev, delta in revs:
 
452
                # 0 levels means show everything; merge_depth counts from 0
 
453
                if (levels != 0 and merge_depth is not None and
 
454
                        merge_depth >= levels):
 
455
                    continue
 
456
                if omit_merges and len(rev.parent_ids) > 1:
 
457
                    continue
 
458
                if rev is None:
 
459
                    raise errors.GhostRevisionUnusableHere(rev_id)
 
460
                if diff_type is None:
 
461
                    diff = None
 
462
                else:
 
463
                    diff = self._format_diff(rev, rev_id, diff_type)
 
464
                if show_signature:
 
465
                    signature = format_signature_validity(rev_id, self.branch)
 
466
                else:
 
467
                    signature = None
 
468
                yield LogRevision(
 
469
                    rev, revno, merge_depth, delta,
 
470
                    self.rev_tag_dict.get(rev_id), diff, signature)
 
471
                if limit:
 
472
                    log_count += 1
 
473
                    if log_count >= limit:
 
474
                        return
 
475
 
 
476
    def _format_diff(self, rev, rev_id, diff_type):
 
477
        repo = self.branch.repository
 
478
        if len(rev.parent_ids) == 0:
 
479
            ancestor_id = _mod_revision.NULL_REVISION
 
480
        else:
 
481
            ancestor_id = rev.parent_ids[0]
 
482
        tree_1 = repo.revision_tree(ancestor_id)
 
483
        tree_2 = repo.revision_tree(rev_id)
 
484
        file_ids = self.rqst.get('specific_fileids')
 
485
        if diff_type == 'partial' and file_ids is not None:
 
486
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
487
        else:
 
488
            specific_files = None
 
489
        s = BytesIO()
 
490
        path_encoding = get_diff_header_encoding()
 
491
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
492
                             new_label='', path_encoding=path_encoding)
 
493
        return s.getvalue()
 
494
 
 
495
    def _create_log_revision_iterator(self):
 
496
        """Create a revision iterator for log.
 
497
 
 
498
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
499
            delta).
 
500
        """
 
501
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
502
            self.branch, self.rqst.get('start_revision'),
 
503
            self.rqst.get('end_revision'))
 
504
        if self.rqst.get('_match_using_deltas'):
 
505
            return self._log_revision_iterator_using_delta_matching()
 
506
        else:
 
507
            # We're using the per-file-graph algorithm. This scales really
 
508
            # well but only makes sense if there is a single file and it's
 
509
            # not a directory
 
510
            file_count = len(self.rqst.get('specific_fileids'))
 
511
            if file_count != 1:
 
512
                raise errors.BzrError(
 
513
                    "illegal LogRequest: must match-using-deltas "
 
514
                    "when logging %d files" % file_count)
 
515
            return self._log_revision_iterator_using_per_file_graph()
 
516
 
 
517
    def _log_revision_iterator_using_delta_matching(self):
 
518
        # Get the base revisions, filtering by the revision range
 
519
        rqst = self.rqst
 
520
        generate_merge_revisions = rqst.get('levels') != 1
 
521
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
522
            rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
523
        view_revisions = _calc_view_revisions(
 
524
            self.branch, self.start_rev_id, self.end_rev_id,
 
525
            rqst.get('direction'),
 
526
            generate_merge_revisions=generate_merge_revisions,
 
527
            delayed_graph_generation=delayed_graph_generation,
 
528
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
529
 
 
530
        # Apply the other filters
 
531
        return make_log_rev_iterator(self.branch, view_revisions,
 
532
                                     rqst.get('delta_type'), rqst.get('match'),
 
533
                                     file_ids=rqst.get('specific_fileids'),
 
534
                                     direction=rqst.get('direction'))
 
535
 
 
536
    def _log_revision_iterator_using_per_file_graph(self):
 
537
        # Get the base revisions, filtering by the revision range.
 
538
        # Note that we always generate the merge revisions because
 
539
        # filter_revisions_touching_file_id() requires them ...
 
540
        rqst = self.rqst
 
541
        view_revisions = _calc_view_revisions(
 
542
            self.branch, self.start_rev_id, self.end_rev_id,
 
543
            rqst.get('direction'), generate_merge_revisions=True,
 
544
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
545
        if not isinstance(view_revisions, list):
 
546
            view_revisions = list(view_revisions)
 
547
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
548
                                                            rqst.get('specific_fileids')[
 
549
                                                                0], view_revisions,
 
550
                                                            include_merges=rqst.get('levels') != 1)
 
551
        return make_log_rev_iterator(self.branch, view_revisions,
 
552
                                     rqst.get('delta_type'), rqst.get('match'))
 
553
 
 
554
 
 
555
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
 
556
                         generate_merge_revisions,
 
557
                         delayed_graph_generation=False,
 
558
                         exclude_common_ancestry=False,
 
559
                         ):
 
560
    """Calculate the revisions to view.
 
561
 
 
562
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
563
             a list of the same tuples.
 
564
    """
 
565
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
 
566
        raise errors.BzrCommandError(gettext(
 
567
            '--exclude-common-ancestry requires two different revisions'))
 
568
    if direction not in ('reverse', 'forward'):
 
569
        raise ValueError(gettext('invalid direction %r') % direction)
 
570
    br_rev_id = branch.last_revision()
 
571
    if br_rev_id == _mod_revision.NULL_REVISION:
 
572
        return []
 
573
 
 
574
    if (end_rev_id and start_rev_id == end_rev_id
 
575
        and (not generate_merge_revisions
 
576
             or not _has_merges(branch, end_rev_id))):
 
577
        # If a single revision is requested, check we can handle it
 
578
        return _generate_one_revision(branch, end_rev_id, br_rev_id,
 
579
                                      branch.revno())
 
580
    if not generate_merge_revisions:
 
581
        try:
 
582
            # If we only want to see linear revisions, we can iterate ...
 
583
            iter_revs = _linear_view_revisions(
 
584
                branch, start_rev_id, end_rev_id,
 
585
                exclude_common_ancestry=exclude_common_ancestry)
 
586
            # If a start limit was given and it's not obviously an
 
587
            # ancestor of the end limit, check it before outputting anything
 
588
            if (direction == 'forward'
 
589
                or (start_rev_id and not _is_obvious_ancestor(
 
590
                    branch, start_rev_id, end_rev_id))):
 
591
                iter_revs = list(iter_revs)
 
592
            if direction == 'forward':
 
593
                iter_revs = reversed(iter_revs)
 
594
            return iter_revs
 
595
        except _StartNotLinearAncestor:
 
596
            # Switch to the slower implementation that may be able to find a
 
597
            # non-obvious ancestor out of the left-hand history.
 
598
            pass
 
599
    iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
600
                                        direction, delayed_graph_generation,
 
601
                                        exclude_common_ancestry)
 
602
    if direction == 'forward':
 
603
        iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
 
604
    return iter_revs
 
605
 
 
606
 
 
607
def _generate_one_revision(branch, rev_id, br_rev_id, br_revno):
 
608
    if rev_id == br_rev_id:
 
609
        # It's the tip
 
610
        return [(br_rev_id, br_revno, 0)]
 
611
    else:
 
612
        revno_str = _compute_revno_str(branch, rev_id)
 
613
        return [(rev_id, revno_str, 0)]
 
614
 
 
615
 
 
616
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
 
617
                            delayed_graph_generation,
 
618
                            exclude_common_ancestry=False):
 
619
    # On large trees, generating the merge graph can take 30-60 seconds
 
620
    # so we delay doing it until a merge is detected, incrementally
 
621
    # returning initial (non-merge) revisions while we can.
 
622
 
 
623
    # The above is only true for old formats (<= 0.92), for newer formats, a
 
624
    # couple of seconds only should be needed to load the whole graph and the
 
625
    # other graph operations needed are even faster than that -- vila 100201
 
626
    initial_revisions = []
 
627
    if delayed_graph_generation:
 
628
        try:
 
629
            for rev_id, revno, depth in _linear_view_revisions(
 
630
                    branch, start_rev_id, end_rev_id, exclude_common_ancestry):
 
631
                if _has_merges(branch, rev_id):
 
632
                    # The end_rev_id can be nested down somewhere. We need an
 
633
                    # explicit ancestry check. There is an ambiguity here as we
 
634
                    # may not raise _StartNotLinearAncestor for a revision that
 
635
                    # is an ancestor but not a *linear* one. But since we have
 
636
                    # loaded the graph to do the check (or calculate a dotted
 
637
                    # revno), we may as well accept to show the log...  We need
 
638
                    # the check only if start_rev_id is not None as all
 
639
                    # revisions have _mod_revision.NULL_REVISION as an ancestor
 
640
                    # -- vila 20100319
 
641
                    graph = branch.repository.get_graph()
 
642
                    if (start_rev_id is not None
 
643
                            and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
644
                        raise _StartNotLinearAncestor()
 
645
                    # Since we collected the revisions so far, we need to
 
646
                    # adjust end_rev_id.
 
647
                    end_rev_id = rev_id
 
648
                    break
 
649
                else:
 
650
                    initial_revisions.append((rev_id, revno, depth))
 
651
            else:
 
652
                # No merged revisions found
 
653
                return initial_revisions
 
654
        except _StartNotLinearAncestor:
 
655
            # A merge was never detected so the lower revision limit can't
 
656
            # be nested down somewhere
 
657
            raise errors.BzrCommandError(gettext('Start revision not found in'
 
658
                                                 ' history of end revision.'))
 
659
 
 
660
    # We exit the loop above because we encounter a revision with merges, from
 
661
    # this revision, we need to switch to _graph_view_revisions.
 
662
 
 
663
    # A log including nested merges is required. If the direction is reverse,
 
664
    # we rebase the initial merge depths so that the development line is
 
665
    # shown naturally, i.e. just like it is for linear logging. We can easily
 
666
    # make forward the exact opposite display, but showing the merge revisions
 
667
    # indented at the end seems slightly nicer in that case.
 
668
    view_revisions = itertools.chain(iter(initial_revisions),
 
669
                                     _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
670
                                                           rebase_initial_depths=(
 
671
                                                               direction == 'reverse'),
 
672
                                                           exclude_common_ancestry=exclude_common_ancestry))
 
673
    return view_revisions
 
674
 
 
675
 
 
676
def _has_merges(branch, rev_id):
 
677
    """Does a revision have multiple parents or not?"""
 
678
    parents = branch.repository.get_parent_map([rev_id]).get(rev_id, [])
 
679
    return len(parents) > 1
 
680
 
 
681
 
 
682
def _compute_revno_str(branch, rev_id):
 
683
    """Compute the revno string from a rev_id.
 
684
 
 
685
    :return: The revno string, or None if the revision is not in the supplied
 
686
        branch.
 
687
    """
 
688
    try:
 
689
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
690
    except errors.NoSuchRevision:
 
691
        # The revision must be outside of this branch
 
692
        return None
 
693
    else:
 
694
        return '.'.join(str(n) for n in revno)
 
695
 
 
696
 
 
697
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
 
698
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
 
699
    if start_rev_id and end_rev_id:
 
700
        try:
 
701
            start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
702
            end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
703
        except errors.NoSuchRevision:
 
704
            # one or both is not in the branch; not obvious
 
705
            return False
 
706
        if len(start_dotted) == 1 and len(end_dotted) == 1:
 
707
            # both on mainline
 
708
            return start_dotted[0] <= end_dotted[0]
 
709
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
 
710
              start_dotted[0:1] == end_dotted[0:1]):
 
711
            # both on same development line
 
712
            return start_dotted[2] <= end_dotted[2]
 
713
        else:
 
714
            # not obvious
 
715
            return False
 
716
    # if either start or end is not specified then we use either the first or
 
717
    # the last revision and *they* are obvious ancestors.
 
718
    return True
 
719
 
 
720
 
 
721
def _linear_view_revisions(branch, start_rev_id, end_rev_id,
 
722
                           exclude_common_ancestry=False):
 
723
    """Calculate a sequence of revisions to view, newest to oldest.
 
724
 
 
725
    :param start_rev_id: the lower revision-id
 
726
    :param end_rev_id: the upper revision-id
 
727
    :param exclude_common_ancestry: Whether the start_rev_id should be part of
 
728
        the iterated revisions.
 
729
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
730
        dotted_revno will be None for ghosts
 
731
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
 
732
        is not found walking the left-hand history
 
733
    """
 
734
    repo = branch.repository
 
735
    graph = repo.get_graph()
 
736
    if start_rev_id is None and end_rev_id is None:
 
737
        if branch._format.stores_revno() or \
 
738
                config.GlobalStack().get('calculate_revnos'):
 
739
            try:
 
740
                br_revno, br_rev_id = branch.last_revision_info()
 
741
            except errors.GhostRevisionsHaveNoRevno:
 
742
                br_rev_id = branch.last_revision()
 
743
                cur_revno = None
 
744
            else:
 
745
                cur_revno = br_revno
 
746
        else:
 
747
            br_rev_id = branch.last_revision()
 
748
            cur_revno = None
 
749
 
 
750
        graph_iter = graph.iter_lefthand_ancestry(br_rev_id,
 
751
                                                  (_mod_revision.NULL_REVISION,))
 
752
        while True:
 
753
            try:
 
754
                revision_id = next(graph_iter)
 
755
            except errors.RevisionNotPresent as e:
 
756
                # Oops, a ghost.
 
757
                yield e.revision_id, None, None
 
758
                break
 
759
            except StopIteration:
 
760
                break
 
761
            else:
 
762
                yield revision_id, str(cur_revno) if cur_revno is not None else None, 0
 
763
                if cur_revno is not None:
 
764
                    cur_revno -= 1
 
765
    else:
 
766
        br_rev_id = branch.last_revision()
 
767
        if end_rev_id is None:
 
768
            end_rev_id = br_rev_id
 
769
        found_start = start_rev_id is None
 
770
        graph_iter = graph.iter_lefthand_ancestry(end_rev_id,
 
771
                                                  (_mod_revision.NULL_REVISION,))
 
772
        while True:
 
773
            try:
 
774
                revision_id = next(graph_iter)
 
775
            except StopIteration:
 
776
                break
 
777
            except errors.RevisionNotPresent as e:
 
778
                # Oops, a ghost.
 
779
                yield e.revision_id, None, None
 
780
                break
 
781
            else:
 
782
                revno_str = _compute_revno_str(branch, revision_id)
 
783
                if not found_start and revision_id == start_rev_id:
 
784
                    if not exclude_common_ancestry:
 
785
                        yield revision_id, revno_str, 0
 
786
                    found_start = True
 
787
                    break
 
788
                else:
 
789
                    yield revision_id, revno_str, 0
 
790
        if not found_start:
 
791
            raise _StartNotLinearAncestor()
 
792
 
 
793
 
 
794
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
795
                          rebase_initial_depths=True,
 
796
                          exclude_common_ancestry=False):
 
797
    """Calculate revisions to view including merges, newest to oldest.
 
798
 
 
799
    :param branch: the branch
 
800
    :param start_rev_id: the lower revision-id
 
801
    :param end_rev_id: the upper revision-id
 
802
    :param rebase_initial_depth: should depths be rebased until a mainline
 
803
      revision is found?
 
804
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
805
    """
 
806
    if exclude_common_ancestry:
 
807
        stop_rule = 'with-merges-without-common-ancestry'
 
808
    else:
 
809
        stop_rule = 'with-merges'
 
810
    view_revisions = branch.iter_merge_sorted_revisions(
 
811
        start_revision_id=end_rev_id, stop_revision_id=start_rev_id,
 
812
        stop_rule=stop_rule)
 
813
    if not rebase_initial_depths:
 
814
        for (rev_id, merge_depth, revno, end_of_merge
 
815
             ) in view_revisions:
 
816
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
817
    else:
 
818
        # We're following a development line starting at a merged revision.
 
819
        # We need to adjust depths down by the initial depth until we find
 
820
        # a depth less than it. Then we use that depth as the adjustment.
 
821
        # If and when we reach the mainline, depth adjustment ends.
 
822
        depth_adjustment = None
 
823
        for (rev_id, merge_depth, revno, end_of_merge
 
824
             ) in view_revisions:
 
825
            if depth_adjustment is None:
 
826
                depth_adjustment = merge_depth
 
827
            if depth_adjustment:
 
828
                if merge_depth < depth_adjustment:
 
829
                    # From now on we reduce the depth adjustement, this can be
 
830
                    # surprising for users. The alternative requires two passes
 
831
                    # which breaks the fast display of the first revision
 
832
                    # though.
 
833
                    depth_adjustment = merge_depth
 
834
                merge_depth -= depth_adjustment
 
835
            yield rev_id, '.'.join(map(str, revno)), merge_depth
 
836
 
 
837
 
 
838
def _rebase_merge_depth(view_revisions):
 
839
    """Adjust depths upwards so the top level is 0."""
 
840
    # If either the first or last revision have a merge_depth of 0, we're done
 
841
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
 
842
        min_depth = min([d for r, n, d in view_revisions])
 
843
        if min_depth != 0:
 
844
            view_revisions = [(r, n, d - min_depth)
 
845
                              for r, n, d in view_revisions]
 
846
    return view_revisions
 
847
 
 
848
 
 
849
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
 
850
                          file_ids=None, direction='reverse'):
 
851
    """Create a revision iterator for log.
 
852
 
 
853
    :param branch: The branch being logged.
 
854
    :param view_revisions: The revisions being viewed.
 
855
    :param generate_delta: Whether to generate a delta for each revision.
 
856
      Permitted values are None, 'full' and 'partial'.
 
857
    :param search: A user text search string.
 
858
    :param file_ids: If non empty, only revisions matching one or more of
 
859
      the file-ids are to be kept.
 
860
    :param direction: the direction in which view_revisions is sorted
 
861
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
862
        delta).
 
863
    """
 
864
    # Convert view_revisions into (view, None, None) groups to fit with
 
865
    # the standard interface here.
 
866
    if isinstance(view_revisions, list):
 
867
        # A single batch conversion is faster than many incremental ones.
 
868
        # As we have all the data, do a batch conversion.
 
869
        nones = [None] * len(view_revisions)
 
870
        log_rev_iterator = iter([list(zip(view_revisions, nones, nones))])
 
871
    else:
 
872
        def _convert():
 
873
            for view in view_revisions:
 
874
                yield (view, None, None)
 
875
        log_rev_iterator = iter([_convert()])
 
876
    for adapter in log_adapters:
 
877
        # It would be nicer if log adapters were first class objects
 
878
        # with custom parameters. This will do for now. IGC 20090127
 
879
        if adapter == _make_delta_filter:
 
880
            log_rev_iterator = adapter(
 
881
                branch, generate_delta, search, log_rev_iterator, file_ids,
 
882
                direction)
 
883
        else:
 
884
            log_rev_iterator = adapter(
 
885
                branch, generate_delta, search, log_rev_iterator)
 
886
    return log_rev_iterator
 
887
 
 
888
 
 
889
def _make_search_filter(branch, generate_delta, match, log_rev_iterator):
 
890
    """Create a filtered iterator of log_rev_iterator matching on a regex.
 
891
 
 
892
    :param branch: The branch being logged.
 
893
    :param generate_delta: Whether to generate a delta for each revision.
 
894
    :param match: A dictionary with properties as keys and lists of strings
 
895
        as values. To match, a revision may match any of the supplied strings
 
896
        within a single property but must match at least one string for each
 
897
        property.
 
898
    :param log_rev_iterator: An input iterator containing all revisions that
 
899
        could be displayed, in lists.
 
900
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
901
        delta).
 
902
    """
 
903
    if not match:
 
904
        return log_rev_iterator
 
905
    # Use lazy_compile so mapping to InvalidPattern error occurs.
 
906
    searchRE = [(k, [lazy_regex.lazy_compile(x, re.IGNORECASE) for x in v])
 
907
                for k, v in match.items()]
 
908
    return _filter_re(searchRE, log_rev_iterator)
 
909
 
 
910
 
 
911
def _filter_re(searchRE, log_rev_iterator):
 
912
    for revs in log_rev_iterator:
 
913
        new_revs = [rev for rev in revs if _match_filter(searchRE, rev[1])]
 
914
        if new_revs:
 
915
            yield new_revs
 
916
 
 
917
 
 
918
def _match_filter(searchRE, rev):
 
919
    strings = {
 
920
        'message': (rev.message,),
 
921
        'committer': (rev.committer,),
 
922
        'author': (rev.get_apparent_authors()),
 
923
        'bugs': list(rev.iter_bugs())
 
924
        }
 
925
    strings[''] = [item for inner_list in strings.values()
 
926
                   for item in inner_list]
 
927
    for k, v in searchRE:
 
928
        if k in strings and not _match_any_filter(strings[k], v):
 
929
            return False
 
930
    return True
 
931
 
 
932
 
 
933
def _match_any_filter(strings, res):
 
934
    return any(r.search(s) for r in res for s in strings)
 
935
 
 
936
 
 
937
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
 
938
                       fileids=None, direction='reverse'):
 
939
    """Add revision deltas to a log iterator if needed.
 
940
 
 
941
    :param branch: The branch being logged.
 
942
    :param generate_delta: Whether to generate a delta for each revision.
 
943
      Permitted values are None, 'full' and 'partial'.
 
944
    :param search: A user text search string.
 
945
    :param log_rev_iterator: An input iterator containing all revisions that
 
946
        could be displayed, in lists.
 
947
    :param fileids: If non empty, only revisions matching one or more of
 
948
      the file-ids are to be kept.
 
949
    :param direction: the direction in which view_revisions is sorted
 
950
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
951
        delta).
 
952
    """
 
953
    if not generate_delta and not fileids:
 
954
        return log_rev_iterator
 
955
    return _generate_deltas(branch.repository, log_rev_iterator,
 
956
                            generate_delta, fileids, direction)
 
957
 
 
958
 
 
959
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
960
                     direction):
 
961
    """Create deltas for each batch of revisions in log_rev_iterator.
 
962
 
 
963
    If we're only generating deltas for the sake of filtering against
 
964
    file-ids, we stop generating deltas once all file-ids reach the
 
965
    appropriate life-cycle point. If we're receiving data newest to
 
966
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
 
967
    """
 
968
    check_fileids = fileids is not None and len(fileids) > 0
 
969
    if check_fileids:
 
970
        fileid_set = set(fileids)
 
971
        if direction == 'reverse':
 
972
            stop_on = 'add'
 
973
        else:
 
974
            stop_on = 'remove'
 
975
    else:
 
976
        fileid_set = None
 
977
    for revs in log_rev_iterator:
 
978
        # If we were matching against fileids and we've run out,
 
979
        # there's nothing left to do
 
980
        if check_fileids and not fileid_set:
 
981
            return
 
982
        revisions = [rev[1] for rev in revs]
 
983
        new_revs = []
 
984
        if delta_type == 'full' and not check_fileids:
 
985
            deltas = repository.get_deltas_for_revisions(revisions)
 
986
            for rev, delta in zip(revs, deltas):
 
987
                new_revs.append((rev[0], rev[1], delta))
 
988
        else:
 
989
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
990
            for rev, delta in zip(revs, deltas):
 
991
                if check_fileids:
 
992
                    if delta is None or not delta.has_changed():
 
993
                        continue
 
994
                    else:
 
995
                        _update_fileids(delta, fileid_set, stop_on)
 
996
                        if delta_type is None:
 
997
                            delta = None
 
998
                        elif delta_type == 'full':
 
999
                            # If the file matches all the time, rebuilding
 
1000
                            # a full delta like this in addition to a partial
 
1001
                            # one could be slow. However, it's likely that
 
1002
                            # most revisions won't get this far, making it
 
1003
                            # faster to filter on the partial deltas and
 
1004
                            # build the occasional full delta than always
 
1005
                            # building full deltas and filtering those.
 
1006
                            rev_id = rev[0][0]
 
1007
                            delta = repository.get_revision_delta(rev_id)
 
1008
                new_revs.append((rev[0], rev[1], delta))
 
1009
        yield new_revs
 
1010
 
 
1011
 
 
1012
def _update_fileids(delta, fileids, stop_on):
 
1013
    """Update the set of file-ids to search based on file lifecycle events.
 
1014
 
 
1015
    :param fileids: a set of fileids to update
 
1016
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
 
1017
      fileids set once their add or remove entry is detected respectively
 
1018
    """
 
1019
    if stop_on == 'add':
 
1020
        for item in delta.added + delta.copied:
 
1021
            if item.file_id in fileids:
 
1022
                fileids.remove(item.file_id)
 
1023
    elif stop_on == 'delete':
 
1024
        for item in delta.removed:
 
1025
            if item.file_id in fileids:
 
1026
                fileids.remove(item.file_id)
 
1027
 
 
1028
 
 
1029
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
 
1030
    """Extract revision objects from the repository
 
1031
 
 
1032
    :param branch: The branch being logged.
 
1033
    :param generate_delta: Whether to generate a delta for each revision.
 
1034
    :param search: A user text search string.
 
1035
    :param log_rev_iterator: An input iterator containing all revisions that
 
1036
        could be displayed, in lists.
 
1037
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
1038
        delta).
 
1039
    """
 
1040
    repository = branch.repository
 
1041
    for revs in log_rev_iterator:
 
1042
        # r = revision_id, n = revno, d = merge depth
 
1043
        revision_ids = [view[0] for view, _, _ in revs]
 
1044
        revisions = dict(repository.iter_revisions(revision_ids))
 
1045
        yield [(rev[0], revisions[rev[0][0]], rev[2]) for rev in revs]
 
1046
 
 
1047
 
 
1048
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
 
1049
    """Group up a single large batch into smaller ones.
 
1050
 
 
1051
    :param branch: The branch being logged.
 
1052
    :param generate_delta: Whether to generate a delta for each revision.
 
1053
    :param search: A user text search string.
 
1054
    :param log_rev_iterator: An input iterator containing all revisions that
 
1055
        could be displayed, in lists.
 
1056
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
 
1057
        delta).
 
1058
    """
 
1059
    num = 9
 
1060
    for batch in log_rev_iterator:
 
1061
        batch = iter(batch)
 
1062
        while True:
 
1063
            step = [detail for _, detail in zip(range(num), batch)]
 
1064
            if len(step) == 0:
 
1065
                break
 
1066
            yield step
 
1067
            num = min(int(num * 1.5), 200)
 
1068
 
 
1069
 
 
1070
def _get_revision_limits(branch, start_revision, end_revision):
 
1071
    """Get and check revision limits.
 
1072
 
 
1073
    :param  branch: The branch containing the revisions.
 
1074
 
 
1075
    :param  start_revision: The first revision to be logged.
 
1076
            but for merge revision support a RevisionInfo is expected.
 
1077
 
 
1078
    :param  end_revision: The last revision to be logged.
 
1079
            For backwards compatibility this may be a mainline integer revno,
 
1080
            but for merge revision support a RevisionInfo is expected.
 
1081
 
 
1082
    :return: (start_rev_id, end_rev_id) tuple.
 
1083
    """
 
1084
    start_rev_id = None
 
1085
    start_revno = None
 
1086
    if start_revision is not None:
 
1087
        if not isinstance(start_revision, revisionspec.RevisionInfo):
 
1088
            raise TypeError(start_revision)
 
1089
        start_rev_id = start_revision.rev_id
 
1090
        start_revno = start_revision.revno
 
1091
    if start_revno is None:
 
1092
        start_revno = 1
 
1093
 
 
1094
    end_rev_id = None
 
1095
    end_revno = None
 
1096
    if end_revision is not None:
 
1097
        if not isinstance(end_revision, revisionspec.RevisionInfo):
 
1098
            raise TypeError(start_revision)
 
1099
        end_rev_id = end_revision.rev_id
 
1100
        end_revno = end_revision.revno
 
1101
 
 
1102
    if branch.last_revision() != _mod_revision.NULL_REVISION:
 
1103
        if (start_rev_id == _mod_revision.NULL_REVISION
 
1104
                or end_rev_id == _mod_revision.NULL_REVISION):
 
1105
            raise errors.BzrCommandError(
 
1106
                gettext('Logging revision 0 is invalid.'))
 
1107
        if end_revno is not None and start_revno > end_revno:
 
1108
            raise errors.BzrCommandError(
 
1109
                gettext("Start revision must be older than the end revision."))
 
1110
    return (start_rev_id, end_rev_id)
 
1111
 
 
1112
 
 
1113
def _get_mainline_revs(branch, start_revision, end_revision):
 
1114
    """Get the mainline revisions from the branch.
 
1115
 
 
1116
    Generates the list of mainline revisions for the branch.
 
1117
 
 
1118
    :param  branch: The branch containing the revisions.
 
1119
 
 
1120
    :param  start_revision: The first revision to be logged.
 
1121
            For backwards compatibility this may be a mainline integer revno,
 
1122
            but for merge revision support a RevisionInfo is expected.
 
1123
 
 
1124
    :param  end_revision: The last revision to be logged.
 
1125
            For backwards compatibility this may be a mainline integer revno,
 
1126
            but for merge revision support a RevisionInfo is expected.
 
1127
 
 
1128
    :return: A (mainline_revs, rev_nos, start_rev_id, end_rev_id) tuple.
 
1129
    """
 
1130
    branch_revno, branch_last_revision = branch.last_revision_info()
 
1131
    if branch_revno == 0:
 
1132
        return None, None, None, None
 
1133
 
 
1134
    # For mainline generation, map start_revision and end_revision to
 
1135
    # mainline revnos. If the revision is not on the mainline choose the
 
1136
    # appropriate extreme of the mainline instead - the extra will be
 
1137
    # filtered later.
 
1138
    # Also map the revisions to rev_ids, to be used in the later filtering
 
1139
    # stage.
 
1140
    start_rev_id = None
 
1141
    if start_revision is None:
 
1142
        start_revno = 1
 
1143
    else:
 
1144
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
1145
            start_rev_id = start_revision.rev_id
 
1146
            start_revno = start_revision.revno or 1
 
1147
        else:
 
1148
            branch.check_real_revno(start_revision)
 
1149
            start_revno = start_revision
 
1150
 
 
1151
    end_rev_id = None
 
1152
    if end_revision is None:
 
1153
        end_revno = branch_revno
 
1154
    else:
 
1155
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
1156
            end_rev_id = end_revision.rev_id
 
1157
            end_revno = end_revision.revno or branch_revno
 
1158
        else:
 
1159
            branch.check_real_revno(end_revision)
 
1160
            end_revno = end_revision
 
1161
 
 
1162
    if ((start_rev_id == _mod_revision.NULL_REVISION)
 
1163
            or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1164
        raise errors.BzrCommandError(gettext('Logging revision 0 is invalid.'))
 
1165
    if start_revno > end_revno:
 
1166
        raise errors.BzrCommandError(gettext("Start revision must be older "
 
1167
                                             "than the end revision."))
 
1168
 
 
1169
    if end_revno < start_revno:
 
1170
        return None, None, None, None
 
1171
    cur_revno = branch_revno
 
1172
    rev_nos = {}
 
1173
    mainline_revs = []
 
1174
    graph = branch.repository.get_graph()
 
1175
    for revision_id in graph.iter_lefthand_ancestry(
 
1176
            branch_last_revision, (_mod_revision.NULL_REVISION,)):
 
1177
        if cur_revno < start_revno:
 
1178
            # We have gone far enough, but we always add 1 more revision
 
1179
            rev_nos[revision_id] = cur_revno
 
1180
            mainline_revs.append(revision_id)
 
1181
            break
 
1182
        if cur_revno <= end_revno:
 
1183
            rev_nos[revision_id] = cur_revno
 
1184
            mainline_revs.append(revision_id)
 
1185
        cur_revno -= 1
 
1186
    else:
 
1187
        # We walked off the edge of all revisions, so we add a 'None' marker
 
1188
        mainline_revs.append(None)
 
1189
 
 
1190
    mainline_revs.reverse()
 
1191
 
 
1192
    # override the mainline to look like the revision history.
 
1193
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
 
1194
 
 
1195
 
 
1196
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
 
1197
                                       include_merges=True):
 
1198
    r"""Return the list of revision ids which touch a given file id.
 
1199
 
 
1200
    The function filters view_revisions and returns a subset.
 
1201
    This includes the revisions which directly change the file id,
 
1202
    and the revisions which merge these changes. So if the
 
1203
    revision graph is::
 
1204
 
 
1205
        A-.
 
1206
        |\ \
 
1207
        B C E
 
1208
        |/ /
 
1209
        D |
 
1210
        |\|
 
1211
        | F
 
1212
        |/
 
1213
        G
 
1214
 
 
1215
    And 'C' changes a file, then both C and D will be returned. F will not be
 
1216
    returned even though it brings the changes to C into the branch starting
 
1217
    with E. (Note that if we were using F as the tip instead of G, then we
 
1218
    would see C, D, F.)
 
1219
 
 
1220
    This will also be restricted based on a subset of the mainline.
 
1221
 
 
1222
    :param branch: The branch where we can get text revision information.
 
1223
 
 
1224
    :param file_id: Filter out revisions that do not touch file_id.
 
1225
 
 
1226
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1227
        tuples. This is the list of revisions which will be filtered. It is
 
1228
        assumed that view_revisions is in merge_sort order (i.e. newest
 
1229
        revision first ).
 
1230
 
 
1231
    :param include_merges: include merge revisions in the result or not
 
1232
 
 
1233
    :return: A list of (revision_id, dotted_revno, merge_depth) tuples.
 
1234
    """
 
1235
    # Lookup all possible text keys to determine which ones actually modified
 
1236
    # the file.
 
1237
    graph = branch.repository.get_file_graph()
 
1238
    get_parent_map = graph.get_parent_map
 
1239
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
 
1240
    next_keys = None
 
1241
    # Looking up keys in batches of 1000 can cut the time in half, as well as
 
1242
    # memory consumption. GraphIndex *does* like to look for a few keys in
 
1243
    # parallel, it just doesn't like looking for *lots* of keys in parallel.
 
1244
    # TODO: This code needs to be re-evaluated periodically as we tune the
 
1245
    #       indexing layer. We might consider passing in hints as to the known
 
1246
    #       access pattern (sparse/clustered, high success rate/low success
 
1247
    #       rate). This particular access is clustered with a low success rate.
 
1248
    modified_text_revisions = set()
 
1249
    chunk_size = 1000
 
1250
    for start in range(0, len(text_keys), chunk_size):
 
1251
        next_keys = text_keys[start:start + chunk_size]
 
1252
        # Only keep the revision_id portion of the key
 
1253
        modified_text_revisions.update(
 
1254
            [k[1] for k in get_parent_map(next_keys)])
 
1255
    del text_keys, next_keys
 
1256
 
 
1257
    result = []
 
1258
    # Track what revisions will merge the current revision, replace entries
 
1259
    # with 'None' when they have been added to result
 
1260
    current_merge_stack = [None]
 
1261
    for info in view_revisions:
 
1262
        rev_id, revno, depth = info
 
1263
        if depth == len(current_merge_stack):
 
1264
            current_merge_stack.append(info)
 
1265
        else:
 
1266
            del current_merge_stack[depth + 1:]
 
1267
            current_merge_stack[-1] = info
 
1268
 
 
1269
        if rev_id in modified_text_revisions:
 
1270
            # This needs to be logged, along with the extra revisions
 
1271
            for idx in range(len(current_merge_stack)):
 
1272
                node = current_merge_stack[idx]
 
1273
                if node is not None:
 
1274
                    if include_merges or node[2] == 0:
 
1275
                        result.append(node)
 
1276
                        current_merge_stack[idx] = None
 
1277
    return result
 
1278
 
 
1279
 
 
1280
def reverse_by_depth(merge_sorted_revisions, _depth=0):
 
1281
    """Reverse revisions by depth.
 
1282
 
 
1283
    Revisions with a different depth are sorted as a group with the previous
 
1284
    revision of that depth.  There may be no topological justification for this
 
1285
    but it looks much nicer.
 
1286
    """
 
1287
    # Add a fake revision at start so that we can always attach sub revisions
 
1288
    merge_sorted_revisions = [(None, None, _depth)] + merge_sorted_revisions
 
1289
    zd_revisions = []
 
1290
    for val in merge_sorted_revisions:
 
1291
        if val[2] == _depth:
 
1292
            # Each revision at the current depth becomes a chunk grouping all
 
1293
            # higher depth revisions.
 
1294
            zd_revisions.append([val])
 
1295
        else:
 
1296
            zd_revisions[-1].append(val)
 
1297
    for revisions in zd_revisions:
 
1298
        if len(revisions) > 1:
 
1299
            # We have higher depth revisions, let reverse them locally
 
1300
            revisions[1:] = reverse_by_depth(revisions[1:], _depth + 1)
 
1301
    zd_revisions.reverse()
 
1302
    result = []
 
1303
    for chunk in zd_revisions:
 
1304
        result.extend(chunk)
 
1305
    if _depth == 0:
 
1306
        # Top level call, get rid of the fake revisions that have been added
 
1307
        result = [r for r in result if r[0] is not None and r[1] is not None]
 
1308
    return result
 
1309
 
 
1310
 
 
1311
class LogRevision(object):
 
1312
    """A revision to be logged (by LogFormatter.log_revision).
 
1313
 
 
1314
    A simple wrapper for the attributes of a revision to be logged.
 
1315
    The attributes may or may not be populated, as determined by the
 
1316
    logging options and the log formatter capabilities.
 
1317
    """
 
1318
 
 
1319
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
 
1320
                 tags=None, diff=None, signature=None):
 
1321
        self.rev = rev
 
1322
        if revno is None:
 
1323
            self.revno = None
 
1324
        else:
 
1325
            self.revno = str(revno)
 
1326
        self.merge_depth = merge_depth
 
1327
        self.delta = delta
 
1328
        self.tags = tags
 
1329
        self.diff = diff
 
1330
        self.signature = signature
 
1331
 
 
1332
 
 
1333
class LogFormatter(object):
 
1334
    """Abstract class to display log messages.
 
1335
 
 
1336
    At a minimum, a derived class must implement the log_revision method.
 
1337
 
 
1338
    If the LogFormatter needs to be informed of the beginning or end of
 
1339
    a log it should implement the begin_log and/or end_log hook methods.
 
1340
 
 
1341
    A LogFormatter should define the following supports_XXX flags
 
1342
    to indicate which LogRevision attributes it supports:
 
1343
 
 
1344
    - supports_delta must be True if this log formatter supports delta.
 
1345
      Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1346
      attribute describes whether the 'short_status' format (1) or the long
 
1347
      one (2) should be used.
 
1348
 
 
1349
    - supports_merge_revisions must be True if this log formatter supports
 
1350
      merge revisions.  If not, then only mainline revisions will be passed
 
1351
      to the formatter.
 
1352
 
 
1353
    - preferred_levels is the number of levels this formatter defaults to.
 
1354
      The default value is zero meaning display all levels.
 
1355
      This value is only relevant if supports_merge_revisions is True.
 
1356
 
 
1357
    - supports_tags must be True if this log formatter supports tags.
 
1358
      Otherwise the tags attribute may not be populated.
 
1359
 
 
1360
    - supports_diff must be True if this log formatter supports diffs.
 
1361
      Otherwise the diff attribute may not be populated.
 
1362
 
 
1363
    - supports_signatures must be True if this log formatter supports GPG
 
1364
      signatures.
 
1365
 
 
1366
    Plugins can register functions to show custom revision properties using
 
1367
    the properties_handler_registry. The registered function
 
1368
    must respect the following interface description::
 
1369
 
 
1370
        def my_show_properties(properties_dict):
 
1371
            # code that returns a dict {'name':'value'} of the properties
 
1372
            # to be shown
 
1373
    """
 
1374
    preferred_levels = 0
 
1375
 
 
1376
    def __init__(self, to_file, show_ids=False, show_timezone='original',
 
1377
                 delta_format=None, levels=None, show_advice=False,
 
1378
                 to_exact_file=None, author_list_handler=None):
 
1379
        """Create a LogFormatter.
 
1380
 
 
1381
        :param to_file: the file to output to
 
1382
        :param to_exact_file: if set, gives an output stream to which
 
1383
             non-Unicode diffs are written.
 
1384
        :param show_ids: if True, revision-ids are to be displayed
 
1385
        :param show_timezone: the timezone to use
 
1386
        :param delta_format: the level of delta information to display
 
1387
          or None to leave it to the formatter to decide
 
1388
        :param levels: the number of levels to display; None or -1 to
 
1389
          let the log formatter decide.
 
1390
        :param show_advice: whether to show advice at the end of the
 
1391
          log or not
 
1392
        :param author_list_handler: callable generating a list of
 
1393
          authors to display for a given revision
 
1394
        """
 
1395
        self.to_file = to_file
 
1396
        # 'exact' stream used to show diff, it should print content 'as is'
 
1397
        # and should not try to decode/encode it to unicode to avoid bug
 
1398
        # #328007
 
1399
        if to_exact_file is not None:
 
1400
            self.to_exact_file = to_exact_file
 
1401
        else:
 
1402
            # XXX: somewhat hacky; this assumes it's a codec writer; it's
 
1403
            # better for code that expects to get diffs to pass in the exact
 
1404
            # file stream
 
1405
            self.to_exact_file = getattr(to_file, 'stream', to_file)
 
1406
        self.show_ids = show_ids
 
1407
        self.show_timezone = show_timezone
 
1408
        if delta_format is None:
 
1409
            # Ensures backward compatibility
 
1410
            delta_format = 2  # long format
 
1411
        self.delta_format = delta_format
 
1412
        self.levels = levels
 
1413
        self._show_advice = show_advice
 
1414
        self._merge_count = 0
 
1415
        self._author_list_handler = author_list_handler
 
1416
 
 
1417
    def get_levels(self):
 
1418
        """Get the number of levels to display or 0 for all."""
 
1419
        if getattr(self, 'supports_merge_revisions', False):
 
1420
            if self.levels is None or self.levels == -1:
 
1421
                self.levels = self.preferred_levels
 
1422
        else:
 
1423
            self.levels = 1
 
1424
        return self.levels
 
1425
 
 
1426
    def log_revision(self, revision):
 
1427
        """Log a revision.
 
1428
 
 
1429
        :param  revision:   The LogRevision to be logged.
 
1430
        """
 
1431
        raise NotImplementedError('not implemented in abstract base')
 
1432
 
 
1433
    def show_advice(self):
 
1434
        """Output user advice, if any, when the log is completed."""
 
1435
        if self._show_advice and self.levels == 1 and self._merge_count > 0:
 
1436
            advice_sep = self.get_advice_separator()
 
1437
            if advice_sep:
 
1438
                self.to_file.write(advice_sep)
 
1439
            self.to_file.write(
 
1440
                "Use --include-merged or -n0 to see merged revisions.\n")
 
1441
 
 
1442
    def get_advice_separator(self):
 
1443
        """Get the text separating the log from the closing advice."""
 
1444
        return ''
 
1445
 
 
1446
    def short_committer(self, rev):
 
1447
        name, address = config.parse_username(rev.committer)
 
1448
        if name:
 
1449
            return name
 
1450
        return address
 
1451
 
 
1452
    def short_author(self, rev):
 
1453
        return self.authors(rev, 'first', short=True, sep=', ')
 
1454
 
 
1455
    def authors(self, rev, who, short=False, sep=None):
 
1456
        """Generate list of authors, taking --authors option into account.
 
1457
 
 
1458
        The caller has to specify the name of a author list handler,
 
1459
        as provided by the author list registry, using the ``who``
 
1460
        argument.  That name only sets a default, though: when the
 
1461
        user selected a different author list generation using the
 
1462
        ``--authors`` command line switch, as represented by the
 
1463
        ``author_list_handler`` constructor argument, that value takes
 
1464
        precedence.
 
1465
 
 
1466
        :param rev: The revision for which to generate the list of authors.
 
1467
        :param who: Name of the default handler.
 
1468
        :param short: Whether to shorten names to either name or address.
 
1469
        :param sep: What separator to use for automatic concatenation.
 
1470
        """
 
1471
        if self._author_list_handler is not None:
 
1472
            # The user did specify --authors, which overrides the default
 
1473
            author_list_handler = self._author_list_handler
 
1474
        else:
 
1475
            # The user didn't specify --authors, so we use the caller's default
 
1476
            author_list_handler = author_list_registry.get(who)
 
1477
        names = author_list_handler(rev)
 
1478
        if short:
 
1479
            for i in range(len(names)):
 
1480
                name, address = config.parse_username(names[i])
 
1481
                if name:
 
1482
                    names[i] = name
 
1483
                else:
 
1484
                    names[i] = address
 
1485
        if sep is not None:
 
1486
            names = sep.join(names)
 
1487
        return names
 
1488
 
 
1489
    def merge_marker(self, revision):
 
1490
        """Get the merge marker to include in the output or '' if none."""
 
1491
        if len(revision.rev.parent_ids) > 1:
 
1492
            self._merge_count += 1
 
1493
            return ' [merge]'
 
1494
        else:
 
1495
            return ''
 
1496
 
 
1497
    def show_properties(self, revision, indent):
 
1498
        """Displays the custom properties returned by each registered handler.
 
1499
 
 
1500
        If a registered handler raises an error it is propagated.
 
1501
        """
 
1502
        for line in self.custom_properties(revision):
 
1503
            self.to_file.write("%s%s\n" % (indent, line))
 
1504
 
 
1505
    def custom_properties(self, revision):
 
1506
        """Format the custom properties returned by each registered handler.
 
1507
 
 
1508
        If a registered handler raises an error it is propagated.
 
1509
 
 
1510
        :return: a list of formatted lines (excluding trailing newlines)
 
1511
        """
 
1512
        lines = self._foreign_info_properties(revision)
 
1513
        for key, handler in properties_handler_registry.iteritems():
 
1514
            try:
 
1515
                lines.extend(self._format_properties(handler(revision)))
 
1516
            except Exception:
 
1517
                trace.log_exception_quietly()
 
1518
                trace.print_exception(sys.exc_info(), self.to_file)
 
1519
        return lines
 
1520
 
 
1521
    def _foreign_info_properties(self, rev):
 
1522
        """Custom log displayer for foreign revision identifiers.
 
1523
 
 
1524
        :param rev: Revision object.
 
1525
        """
 
1526
        # Revision comes directly from a foreign repository
 
1527
        if isinstance(rev, foreign.ForeignRevision):
 
1528
            return self._format_properties(
 
1529
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
 
1530
 
 
1531
        # Imported foreign revision revision ids always contain :
 
1532
        if b":" not in rev.revision_id:
 
1533
            return []
 
1534
 
 
1535
        # Revision was once imported from a foreign repository
 
1536
        try:
 
1537
            foreign_revid, mapping = \
 
1538
                foreign.foreign_vcs_registry.parse_revision_id(rev.revision_id)
 
1539
        except errors.InvalidRevisionId:
 
1540
            return []
 
1541
 
 
1542
        return self._format_properties(
 
1543
            mapping.vcs.show_foreign_revid(foreign_revid))
 
1544
 
 
1545
    def _format_properties(self, properties):
 
1546
        lines = []
 
1547
        for key, value in properties.items():
 
1548
            lines.append(key + ': ' + value)
 
1549
        return lines
 
1550
 
 
1551
    def show_diff(self, to_file, diff, indent):
 
1552
        encoding = get_terminal_encoding()
 
1553
        for l in diff.rstrip().split(b'\n'):
 
1554
            to_file.write(indent + l.decode(encoding, 'ignore') + '\n')
 
1555
 
 
1556
 
 
1557
# Separator between revisions in long format
 
1558
_LONG_SEP = '-' * 60
 
1559
 
 
1560
 
 
1561
class LongLogFormatter(LogFormatter):
 
1562
 
 
1563
    supports_merge_revisions = True
 
1564
    preferred_levels = 1
 
1565
    supports_delta = True
 
1566
    supports_tags = True
 
1567
    supports_diff = True
 
1568
    supports_signatures = True
 
1569
 
 
1570
    def __init__(self, *args, **kwargs):
 
1571
        super(LongLogFormatter, self).__init__(*args, **kwargs)
 
1572
        if self.show_timezone == 'original':
 
1573
            self.date_string = self._date_string_original_timezone
 
1574
        else:
 
1575
            self.date_string = self._date_string_with_timezone
 
1576
 
 
1577
    def _date_string_with_timezone(self, rev):
 
1578
        return format_date(rev.timestamp, rev.timezone or 0,
 
1579
                           self.show_timezone)
 
1580
 
 
1581
    def _date_string_original_timezone(self, rev):
 
1582
        return format_date_with_offset_in_original_timezone(rev.timestamp,
 
1583
                                                            rev.timezone or 0)
 
1584
 
 
1585
    def log_revision(self, revision):
 
1586
        """Log a revision, either merged or not."""
 
1587
        indent = '    ' * revision.merge_depth
 
1588
        lines = [_LONG_SEP]
 
1589
        if revision.revno is not None:
 
1590
            lines.append('revno: %s%s' % (revision.revno,
 
1591
                                          self.merge_marker(revision)))
 
1592
        if revision.tags:
 
1593
            lines.append('tags: %s' % (', '.join(sorted(revision.tags))))
 
1594
        if self.show_ids or revision.revno is None:
 
1595
            lines.append('revision-id: %s' %
 
1596
                         (revision.rev.revision_id.decode('utf-8'),))
 
1597
        if self.show_ids:
 
1598
            for parent_id in revision.rev.parent_ids:
 
1599
                lines.append('parent: %s' % (parent_id.decode('utf-8'),))
 
1600
        lines.extend(self.custom_properties(revision.rev))
 
1601
 
 
1602
        committer = revision.rev.committer
 
1603
        authors = self.authors(revision.rev, 'all')
 
1604
        if authors != [committer]:
 
1605
            lines.append('author: %s' % (", ".join(authors),))
 
1606
        lines.append('committer: %s' % (committer,))
 
1607
 
 
1608
        branch_nick = revision.rev.properties.get('branch-nick', None)
 
1609
        if branch_nick is not None:
 
1610
            lines.append('branch nick: %s' % (branch_nick,))
 
1611
 
 
1612
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
 
1613
 
 
1614
        if revision.signature is not None:
 
1615
            lines.append('signature: ' + revision.signature)
 
1616
 
 
1617
        lines.append('message:')
 
1618
        if not revision.rev.message:
 
1619
            lines.append('  (no message)')
 
1620
        else:
 
1621
            message = revision.rev.message.rstrip('\r\n')
 
1622
            for l in message.split('\n'):
 
1623
                lines.append('  %s' % (l,))
 
1624
 
 
1625
        # Dump the output, appending the delta and diff if requested
 
1626
        to_file = self.to_file
 
1627
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
 
1628
        if revision.delta is not None:
 
1629
            # Use the standard status output to display changes
 
1630
            from breezy.delta import report_delta
 
1631
            report_delta(to_file, revision.delta, short_status=False,
 
1632
                         show_ids=self.show_ids, indent=indent)
 
1633
        if revision.diff is not None:
 
1634
            to_file.write(indent + 'diff:\n')
 
1635
            to_file.flush()
 
1636
            # Note: we explicitly don't indent the diff (relative to the
 
1637
            # revision information) so that the output can be fed to patch -p0
 
1638
            self.show_diff(self.to_exact_file, revision.diff, indent)
 
1639
            self.to_exact_file.flush()
 
1640
 
 
1641
    def get_advice_separator(self):
 
1642
        """Get the text separating the log from the closing advice."""
 
1643
        return '-' * 60 + '\n'
 
1644
 
 
1645
 
 
1646
class ShortLogFormatter(LogFormatter):
 
1647
 
 
1648
    supports_merge_revisions = True
 
1649
    preferred_levels = 1
 
1650
    supports_delta = True
 
1651
    supports_tags = True
 
1652
    supports_diff = True
 
1653
 
 
1654
    def __init__(self, *args, **kwargs):
 
1655
        super(ShortLogFormatter, self).__init__(*args, **kwargs)
 
1656
        self.revno_width_by_depth = {}
 
1657
 
 
1658
    def log_revision(self, revision):
 
1659
        # We need two indents: one per depth and one for the information
 
1660
        # relative to that indent. Most mainline revnos are 5 chars or
 
1661
        # less while dotted revnos are typically 11 chars or less. Once
 
1662
        # calculated, we need to remember the offset for a given depth
 
1663
        # as we might be starting from a dotted revno in the first column
 
1664
        # and we want subsequent mainline revisions to line up.
 
1665
        depth = revision.merge_depth
 
1666
        indent = '    ' * depth
 
1667
        revno_width = self.revno_width_by_depth.get(depth)
 
1668
        if revno_width is None:
 
1669
            if revision.revno is None or revision.revno.find('.') == -1:
 
1670
                # mainline revno, e.g. 12345
 
1671
                revno_width = 5
 
1672
            else:
 
1673
                # dotted revno, e.g. 12345.10.55
 
1674
                revno_width = 11
 
1675
            self.revno_width_by_depth[depth] = revno_width
 
1676
        offset = ' ' * (revno_width + 1)
 
1677
 
 
1678
        to_file = self.to_file
 
1679
        tags = ''
 
1680
        if revision.tags:
 
1681
            tags = ' {%s}' % (', '.join(sorted(revision.tags)))
 
1682
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
 
1683
                                                     revision.revno or "", self.short_author(
 
1684
                                                         revision.rev),
 
1685
                                                     format_date(revision.rev.timestamp,
 
1686
                                                                 revision.rev.timezone or 0,
 
1687
                                                                 self.show_timezone, date_fmt="%Y-%m-%d",
 
1688
                                                                 show_offset=False),
 
1689
                                                     tags, self.merge_marker(revision)))
 
1690
        self.show_properties(revision.rev, indent + offset)
 
1691
        if self.show_ids or revision.revno is None:
 
1692
            to_file.write(indent + offset + 'revision-id:%s\n'
 
1693
                          % (revision.rev.revision_id.decode('utf-8'),))
 
1694
        if not revision.rev.message:
 
1695
            to_file.write(indent + offset + '(no message)\n')
 
1696
        else:
 
1697
            message = revision.rev.message.rstrip('\r\n')
 
1698
            for l in message.split('\n'):
 
1699
                to_file.write(indent + offset + '%s\n' % (l,))
 
1700
 
 
1701
        if revision.delta is not None:
 
1702
            # Use the standard status output to display changes
 
1703
            from breezy.delta import report_delta
 
1704
            report_delta(to_file, revision.delta,
 
1705
                         short_status=self.delta_format == 1,
 
1706
                         show_ids=self.show_ids, indent=indent + offset)
 
1707
        if revision.diff is not None:
 
1708
            self.show_diff(self.to_exact_file, revision.diff, '      ')
 
1709
        to_file.write('\n')
 
1710
 
 
1711
 
 
1712
class LineLogFormatter(LogFormatter):
 
1713
 
 
1714
    supports_merge_revisions = True
 
1715
    preferred_levels = 1
 
1716
    supports_tags = True
 
1717
 
 
1718
    def __init__(self, *args, **kwargs):
 
1719
        super(LineLogFormatter, self).__init__(*args, **kwargs)
 
1720
        width = terminal_width()
 
1721
        if width is not None:
 
1722
            # we need one extra space for terminals that wrap on last char
 
1723
            width = width - 1
 
1724
        self._max_chars = width
 
1725
 
 
1726
    def truncate(self, str, max_len):
 
1727
        if max_len is None or len(str) <= max_len:
 
1728
            return str
 
1729
        return str[:max_len - 3] + '...'
 
1730
 
 
1731
    def date_string(self, rev):
 
1732
        return format_date(rev.timestamp, rev.timezone or 0,
 
1733
                           self.show_timezone, date_fmt="%Y-%m-%d",
 
1734
                           show_offset=False)
 
1735
 
 
1736
    def message(self, rev):
 
1737
        if not rev.message:
 
1738
            return '(no message)'
 
1739
        else:
 
1740
            return rev.message
 
1741
 
 
1742
    def log_revision(self, revision):
 
1743
        indent = '  ' * revision.merge_depth
 
1744
        self.to_file.write(self.log_string(revision.revno, revision.rev,
 
1745
                                           self._max_chars, revision.tags, indent))
 
1746
        self.to_file.write('\n')
 
1747
 
 
1748
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
 
1749
        """Format log info into one string. Truncate tail of string
 
1750
 
 
1751
        :param revno:      revision number or None.
 
1752
                           Revision numbers counts from 1.
 
1753
        :param rev:        revision object
 
1754
        :param max_chars:  maximum length of resulting string
 
1755
        :param tags:       list of tags or None
 
1756
        :param prefix:     string to prefix each line
 
1757
        :return:           formatted truncated string
 
1758
        """
 
1759
        out = []
 
1760
        if revno:
 
1761
            # show revno only when is not None
 
1762
            out.append("%s:" % revno)
 
1763
        if max_chars is not None:
 
1764
            out.append(self.truncate(
 
1765
                self.short_author(rev), (max_chars + 3) // 4))
 
1766
        else:
 
1767
            out.append(self.short_author(rev))
 
1768
        out.append(self.date_string(rev))
 
1769
        if len(rev.parent_ids) > 1:
 
1770
            out.append('[merge]')
 
1771
        if tags:
 
1772
            tag_str = '{%s}' % (', '.join(sorted(tags)))
 
1773
            out.append(tag_str)
 
1774
        out.append(rev.get_summary())
 
1775
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
 
1776
 
 
1777
 
 
1778
class GnuChangelogLogFormatter(LogFormatter):
 
1779
 
 
1780
    supports_merge_revisions = True
 
1781
    supports_delta = True
 
1782
 
 
1783
    def log_revision(self, revision):
 
1784
        """Log a revision, either merged or not."""
 
1785
        to_file = self.to_file
 
1786
 
 
1787
        date_str = format_date(revision.rev.timestamp,
 
1788
                               revision.rev.timezone or 0,
 
1789
                               self.show_timezone,
 
1790
                               date_fmt='%Y-%m-%d',
 
1791
                               show_offset=False)
 
1792
        committer_str = self.authors(revision.rev, 'first', sep=', ')
 
1793
        committer_str = committer_str.replace(' <', '  <')
 
1794
        to_file.write('%s  %s\n\n' % (date_str, committer_str))
 
1795
 
 
1796
        if revision.delta is not None and revision.delta.has_changed():
 
1797
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
 
1798
                if c.path[0] is None:
 
1799
                    path = c.path[1]
 
1800
                else:
 
1801
                    path = c.path[0]
 
1802
                to_file.write('\t* %s:\n' % (path,))
 
1803
            for c in revision.delta.renamed + revision.delta.copied:
 
1804
                # For renamed files, show both the old and the new path
 
1805
                to_file.write('\t* %s:\n\t* %s:\n' % (c.path[0], c.path[1]))
 
1806
            to_file.write('\n')
 
1807
 
 
1808
        if not revision.rev.message:
 
1809
            to_file.write('\tNo commit message\n')
 
1810
        else:
 
1811
            message = revision.rev.message.rstrip('\r\n')
 
1812
            for l in message.split('\n'):
 
1813
                to_file.write('\t%s\n' % (l.lstrip(),))
 
1814
            to_file.write('\n')
 
1815
 
 
1816
 
 
1817
def line_log(rev, max_chars):
 
1818
    lf = LineLogFormatter(None)
 
1819
    return lf.log_string(None, rev, max_chars)
 
1820
 
 
1821
 
 
1822
class LogFormatterRegistry(registry.Registry):
 
1823
    """Registry for log formatters"""
 
1824
 
 
1825
    def make_formatter(self, name, *args, **kwargs):
 
1826
        """Construct a formatter from arguments.
 
1827
 
 
1828
        :param name: Name of the formatter to construct.  'short', 'long' and
 
1829
            'line' are built-in.
 
1830
        """
 
1831
        return self.get(name)(*args, **kwargs)
 
1832
 
 
1833
    def get_default(self, branch):
 
1834
        c = branch.get_config_stack()
 
1835
        return self.get(c.get('log_format'))
 
1836
 
 
1837
 
 
1838
log_formatter_registry = LogFormatterRegistry()
 
1839
 
 
1840
 
 
1841
log_formatter_registry.register('short', ShortLogFormatter,
 
1842
                                'Moderately short log format.')
 
1843
log_formatter_registry.register('long', LongLogFormatter,
 
1844
                                'Detailed log format.')
 
1845
log_formatter_registry.register('line', LineLogFormatter,
 
1846
                                'Log format with one line per revision.')
 
1847
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
 
1848
                                'Format used by GNU ChangeLog files.')
 
1849
 
 
1850
 
 
1851
def register_formatter(name, formatter):
 
1852
    log_formatter_registry.register(name, formatter)
 
1853
 
 
1854
 
 
1855
def log_formatter(name, *args, **kwargs):
 
1856
    """Construct a formatter from arguments.
 
1857
 
 
1858
    name -- Name of the formatter to construct; currently 'long', 'short' and
 
1859
        'line' are supported.
 
1860
    """
 
1861
    try:
 
1862
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
 
1863
    except KeyError:
 
1864
        raise errors.BzrCommandError(
 
1865
            gettext("unknown log formatter: %r") % name)
 
1866
 
 
1867
 
 
1868
def author_list_all(rev):
 
1869
    return rev.get_apparent_authors()[:]
 
1870
 
 
1871
 
 
1872
def author_list_first(rev):
 
1873
    lst = rev.get_apparent_authors()
 
1874
    try:
 
1875
        return [lst[0]]
 
1876
    except IndexError:
 
1877
        return []
 
1878
 
 
1879
 
 
1880
def author_list_committer(rev):
 
1881
    return [rev.committer]
 
1882
 
 
1883
 
 
1884
author_list_registry = registry.Registry()
 
1885
 
 
1886
author_list_registry.register('all', author_list_all,
 
1887
                              'All authors')
 
1888
 
 
1889
author_list_registry.register('first', author_list_first,
 
1890
                              'The first author')
 
1891
 
 
1892
author_list_registry.register('committer', author_list_committer,
 
1893
                              'The committer')
 
1894
 
 
1895
 
 
1896
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
 
1897
                           log_format='long'):
 
1898
    """Show the change in revision history comparing the old revision history to the new one.
 
1899
 
 
1900
    :param branch: The branch where the revisions exist
 
1901
    :param old_rh: The old revision history
 
1902
    :param new_rh: The new revision history
 
1903
    :param to_file: A file to write the results to. If None, stdout will be used
 
1904
    """
 
1905
    if to_file is None:
 
1906
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
 
1907
                                                            errors='replace')
 
1908
    lf = log_formatter(log_format,
 
1909
                       show_ids=False,
 
1910
                       to_file=to_file,
 
1911
                       show_timezone='original')
 
1912
 
 
1913
    # This is the first index which is different between
 
1914
    # old and new
 
1915
    base_idx = None
 
1916
    for i in range(max(len(new_rh), len(old_rh))):
 
1917
        if (len(new_rh) <= i
 
1918
            or len(old_rh) <= i
 
1919
                or new_rh[i] != old_rh[i]):
 
1920
            base_idx = i
 
1921
            break
 
1922
 
 
1923
    if base_idx is None:
 
1924
        to_file.write('Nothing seems to have changed\n')
 
1925
        return
 
1926
    # TODO: It might be nice to do something like show_log
 
1927
    # and show the merged entries. But since this is the
 
1928
    # removed revisions, it shouldn't be as important
 
1929
    if base_idx < len(old_rh):
 
1930
        to_file.write('*' * 60)
 
1931
        to_file.write('\nRemoved Revisions:\n')
 
1932
        for i in range(base_idx, len(old_rh)):
 
1933
            rev = branch.repository.get_revision(old_rh[i])
 
1934
            lr = LogRevision(rev, i + 1, 0, None)
 
1935
            lf.log_revision(lr)
 
1936
        to_file.write('*' * 60)
 
1937
        to_file.write('\n\n')
 
1938
    if base_idx < len(new_rh):
 
1939
        to_file.write('Added Revisions:\n')
 
1940
        show_log(branch,
 
1941
                 lf,
 
1942
                 verbose=False,
 
1943
                 direction='forward',
 
1944
                 start_revision=base_idx + 1,
 
1945
                 end_revision=len(new_rh),
 
1946
                 search=None)
 
1947
 
 
1948
 
 
1949
def get_history_change(old_revision_id, new_revision_id, repository):
 
1950
    """Calculate the uncommon lefthand history between two revisions.
 
1951
 
 
1952
    :param old_revision_id: The original revision id.
 
1953
    :param new_revision_id: The new revision id.
 
1954
    :param repository: The repository to use for the calculation.
 
1955
 
 
1956
    return old_history, new_history
 
1957
    """
 
1958
    old_history = []
 
1959
    old_revisions = set()
 
1960
    new_history = []
 
1961
    new_revisions = set()
 
1962
    graph = repository.get_graph()
 
1963
    new_iter = graph.iter_lefthand_ancestry(new_revision_id)
 
1964
    old_iter = graph.iter_lefthand_ancestry(old_revision_id)
 
1965
    stop_revision = None
 
1966
    do_old = True
 
1967
    do_new = True
 
1968
    while do_new or do_old:
 
1969
        if do_new:
 
1970
            try:
 
1971
                new_revision = next(new_iter)
 
1972
            except StopIteration:
 
1973
                do_new = False
 
1974
            else:
 
1975
                new_history.append(new_revision)
 
1976
                new_revisions.add(new_revision)
 
1977
                if new_revision in old_revisions:
 
1978
                    stop_revision = new_revision
 
1979
                    break
 
1980
        if do_old:
 
1981
            try:
 
1982
                old_revision = next(old_iter)
 
1983
            except StopIteration:
 
1984
                do_old = False
 
1985
            else:
 
1986
                old_history.append(old_revision)
 
1987
                old_revisions.add(old_revision)
 
1988
                if old_revision in new_revisions:
 
1989
                    stop_revision = old_revision
 
1990
                    break
 
1991
    new_history.reverse()
 
1992
    old_history.reverse()
 
1993
    if stop_revision is not None:
 
1994
        new_history = new_history[new_history.index(stop_revision) + 1:]
 
1995
        old_history = old_history[old_history.index(stop_revision) + 1:]
 
1996
    return old_history, new_history
 
1997
 
 
1998
 
 
1999
def show_branch_change(branch, output, old_revno, old_revision_id):
 
2000
    """Show the changes made to a branch.
 
2001
 
 
2002
    :param branch: The branch to show changes about.
 
2003
    :param output: A file-like object to write changes to.
 
2004
    :param old_revno: The revno of the old tip.
 
2005
    :param old_revision_id: The revision_id of the old tip.
 
2006
    """
 
2007
    new_revno, new_revision_id = branch.last_revision_info()
 
2008
    old_history, new_history = get_history_change(old_revision_id,
 
2009
                                                  new_revision_id,
 
2010
                                                  branch.repository)
 
2011
    if old_history == [] and new_history == []:
 
2012
        output.write('Nothing seems to have changed\n')
 
2013
        return
 
2014
 
 
2015
    log_format = log_formatter_registry.get_default(branch)
 
2016
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
 
2017
    if old_history != []:
 
2018
        output.write('*' * 60)
 
2019
        output.write('\nRemoved Revisions:\n')
 
2020
        show_flat_log(branch.repository, old_history, old_revno, lf)
 
2021
        output.write('*' * 60)
 
2022
        output.write('\n\n')
 
2023
    if new_history != []:
 
2024
        output.write('Added Revisions:\n')
 
2025
        start_revno = new_revno - len(new_history) + 1
 
2026
        show_log(branch, lf, verbose=False, direction='forward',
 
2027
                 start_revision=start_revno)
 
2028
 
 
2029
 
 
2030
def show_flat_log(repository, history, last_revno, lf):
 
2031
    """Show a simple log of the specified history.
 
2032
 
 
2033
    :param repository: The repository to retrieve revisions from.
 
2034
    :param history: A list of revision_ids indicating the lefthand history.
 
2035
    :param last_revno: The revno of the last revision_id in the history.
 
2036
    :param lf: The log formatter to use.
 
2037
    """
 
2038
    revisions = repository.get_revisions(history)
 
2039
    for i, rev in enumerate(revisions):
 
2040
        lr = LogRevision(rev, i + last_revno, 0, None)
 
2041
        lf.log_revision(lr)
 
2042
 
 
2043
 
 
2044
def _get_info_for_log_files(revisionspec_list, file_list, exit_stack):
 
2045
    """Find file-ids and kinds given a list of files and a revision range.
 
2046
 
 
2047
    We search for files at the end of the range. If not found there,
 
2048
    we try the start of the range.
 
2049
 
 
2050
    :param revisionspec_list: revision range as parsed on the command line
 
2051
    :param file_list: the list of paths given on the command line;
 
2052
      the first of these can be a branch location or a file path,
 
2053
      the remainder must be file paths
 
2054
    :param exit_stack: When the branch returned is read locked,
 
2055
      an unlock call will be queued to the exit stack.
 
2056
    :return: (branch, info_list, start_rev_info, end_rev_info) where
 
2057
      info_list is a list of (relative_path, file_id, kind) tuples where
 
2058
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
 
2059
      branch will be read-locked.
 
2060
    """
 
2061
    from breezy.builtins import _get_revision_range
 
2062
    tree, b, path = controldir.ControlDir.open_containing_tree_or_branch(
 
2063
        file_list[0])
 
2064
    exit_stack.enter_context(b.lock_read())
 
2065
    # XXX: It's damn messy converting a list of paths to relative paths when
 
2066
    # those paths might be deleted ones, they might be on a case-insensitive
 
2067
    # filesystem and/or they might be in silly locations (like another branch).
 
2068
    # For example, what should "log bzr://branch/dir/file1 file2" do? (Is
 
2069
    # file2 implicitly in the same dir as file1 or should its directory be
 
2070
    # taken from the current tree somehow?) For now, this solves the common
 
2071
    # case of running log in a nested directory, assuming paths beyond the
 
2072
    # first one haven't been deleted ...
 
2073
    if tree:
 
2074
        relpaths = [path] + tree.safe_relpath_files(file_list[1:])
 
2075
    else:
 
2076
        relpaths = [path] + file_list[1:]
 
2077
    info_list = []
 
2078
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
 
2079
                                                       "log")
 
2080
    if relpaths in ([], [u'']):
 
2081
        return b, [], start_rev_info, end_rev_info
 
2082
    if start_rev_info is None and end_rev_info is None:
 
2083
        if tree is None:
 
2084
            tree = b.basis_tree()
 
2085
        tree1 = None
 
2086
        for fp in relpaths:
 
2087
            file_id = tree.path2id(fp)
 
2088
            kind = _get_kind_for_file_id(tree, fp, file_id)
 
2089
            if file_id is None:
 
2090
                # go back to when time began
 
2091
                if tree1 is None:
 
2092
                    try:
 
2093
                        rev1 = b.get_rev_id(1)
 
2094
                    except errors.NoSuchRevision:
 
2095
                        # No history at all
 
2096
                        file_id = None
 
2097
                        kind = None
 
2098
                    else:
 
2099
                        tree1 = b.repository.revision_tree(rev1)
 
2100
                if tree1:
 
2101
                    file_id = tree1.path2id(fp)
 
2102
                    kind = _get_kind_for_file_id(tree1, fp, file_id)
 
2103
            info_list.append((fp, file_id, kind))
 
2104
 
 
2105
    elif start_rev_info == end_rev_info:
 
2106
        # One revision given - file must exist in it
 
2107
        tree = b.repository.revision_tree(end_rev_info.rev_id)
 
2108
        for fp in relpaths:
 
2109
            file_id = tree.path2id(fp)
 
2110
            kind = _get_kind_for_file_id(tree, fp, file_id)
 
2111
            info_list.append((fp, file_id, kind))
 
2112
 
 
2113
    else:
 
2114
        # Revision range given. Get the file-id from the end tree.
 
2115
        # If that fails, try the start tree.
 
2116
        rev_id = end_rev_info.rev_id
 
2117
        if rev_id is None:
 
2118
            tree = b.basis_tree()
 
2119
        else:
 
2120
            tree = b.repository.revision_tree(rev_id)
 
2121
        tree1 = None
 
2122
        for fp in relpaths:
 
2123
            file_id = tree.path2id(fp)
 
2124
            kind = _get_kind_for_file_id(tree, fp, file_id)
 
2125
            if file_id is None:
 
2126
                if tree1 is None:
 
2127
                    rev_id = start_rev_info.rev_id
 
2128
                    if rev_id is None:
 
2129
                        rev1 = b.get_rev_id(1)
 
2130
                        tree1 = b.repository.revision_tree(rev1)
 
2131
                    else:
 
2132
                        tree1 = b.repository.revision_tree(rev_id)
 
2133
                file_id = tree1.path2id(fp)
 
2134
                kind = _get_kind_for_file_id(tree1, fp, file_id)
 
2135
            info_list.append((fp, file_id, kind))
 
2136
    return b, info_list, start_rev_info, end_rev_info
 
2137
 
 
2138
 
 
2139
def _get_kind_for_file_id(tree, path, file_id):
 
2140
    """Return the kind of a file-id or None if it doesn't exist."""
 
2141
    if file_id is not None:
 
2142
        return tree.kind(path)
 
2143
    else:
 
2144
        return None
 
2145
 
 
2146
 
 
2147
properties_handler_registry = registry.Registry()
 
2148
 
 
2149
# Use the properties handlers to print out bug information if available
 
2150
 
 
2151
 
 
2152
def _bugs_properties_handler(revision):
 
2153
    fixed_bug_urls = []
 
2154
    related_bug_urls = []
 
2155
    for bug_url, status in revision.iter_bugs():
 
2156
        if status == 'fixed':
 
2157
            fixed_bug_urls.append(bug_url)
 
2158
        elif status == 'related':
 
2159
            related_bug_urls.append(bug_url)
 
2160
    ret = {}
 
2161
    if fixed_bug_urls:
 
2162
        text = ngettext('fixes bug', 'fixes bugs', len(fixed_bug_urls))
 
2163
        ret[text] = ' '.join(fixed_bug_urls)
 
2164
    if related_bug_urls:
 
2165
        text = ngettext('related bug', 'related bugs',
 
2166
                        len(related_bug_urls))
 
2167
        ret[text] = ' '.join(related_bug_urls)
 
2168
    return ret
 
2169
 
 
2170
 
 
2171
properties_handler_registry.register('bugs_properties_handler',
 
2172
                                     _bugs_properties_handler)
 
2173
 
 
2174
 
 
2175
# adapters which revision ids to log are filtered. When log is called, the
 
2176
# log_rev_iterator is adapted through each of these factory methods.
 
2177
# Plugins are welcome to mutate this list in any way they like - as long
 
2178
# as the overall behaviour is preserved. At this point there is no extensible
 
2179
# mechanism for getting parameters to each factory method, and until there is
 
2180
# this won't be considered a stable api.
 
2181
log_adapters = [
 
2182
    # core log logic
 
2183
    _make_batch_filter,
 
2184
    # read revision objects
 
2185
    _make_revision_objects,
 
2186
    # filter on log messages
 
2187
    _make_search_filter,
 
2188
    # generate deltas for things we will show
 
2189
    _make_delta_filter
 
2190
    ]