/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to breezy/log.py

  • Committer: Breezy landing bot
  • Author(s): Jelmer Vernooij
  • Date: 2019-10-13 17:31:55 UTC
  • mfrom: (7397.4.9 remove-unused)
  • Revision ID: breezy.the.bot@gmail.com-20191013173155-yoiokny4mknxb3um
Remove Tree.has_id.

Merged from https://code.launchpad.net/~jelmer/brz/remove-unused/+merge/373320

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005-2011 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
 
 
18
 
 
19
17
"""Code to show logs of changes.
20
18
 
21
19
Various flavors of log can be produced:
49
47
all the changes since the previous revision that touched hello.c.
50
48
"""
51
49
 
 
50
from __future__ import absolute_import
 
51
 
52
52
import codecs
53
 
from cStringIO import StringIO
54
 
from itertools import (
55
 
    chain,
56
 
    izip,
57
 
    )
 
53
import itertools
58
54
import re
59
55
import sys
60
56
from warnings import (
61
57
    warn,
62
58
    )
63
59
 
64
 
from bzrlib.lazy_import import lazy_import
 
60
from .lazy_import import lazy_import
65
61
lazy_import(globals(), """
66
62
 
67
 
from bzrlib import (
68
 
    bzrdir,
 
63
from breezy import (
69
64
    config,
 
65
    controldir,
70
66
    diff,
71
 
    errors,
72
67
    foreign,
73
 
    repository as _mod_repository,
 
68
    lazy_regex,
74
69
    revision as _mod_revision,
 
70
    )
 
71
from breezy.i18n import gettext, ngettext
 
72
""")
 
73
 
 
74
from . import (
 
75
    errors,
 
76
    registry,
75
77
    revisionspec,
76
78
    trace,
77
 
    tsort,
78
 
    )
79
 
""")
80
 
 
81
 
from bzrlib import (
82
 
    registry,
83
 
    )
84
 
from bzrlib.osutils import (
 
79
    )
 
80
from .osutils import (
85
81
    format_date,
86
82
    format_date_with_offset_in_original_timezone,
 
83
    get_diff_header_encoding,
87
84
    get_terminal_encoding,
88
 
    re_compile_checked,
89
85
    terminal_width,
90
86
    )
91
 
from bzrlib.symbol_versioning import (
92
 
    deprecated_function,
93
 
    deprecated_in,
 
87
from .sixish import (
 
88
    BytesIO,
 
89
    range,
 
90
    zip,
94
91
    )
95
 
 
96
 
 
97
 
def find_touching_revisions(branch, file_id):
 
92
from .tree import find_previous_path
 
93
 
 
94
 
 
95
def find_touching_revisions(repository, last_revision, last_tree, last_path):
98
96
    """Yield a description of revisions which affect the file_id.
99
97
 
100
98
    Each returned element is (revno, revision_id, description)
105
103
    TODO: Perhaps some way to limit this to only particular revisions,
106
104
    or to traverse a non-mainline set of revisions?
107
105
    """
108
 
    last_ie = None
109
 
    last_path = None
110
 
    revno = 1
111
 
    for revision_id in branch.revision_history():
112
 
        this_inv = branch.repository.get_inventory(revision_id)
113
 
        if file_id in this_inv:
114
 
            this_ie = this_inv[file_id]
115
 
            this_path = this_inv.id2path(file_id)
116
 
        else:
117
 
            this_ie = this_path = None
 
106
    last_verifier = last_tree.get_file_verifier(last_path)
 
107
    graph = repository.get_graph()
 
108
    history = list(graph.iter_lefthand_ancestry(last_revision, []))
 
109
    revno = len(history)
 
110
    for revision_id in history:
 
111
        this_tree = repository.revision_tree(revision_id)
 
112
        this_path = find_previous_path(last_tree, this_tree, last_path)
118
113
 
119
114
        # now we know how it was last time, and how it is in this revision.
120
115
        # are those two states effectively the same or not?
121
 
 
122
 
        if not this_ie and not last_ie:
123
 
            # not present in either
124
 
            pass
125
 
        elif this_ie and not last_ie:
126
 
            yield revno, revision_id, "added " + this_path
127
 
        elif not this_ie and last_ie:
128
 
            # deleted here
129
 
            yield revno, revision_id, "deleted " + last_path
 
116
        if this_path is not None and last_path is None:
 
117
            yield revno, revision_id, "deleted " + this_path
 
118
            this_verifier = this_tree.get_file_verifier(this_path)
 
119
        elif this_path is None and last_path is not None:
 
120
            yield revno, revision_id, "added " + last_path
130
121
        elif this_path != last_path:
131
 
            yield revno, revision_id, ("renamed %s => %s" % (last_path, this_path))
132
 
        elif (this_ie.text_size != last_ie.text_size
133
 
              or this_ie.text_sha1 != last_ie.text_sha1):
134
 
            yield revno, revision_id, "modified " + this_path
 
122
            yield revno, revision_id, ("renamed %s => %s" % (this_path, last_path))
 
123
            this_verifier = this_tree.get_file_verifier(this_path)
 
124
        else:
 
125
            this_verifier = this_tree.get_file_verifier(this_path)
 
126
            if (this_verifier != last_verifier):
 
127
                yield revno, revision_id, "modified " + this_path
135
128
 
136
 
        last_ie = this_ie
 
129
        last_verifier = this_verifier
137
130
        last_path = this_path
138
 
        revno += 1
139
 
 
140
 
 
141
 
def _enumerate_history(branch):
142
 
    rh = []
143
 
    revno = 1
144
 
    for rev_id in branch.revision_history():
145
 
        rh.append((revno, rev_id))
146
 
        revno += 1
147
 
    return rh
 
131
        last_tree = this_tree
 
132
        if last_path is None:
 
133
            return
 
134
        revno -= 1
148
135
 
149
136
 
150
137
def show_log(branch,
151
138
             lf,
152
 
             specific_fileid=None,
153
139
             verbose=False,
154
140
             direction='reverse',
155
141
             start_revision=None,
156
142
             end_revision=None,
157
143
             search=None,
158
144
             limit=None,
159
 
             show_diff=False):
 
145
             show_diff=False,
 
146
             match=None):
160
147
    """Write out human-readable log of commits to this branch.
161
148
 
162
149
    This function is being retained for backwards compatibility but
166
153
 
167
154
    :param lf: The LogFormatter object showing the output.
168
155
 
169
 
    :param specific_fileid: If not None, list only the commits affecting the
170
 
        specified file, rather than all commits.
171
 
 
172
156
    :param verbose: If True show added/changed/deleted/renamed files.
173
157
 
174
158
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
185
169
        if None or 0.
186
170
 
187
171
    :param show_diff: If True, output a diff after each revision.
 
172
 
 
173
    :param match: Dictionary of search lists to use when matching revision
 
174
      properties.
188
175
    """
189
 
    # Convert old-style parameters to new-style parameters
190
 
    if specific_fileid is not None:
191
 
        file_ids = [specific_fileid]
192
 
    else:
193
 
        file_ids = None
194
176
    if verbose:
195
 
        if file_ids:
196
 
            delta_type = 'partial'
197
 
        else:
198
 
            delta_type = 'full'
 
177
        delta_type = 'full'
199
178
    else:
200
179
        delta_type = None
201
180
    if show_diff:
202
 
        if file_ids:
203
 
            diff_type = 'partial'
204
 
        else:
205
 
            diff_type = 'full'
 
181
        diff_type = 'full'
206
182
    else:
207
183
        diff_type = None
208
184
 
 
185
    if isinstance(start_revision, int):
 
186
        try:
 
187
            start_revision = revisionspec.RevisionInfo(branch, start_revision)
 
188
        except (errors.NoSuchRevision, errors.RevnoOutOfBounds):
 
189
            raise errors.InvalidRevisionNumber(start_revision)
 
190
 
 
191
    if isinstance(end_revision, int):
 
192
        try:
 
193
            end_revision = revisionspec.RevisionInfo(branch, end_revision)
 
194
        except (errors.NoSuchRevision, errors.RevnoOutOfBounds):
 
195
            raise errors.InvalidRevisionNumber(end_revision)
 
196
 
 
197
    if end_revision is not None and end_revision.revno == 0:
 
198
        raise errors.InvalidRevisionNumber(end_revision.revno)
 
199
 
209
200
    # Build the request and execute it
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
201
    rqst = make_log_request_dict(
 
202
        direction=direction,
211
203
        start_revision=start_revision, end_revision=end_revision,
212
204
        limit=limit, message_search=search,
213
205
        delta_type=delta_type, diff_type=diff_type)
214
206
    Logger(branch, rqst).show(lf)
215
207
 
216
208
 
217
 
# Note: This needs to be kept this in sync with the defaults in
 
209
# Note: This needs to be kept in sync with the defaults in
218
210
# make_log_request_dict() below
219
211
_DEFAULT_REQUEST_PARAMS = {
220
212
    'direction': 'reverse',
221
 
    'levels': 1,
 
213
    'levels': None,
222
214
    'generate_tags': True,
223
215
    'exclude_common_ancestry': False,
224
216
    '_match_using_deltas': True,
227
219
 
228
220
def make_log_request_dict(direction='reverse', specific_fileids=None,
229
221
                          start_revision=None, end_revision=None, limit=None,
230
 
                          message_search=None, levels=1, generate_tags=True,
 
222
                          message_search=None, levels=None, generate_tags=True,
231
223
                          delta_type=None,
232
224
                          diff_type=None, _match_using_deltas=True,
233
 
                          exclude_common_ancestry=False,
 
225
                          exclude_common_ancestry=False, match=None,
 
226
                          signature=False, omit_merges=False,
234
227
                          ):
235
228
    """Convenience function for making a logging request dictionary.
236
229
 
257
250
      matching commit messages
258
251
 
259
252
    :param levels: the number of levels of revisions to
260
 
      generate; 1 for just the mainline; 0 for all levels.
 
253
      generate; 1 for just the mainline; 0 for all levels, or None for
 
254
      a sensible default.
261
255
 
262
256
    :param generate_tags: If True, include tags for matched revisions.
263
 
 
 
257
`
264
258
    :param delta_type: Either 'full', 'partial' or None.
265
259
      'full' means generate the complete delta - adds/deletes/modifies/etc;
266
260
      'partial' means filter the delta using specific_fileids;
273
267
 
274
268
    :param _match_using_deltas: a private parameter controlling the
275
269
      algorithm used for matching specific_fileids. This parameter
276
 
      may be removed in the future so bzrlib client code should NOT
 
270
      may be removed in the future so breezy client code should NOT
277
271
      use it.
278
272
 
279
273
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
280
274
      range operator or as a graph difference.
 
275
 
 
276
    :param signature: show digital signature information
 
277
 
 
278
    :param match: Dictionary of list of search strings to use when filtering
 
279
      revisions. Keys can be 'message', 'author', 'committer', 'bugs' or
 
280
      the empty string to match any of the preceding properties.
 
281
 
 
282
    :param omit_merges: If True, commits with more than one parent are
 
283
      omitted.
 
284
 
281
285
    """
 
286
    # Take care of old style message_search parameter
 
287
    if message_search:
 
288
        if match:
 
289
            if 'message' in match:
 
290
                match['message'].append(message_search)
 
291
            else:
 
292
                match['message'] = [message_search]
 
293
        else:
 
294
            match = {'message': [message_search]}
282
295
    return {
283
296
        'direction': direction,
284
297
        'specific_fileids': specific_fileids,
285
298
        'start_revision': start_revision,
286
299
        'end_revision': end_revision,
287
300
        'limit': limit,
288
 
        'message_search': message_search,
289
301
        'levels': levels,
290
302
        'generate_tags': generate_tags,
291
303
        'delta_type': delta_type,
292
304
        'diff_type': diff_type,
293
305
        'exclude_common_ancestry': exclude_common_ancestry,
 
306
        'signature': signature,
 
307
        'match': match,
 
308
        'omit_merges': omit_merges,
294
309
        # Add 'private' attributes for features that may be deprecated
295
310
        '_match_using_deltas': _match_using_deltas,
296
311
    }
298
313
 
299
314
def _apply_log_request_defaults(rqst):
300
315
    """Apply default values to a request dictionary."""
301
 
    result = _DEFAULT_REQUEST_PARAMS
 
316
    result = _DEFAULT_REQUEST_PARAMS.copy()
302
317
    if rqst:
303
318
        result.update(rqst)
304
319
    return result
305
320
 
306
321
 
 
322
def format_signature_validity(rev_id, branch):
 
323
    """get the signature validity
 
324
 
 
325
    :param rev_id: revision id to validate
 
326
    :param branch: branch of revision
 
327
    :return: human readable string to print to log
 
328
    """
 
329
    from breezy import gpg
 
330
 
 
331
    gpg_strategy = gpg.GPGStrategy(branch.get_config_stack())
 
332
    result = branch.repository.verify_revision_signature(rev_id, gpg_strategy)
 
333
    if result[0] == gpg.SIGNATURE_VALID:
 
334
        return u"valid signature from {0}".format(result[1])
 
335
    if result[0] == gpg.SIGNATURE_KEY_MISSING:
 
336
        return "unknown key {0}".format(result[1])
 
337
    if result[0] == gpg.SIGNATURE_NOT_VALID:
 
338
        return "invalid signature!"
 
339
    if result[0] == gpg.SIGNATURE_NOT_SIGNED:
 
340
        return "no signature"
 
341
 
 
342
 
307
343
class LogGenerator(object):
308
344
    """A generator of log revisions."""
309
345
 
336
372
        if not isinstance(lf, LogFormatter):
337
373
            warn("not a LogFormatter instance: %r" % lf)
338
374
 
339
 
        self.branch.lock_read()
340
 
        try:
 
375
        with self.branch.lock_read():
341
376
            if getattr(lf, 'begin_log', None):
342
377
                lf.begin_log()
343
378
            self._show_body(lf)
344
379
            if getattr(lf, 'end_log', None):
345
380
                lf.end_log()
346
 
        finally:
347
 
            self.branch.unlock()
348
381
 
349
382
    def _show_body(self, lf):
350
383
        """Show the main log output.
354
387
        # Tweak the LogRequest based on what the LogFormatter can handle.
355
388
        # (There's no point generating stuff if the formatter can't display it.)
356
389
        rqst = self.rqst
357
 
        rqst['levels'] = lf.get_levels()
 
390
        if rqst['levels'] is None or lf.get_levels() > rqst['levels']:
 
391
            # user didn't specify levels, use whatever the LF can handle:
 
392
            rqst['levels'] = lf.get_levels()
 
393
 
358
394
        if not getattr(lf, 'supports_tags', False):
359
395
            rqst['generate_tags'] = False
360
396
        if not getattr(lf, 'supports_delta', False):
361
397
            rqst['delta_type'] = None
362
398
        if not getattr(lf, 'supports_diff', False):
363
399
            rqst['diff_type'] = None
 
400
        if not getattr(lf, 'supports_signatures', False):
 
401
            rqst['signature'] = False
364
402
 
365
403
        # Find and print the interesting revisions
366
404
        generator = self._generator_factory(self.branch, rqst)
367
 
        for lr in generator.iter_log_revisions():
368
 
            lf.log_revision(lr)
 
405
        try:
 
406
            for lr in generator.iter_log_revisions():
 
407
                lf.log_revision(lr)
 
408
        except errors.GhostRevisionUnusableHere:
 
409
            raise errors.BzrCommandError(
 
410
                gettext('Further revision history missing.'))
369
411
        lf.show_advice()
370
412
 
371
413
    def _generator_factory(self, branch, rqst):
372
414
        """Make the LogGenerator object to use.
373
 
        
 
415
 
374
416
        Subclasses may wish to override this.
375
417
        """
376
418
        return _DefaultLogGenerator(branch, rqst)
400
442
        levels = rqst.get('levels')
401
443
        limit = rqst.get('limit')
402
444
        diff_type = rqst.get('diff_type')
 
445
        show_signature = rqst.get('signature')
 
446
        omit_merges = rqst.get('omit_merges')
403
447
        log_count = 0
404
448
        revision_iterator = self._create_log_revision_iterator()
405
449
        for revs in revision_iterator:
406
450
            for (rev_id, revno, merge_depth), rev, delta in revs:
407
451
                # 0 levels means show everything; merge_depth counts from 0
408
 
                if levels != 0 and merge_depth >= levels:
409
 
                    continue
 
452
                if (levels != 0 and merge_depth is not None and
 
453
                        merge_depth >= levels):
 
454
                    continue
 
455
                if omit_merges and len(rev.parent_ids) > 1:
 
456
                    continue
 
457
                if rev is None:
 
458
                    raise errors.GhostRevisionUnusableHere(rev_id)
410
459
                if diff_type is None:
411
460
                    diff = None
412
461
                else:
413
462
                    diff = self._format_diff(rev, rev_id, diff_type)
414
 
                yield LogRevision(rev, revno, merge_depth, delta,
415
 
                    self.rev_tag_dict.get(rev_id), diff)
 
463
                if show_signature:
 
464
                    signature = format_signature_validity(rev_id, self.branch)
 
465
                else:
 
466
                    signature = None
 
467
                yield LogRevision(
 
468
                    rev, revno, merge_depth, delta,
 
469
                    self.rev_tag_dict.get(rev_id), diff, signature)
416
470
                if limit:
417
471
                    log_count += 1
418
472
                    if log_count >= limit:
431
485
            specific_files = [tree_2.id2path(id) for id in file_ids]
432
486
        else:
433
487
            specific_files = None
434
 
        s = StringIO()
 
488
        s = BytesIO()
 
489
        path_encoding = get_diff_header_encoding()
435
490
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
436
 
            new_label='')
 
491
                             new_label='', path_encoding=path_encoding)
437
492
        return s.getvalue()
438
493
 
439
494
    def _create_log_revision_iterator(self):
453
508
            # not a directory
454
509
            file_count = len(self.rqst.get('specific_fileids'))
455
510
            if file_count != 1:
456
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
511
                raise errors.BzrError(
 
512
                    "illegal LogRequest: must match-using-deltas "
457
513
                    "when logging %d files" % file_count)
458
514
            return self._log_revision_iterator_using_per_file_graph()
459
515
 
462
518
        rqst = self.rqst
463
519
        generate_merge_revisions = rqst.get('levels') != 1
464
520
        delayed_graph_generation = not rqst.get('specific_fileids') and (
465
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
521
            rqst.get('limit') or self.start_rev_id or self.end_rev_id)
466
522
        view_revisions = _calc_view_revisions(
467
523
            self.branch, self.start_rev_id, self.end_rev_id,
468
524
            rqst.get('direction'),
472
528
 
473
529
        # Apply the other filters
474
530
        return make_log_rev_iterator(self.branch, view_revisions,
475
 
            rqst.get('delta_type'), rqst.get('message_search'),
476
 
            file_ids=rqst.get('specific_fileids'),
477
 
            direction=rqst.get('direction'))
 
531
                                     rqst.get('delta_type'), rqst.get('match'),
 
532
                                     file_ids=rqst.get('specific_fileids'),
 
533
                                     direction=rqst.get('direction'))
478
534
 
479
535
    def _log_revision_iterator_using_per_file_graph(self):
480
536
        # Get the base revisions, filtering by the revision range.
488
544
        if not isinstance(view_revisions, list):
489
545
            view_revisions = list(view_revisions)
490
546
        view_revisions = _filter_revisions_touching_file_id(self.branch,
491
 
            rqst.get('specific_fileids')[0], view_revisions,
492
 
            include_merges=rqst.get('levels') != 1)
 
547
                                                            rqst.get('specific_fileids')[
 
548
                                                                0], view_revisions,
 
549
                                                            include_merges=rqst.get('levels') != 1)
493
550
        return make_log_rev_iterator(self.branch, view_revisions,
494
 
            rqst.get('delta_type'), rqst.get('message_search'))
 
551
                                     rqst.get('delta_type'), rqst.get('match'))
495
552
 
496
553
 
497
554
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
505
562
             a list of the same tuples.
506
563
    """
507
564
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
508
 
        raise errors.BzrCommandError(
509
 
            '--exclude-common-ancestry requires two different revisions')
 
565
        raise errors.BzrCommandError(gettext(
 
566
            '--exclude-common-ancestry requires two different revisions'))
510
567
    if direction not in ('reverse', 'forward'):
511
 
        raise ValueError('invalid direction %r' % direction)
512
 
    br_revno, br_rev_id = branch.last_revision_info()
513
 
    if br_revno == 0:
 
568
        raise ValueError(gettext('invalid direction %r') % direction)
 
569
    br_rev_id = branch.last_revision()
 
570
    if br_rev_id == _mod_revision.NULL_REVISION:
514
571
        return []
515
572
 
516
573
    if (end_rev_id and start_rev_id == end_rev_id
517
574
        and (not generate_merge_revisions
518
575
             or not _has_merges(branch, end_rev_id))):
519
576
        # If a single revision is requested, check we can handle it
520
 
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
521
 
                                           br_revno)
522
 
    elif not generate_merge_revisions:
523
 
        # If we only want to see linear revisions, we can iterate ...
524
 
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
525
 
                                             direction)
526
 
        if direction == 'forward':
527
 
            iter_revs = reversed(iter_revs)
528
 
    else:
529
 
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
530
 
                                            direction, delayed_graph_generation,
531
 
                                            exclude_common_ancestry)
532
 
        if direction == 'forward':
533
 
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
 
577
        return _generate_one_revision(branch, end_rev_id, br_rev_id,
 
578
                                      branch.revno())
 
579
    if not generate_merge_revisions:
 
580
        try:
 
581
            # If we only want to see linear revisions, we can iterate ...
 
582
            iter_revs = _linear_view_revisions(
 
583
                branch, start_rev_id, end_rev_id,
 
584
                exclude_common_ancestry=exclude_common_ancestry)
 
585
            # If a start limit was given and it's not obviously an
 
586
            # ancestor of the end limit, check it before outputting anything
 
587
            if (direction == 'forward'
 
588
                or (start_rev_id and not _is_obvious_ancestor(
 
589
                    branch, start_rev_id, end_rev_id))):
 
590
                iter_revs = list(iter_revs)
 
591
            if direction == 'forward':
 
592
                iter_revs = reversed(iter_revs)
 
593
            return iter_revs
 
594
        except _StartNotLinearAncestor:
 
595
            # Switch to the slower implementation that may be able to find a
 
596
            # non-obvious ancestor out of the left-hand history.
 
597
            pass
 
598
    iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
599
                                        direction, delayed_graph_generation,
 
600
                                        exclude_common_ancestry)
 
601
    if direction == 'forward':
 
602
        iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
534
603
    return iter_revs
535
604
 
536
605
 
539
608
        # It's the tip
540
609
        return [(br_rev_id, br_revno, 0)]
541
610
    else:
542
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
543
 
        revno_str = '.'.join(str(n) for n in revno)
 
611
        revno_str = _compute_revno_str(branch, rev_id)
544
612
        return [(rev_id, revno_str, 0)]
545
613
 
546
614
 
547
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
548
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
549
 
    # If a start limit was given and it's not obviously an
550
 
    # ancestor of the end limit, check it before outputting anything
551
 
    if direction == 'forward' or (start_rev_id
552
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
553
 
        try:
554
 
            result = list(result)
555
 
        except _StartNotLinearAncestor:
556
 
            raise errors.BzrCommandError('Start revision not found in'
557
 
                ' left-hand history of end revision.')
558
 
    return result
559
 
 
560
 
 
561
615
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
562
616
                            delayed_graph_generation,
563
617
                            exclude_common_ancestry=False):
571
625
    initial_revisions = []
572
626
    if delayed_graph_generation:
573
627
        try:
574
 
            for rev_id, revno, depth in  _linear_view_revisions(
575
 
                branch, start_rev_id, end_rev_id):
 
628
            for rev_id, revno, depth in _linear_view_revisions(
 
629
                    branch, start_rev_id, end_rev_id, exclude_common_ancestry):
576
630
                if _has_merges(branch, rev_id):
577
631
                    # The end_rev_id can be nested down somewhere. We need an
578
632
                    # explicit ancestry check. There is an ambiguity here as we
585
639
                    # -- vila 20100319
586
640
                    graph = branch.repository.get_graph()
587
641
                    if (start_rev_id is not None
588
 
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
642
                            and not graph.is_ancestor(start_rev_id, end_rev_id)):
589
643
                        raise _StartNotLinearAncestor()
590
644
                    # Since we collected the revisions so far, we need to
591
645
                    # adjust end_rev_id.
599
653
        except _StartNotLinearAncestor:
600
654
            # A merge was never detected so the lower revision limit can't
601
655
            # be nested down somewhere
602
 
            raise errors.BzrCommandError('Start revision not found in'
603
 
                ' history of end revision.')
 
656
            raise errors.BzrCommandError(gettext('Start revision not found in'
 
657
                                                 ' history of end revision.'))
604
658
 
605
659
    # We exit the loop above because we encounter a revision with merges, from
606
660
    # this revision, we need to switch to _graph_view_revisions.
610
664
    # shown naturally, i.e. just like it is for linear logging. We can easily
611
665
    # make forward the exact opposite display, but showing the merge revisions
612
666
    # indented at the end seems slightly nicer in that case.
613
 
    view_revisions = chain(iter(initial_revisions),
614
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
615
 
                              rebase_initial_depths=(direction == 'reverse'),
616
 
                              exclude_common_ancestry=exclude_common_ancestry))
 
667
    view_revisions = itertools.chain(iter(initial_revisions),
 
668
                                     _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
669
                                                           rebase_initial_depths=(
 
670
                                                               direction == 'reverse'),
 
671
                                                           exclude_common_ancestry=exclude_common_ancestry))
617
672
    return view_revisions
618
673
 
619
674
 
623
678
    return len(parents) > 1
624
679
 
625
680
 
 
681
def _compute_revno_str(branch, rev_id):
 
682
    """Compute the revno string from a rev_id.
 
683
 
 
684
    :return: The revno string, or None if the revision is not in the supplied
 
685
        branch.
 
686
    """
 
687
    try:
 
688
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
689
    except errors.NoSuchRevision:
 
690
        # The revision must be outside of this branch
 
691
        return None
 
692
    else:
 
693
        return '.'.join(str(n) for n in revno)
 
694
 
 
695
 
626
696
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
627
697
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
628
698
    if start_rev_id and end_rev_id:
629
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
630
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
699
        try:
 
700
            start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
701
            end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
702
        except errors.NoSuchRevision:
 
703
            # one or both is not in the branch; not obvious
 
704
            return False
631
705
        if len(start_dotted) == 1 and len(end_dotted) == 1:
632
706
            # both on mainline
633
707
            return start_dotted[0] <= end_dotted[0]
634
708
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
635
 
            start_dotted[0:1] == end_dotted[0:1]):
 
709
              start_dotted[0:1] == end_dotted[0:1]):
636
710
            # both on same development line
637
711
            return start_dotted[2] <= end_dotted[2]
638
712
        else:
643
717
    return True
644
718
 
645
719
 
646
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
720
def _linear_view_revisions(branch, start_rev_id, end_rev_id,
 
721
                           exclude_common_ancestry=False):
647
722
    """Calculate a sequence of revisions to view, newest to oldest.
648
723
 
649
724
    :param start_rev_id: the lower revision-id
650
725
    :param end_rev_id: the upper revision-id
 
726
    :param exclude_common_ancestry: Whether the start_rev_id should be part of
 
727
        the iterated revisions.
651
728
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
729
        dotted_revno will be None for ghosts
652
730
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
653
 
      is not found walking the left-hand history
 
731
        is not found walking the left-hand history
654
732
    """
655
 
    br_revno, br_rev_id = branch.last_revision_info()
656
733
    repo = branch.repository
 
734
    graph = repo.get_graph()
657
735
    if start_rev_id is None and end_rev_id is None:
658
 
        cur_revno = br_revno
659
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
660
 
            yield revision_id, str(cur_revno), 0
661
 
            cur_revno -= 1
 
736
        if branch._format.stores_revno() or \
 
737
                config.GlobalStack().get('calculate_revnos'):
 
738
            try:
 
739
                br_revno, br_rev_id = branch.last_revision_info()
 
740
            except errors.GhostRevisionsHaveNoRevno:
 
741
                br_rev_id = branch.last_revision()
 
742
                cur_revno = None
 
743
            else:
 
744
                cur_revno = br_revno
 
745
        else:
 
746
            br_rev_id = branch.last_revision()
 
747
            cur_revno = None
 
748
 
 
749
        graph_iter = graph.iter_lefthand_ancestry(br_rev_id,
 
750
                                                  (_mod_revision.NULL_REVISION,))
 
751
        while True:
 
752
            try:
 
753
                revision_id = next(graph_iter)
 
754
            except errors.RevisionNotPresent as e:
 
755
                # Oops, a ghost.
 
756
                yield e.revision_id, None, None
 
757
                break
 
758
            except StopIteration:
 
759
                break
 
760
            else:
 
761
                yield revision_id, str(cur_revno) if cur_revno is not None else None, 0
 
762
                if cur_revno is not None:
 
763
                    cur_revno -= 1
662
764
    else:
 
765
        br_rev_id = branch.last_revision()
663
766
        if end_rev_id is None:
664
767
            end_rev_id = br_rev_id
665
768
        found_start = start_rev_id is None
666
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
667
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
668
 
            revno_str = '.'.join(str(n) for n in revno)
669
 
            if not found_start and revision_id == start_rev_id:
670
 
                yield revision_id, revno_str, 0
671
 
                found_start = True
 
769
        graph_iter = graph.iter_lefthand_ancestry(end_rev_id,
 
770
                                                  (_mod_revision.NULL_REVISION,))
 
771
        while True:
 
772
            try:
 
773
                revision_id = next(graph_iter)
 
774
            except StopIteration:
 
775
                break
 
776
            except errors.RevisionNotPresent as e:
 
777
                # Oops, a ghost.
 
778
                yield e.revision_id, None, None
672
779
                break
673
780
            else:
674
 
                yield revision_id, revno_str, 0
675
 
        else:
676
 
            if not found_start:
677
 
                raise _StartNotLinearAncestor()
 
781
                revno_str = _compute_revno_str(branch, revision_id)
 
782
                if not found_start and revision_id == start_rev_id:
 
783
                    if not exclude_common_ancestry:
 
784
                        yield revision_id, revno_str, 0
 
785
                    found_start = True
 
786
                    break
 
787
                else:
 
788
                    yield revision_id, revno_str, 0
 
789
        if not found_start:
 
790
            raise _StartNotLinearAncestor()
678
791
 
679
792
 
680
793
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
721
834
            yield rev_id, '.'.join(map(str, revno)), merge_depth
722
835
 
723
836
 
724
 
@deprecated_function(deprecated_in((2, 2, 0)))
725
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
726
 
        specific_fileid, generate_merge_revisions):
727
 
    """Calculate the revisions to view.
728
 
 
729
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
730
 
             a list of the same tuples.
731
 
    """
732
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
733
 
        end_revision)
734
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
735
 
        direction, generate_merge_revisions or specific_fileid))
736
 
    if specific_fileid:
737
 
        view_revisions = _filter_revisions_touching_file_id(branch,
738
 
            specific_fileid, view_revisions,
739
 
            include_merges=generate_merge_revisions)
740
 
    return _rebase_merge_depth(view_revisions)
741
 
 
742
 
 
743
837
def _rebase_merge_depth(view_revisions):
744
838
    """Adjust depths upwards so the top level is 0."""
745
839
    # If either the first or last revision have a merge_depth of 0, we're done
746
840
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
747
 
        min_depth = min([d for r,n,d in view_revisions])
 
841
        min_depth = min([d for r, n, d in view_revisions])
748
842
        if min_depth != 0:
749
 
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
 
843
            view_revisions = [(r, n, d - min_depth)
 
844
                              for r, n, d in view_revisions]
750
845
    return view_revisions
751
846
 
752
847
 
753
848
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
754
 
        file_ids=None, direction='reverse'):
 
849
                          file_ids=None, direction='reverse'):
755
850
    """Create a revision iterator for log.
756
851
 
757
852
    :param branch: The branch being logged.
767
862
    """
768
863
    # Convert view_revisions into (view, None, None) groups to fit with
769
864
    # the standard interface here.
770
 
    if type(view_revisions) == list:
 
865
    if isinstance(view_revisions, list):
771
866
        # A single batch conversion is faster than many incremental ones.
772
867
        # As we have all the data, do a batch conversion.
773
868
        nones = [None] * len(view_revisions)
774
 
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
 
869
        log_rev_iterator = iter([list(zip(view_revisions, nones, nones))])
775
870
    else:
776
871
        def _convert():
777
872
            for view in view_revisions:
781
876
        # It would be nicer if log adapters were first class objects
782
877
        # with custom parameters. This will do for now. IGC 20090127
783
878
        if adapter == _make_delta_filter:
784
 
            log_rev_iterator = adapter(branch, generate_delta,
785
 
                search, log_rev_iterator, file_ids, direction)
 
879
            log_rev_iterator = adapter(
 
880
                branch, generate_delta, search, log_rev_iterator, file_ids,
 
881
                direction)
786
882
        else:
787
 
            log_rev_iterator = adapter(branch, generate_delta,
788
 
                search, log_rev_iterator)
 
883
            log_rev_iterator = adapter(
 
884
                branch, generate_delta, search, log_rev_iterator)
789
885
    return log_rev_iterator
790
886
 
791
887
 
792
 
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
 
888
def _make_search_filter(branch, generate_delta, match, log_rev_iterator):
793
889
    """Create a filtered iterator of log_rev_iterator matching on a regex.
794
890
 
795
891
    :param branch: The branch being logged.
796
892
    :param generate_delta: Whether to generate a delta for each revision.
797
 
    :param search: A user text search string.
 
893
    :param match: A dictionary with properties as keys and lists of strings
 
894
        as values. To match, a revision may match any of the supplied strings
 
895
        within a single property but must match at least one string for each
 
896
        property.
798
897
    :param log_rev_iterator: An input iterator containing all revisions that
799
898
        could be displayed, in lists.
800
899
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
801
900
        delta).
802
901
    """
803
 
    if search is None:
 
902
    if not match:
804
903
        return log_rev_iterator
805
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
806
 
            'log message filter')
807
 
    return _filter_message_re(searchRE, log_rev_iterator)
808
 
 
809
 
 
810
 
def _filter_message_re(searchRE, log_rev_iterator):
 
904
    # Use lazy_compile so mapping to InvalidPattern error occurs.
 
905
    searchRE = [(k, [lazy_regex.lazy_compile(x, re.IGNORECASE) for x in v])
 
906
                for k, v in match.items()]
 
907
    return _filter_re(searchRE, log_rev_iterator)
 
908
 
 
909
 
 
910
def _filter_re(searchRE, log_rev_iterator):
811
911
    for revs in log_rev_iterator:
812
 
        new_revs = []
813
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
814
 
            if searchRE.search(rev.message):
815
 
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
816
 
        yield new_revs
 
912
        new_revs = [rev for rev in revs if _match_filter(searchRE, rev[1])]
 
913
        if new_revs:
 
914
            yield new_revs
 
915
 
 
916
 
 
917
def _match_filter(searchRE, rev):
 
918
    strings = {
 
919
        'message': (rev.message,),
 
920
        'committer': (rev.committer,),
 
921
        'author': (rev.get_apparent_authors()),
 
922
        'bugs': list(rev.iter_bugs())
 
923
        }
 
924
    strings[''] = [item for inner_list in strings.values()
 
925
                   for item in inner_list]
 
926
    for k, v in searchRE:
 
927
        if k in strings and not _match_any_filter(strings[k], v):
 
928
            return False
 
929
    return True
 
930
 
 
931
 
 
932
def _match_any_filter(strings, res):
 
933
    return any(r.search(s) for r in res for s in strings)
817
934
 
818
935
 
819
936
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
820
 
    fileids=None, direction='reverse'):
 
937
                       fileids=None, direction='reverse'):
821
938
    """Add revision deltas to a log iterator if needed.
822
939
 
823
940
    :param branch: The branch being logged.
835
952
    if not generate_delta and not fileids:
836
953
        return log_rev_iterator
837
954
    return _generate_deltas(branch.repository, log_rev_iterator,
838
 
        generate_delta, fileids, direction)
 
955
                            generate_delta, fileids, direction)
839
956
 
840
957
 
841
958
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
842
 
    direction):
 
959
                     direction):
843
960
    """Create deltas for each batch of revisions in log_rev_iterator.
844
961
 
845
962
    If we're only generating deltas for the sake of filtering against
865
982
        new_revs = []
866
983
        if delta_type == 'full' and not check_fileids:
867
984
            deltas = repository.get_deltas_for_revisions(revisions)
868
 
            for rev, delta in izip(revs, deltas):
 
985
            for rev, delta in zip(revs, deltas):
869
986
                new_revs.append((rev[0], rev[1], delta))
870
987
        else:
871
988
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
872
 
            for rev, delta in izip(revs, deltas):
 
989
            for rev, delta in zip(revs, deltas):
873
990
                if check_fileids:
874
991
                    if delta is None or not delta.has_changed():
875
992
                        continue
893
1010
 
894
1011
def _update_fileids(delta, fileids, stop_on):
895
1012
    """Update the set of file-ids to search based on file lifecycle events.
896
 
    
 
1013
 
897
1014
    :param fileids: a set of fileids to update
898
1015
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
899
1016
      fileids set once their add or remove entry is detected respectively
900
1017
    """
901
1018
    if stop_on == 'add':
902
 
        for item in delta.added:
903
 
            if item[1] in fileids:
904
 
                fileids.remove(item[1])
 
1019
        for item in delta.added + delta.copied:
 
1020
            if item.file_id in fileids:
 
1021
                fileids.remove(item.file_id)
905
1022
    elif stop_on == 'delete':
906
1023
        for item in delta.removed:
907
 
            if item[1] in fileids:
908
 
                fileids.remove(item[1])
 
1024
            if item.file_id in fileids:
 
1025
                fileids.remove(item.file_id)
909
1026
 
910
1027
 
911
1028
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
923
1040
    for revs in log_rev_iterator:
924
1041
        # r = revision_id, n = revno, d = merge depth
925
1042
        revision_ids = [view[0] for view, _, _ in revs]
926
 
        revisions = repository.get_revisions(revision_ids)
927
 
        revs = [(rev[0], revision, rev[2]) for rev, revision in
928
 
            izip(revs, revisions)]
929
 
        yield revs
 
1043
        revisions = dict(repository.iter_revisions(revision_ids))
 
1044
        yield [(rev[0], revisions[rev[0][0]], rev[2]) for rev in revs]
930
1045
 
931
1046
 
932
1047
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
940
1055
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
941
1056
        delta).
942
1057
    """
943
 
    repository = branch.repository
944
1058
    num = 9
945
1059
    for batch in log_rev_iterator:
946
1060
        batch = iter(batch)
958
1072
    :param  branch: The branch containing the revisions.
959
1073
 
960
1074
    :param  start_revision: The first revision to be logged.
961
 
            For backwards compatibility this may be a mainline integer revno,
962
1075
            but for merge revision support a RevisionInfo is expected.
963
1076
 
964
1077
    :param  end_revision: The last revision to be logged.
967
1080
 
968
1081
    :return: (start_rev_id, end_rev_id) tuple.
969
1082
    """
970
 
    branch_revno, branch_rev_id = branch.last_revision_info()
971
1083
    start_rev_id = None
972
 
    if start_revision is None:
 
1084
    start_revno = None
 
1085
    if start_revision is not None:
 
1086
        if not isinstance(start_revision, revisionspec.RevisionInfo):
 
1087
            raise TypeError(start_revision)
 
1088
        start_rev_id = start_revision.rev_id
 
1089
        start_revno = start_revision.revno
 
1090
    if start_revno is None:
973
1091
        start_revno = 1
974
 
    else:
975
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
976
 
            start_rev_id = start_revision.rev_id
977
 
            start_revno = start_revision.revno or 1
978
 
        else:
979
 
            branch.check_real_revno(start_revision)
980
 
            start_revno = start_revision
981
 
            start_rev_id = branch.get_rev_id(start_revno)
982
1092
 
983
1093
    end_rev_id = None
984
 
    if end_revision is None:
985
 
        end_revno = branch_revno
986
 
    else:
987
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
988
 
            end_rev_id = end_revision.rev_id
989
 
            end_revno = end_revision.revno or branch_revno
990
 
        else:
991
 
            branch.check_real_revno(end_revision)
992
 
            end_revno = end_revision
993
 
            end_rev_id = branch.get_rev_id(end_revno)
 
1094
    end_revno = None
 
1095
    if end_revision is not None:
 
1096
        if not isinstance(end_revision, revisionspec.RevisionInfo):
 
1097
            raise TypeError(start_revision)
 
1098
        end_rev_id = end_revision.rev_id
 
1099
        end_revno = end_revision.revno
994
1100
 
995
 
    if branch_revno != 0:
 
1101
    if branch.last_revision() != _mod_revision.NULL_REVISION:
996
1102
        if (start_rev_id == _mod_revision.NULL_REVISION
997
 
            or end_rev_id == _mod_revision.NULL_REVISION):
998
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
999
 
        if start_revno > end_revno:
1000
 
            raise errors.BzrCommandError("Start revision must be older than "
1001
 
                                         "the end revision.")
 
1103
                or end_rev_id == _mod_revision.NULL_REVISION):
 
1104
            raise errors.BzrCommandError(
 
1105
                gettext('Logging revision 0 is invalid.'))
 
1106
        if end_revno is not None and start_revno > end_revno:
 
1107
            raise errors.BzrCommandError(
 
1108
                gettext("Start revision must be older than the end revision."))
1002
1109
    return (start_rev_id, end_rev_id)
1003
1110
 
1004
1111
 
1052
1159
            end_revno = end_revision
1053
1160
 
1054
1161
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1055
 
        or (end_rev_id == _mod_revision.NULL_REVISION)):
1056
 
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
1162
            or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1163
        raise errors.BzrCommandError(gettext('Logging revision 0 is invalid.'))
1057
1164
    if start_revno > end_revno:
1058
 
        raise errors.BzrCommandError("Start revision must be older than "
1059
 
                                     "the end revision.")
 
1165
        raise errors.BzrCommandError(gettext("Start revision must be older "
 
1166
                                             "than the end revision."))
1060
1167
 
1061
1168
    if end_revno < start_revno:
1062
1169
        return None, None, None, None
1063
1170
    cur_revno = branch_revno
1064
1171
    rev_nos = {}
1065
1172
    mainline_revs = []
1066
 
    for revision_id in branch.repository.iter_reverse_revision_history(
1067
 
                        branch_last_revision):
 
1173
    graph = branch.repository.get_graph()
 
1174
    for revision_id in graph.iter_lefthand_ancestry(
 
1175
            branch_last_revision, (_mod_revision.NULL_REVISION,)):
1068
1176
        if cur_revno < start_revno:
1069
1177
            # We have gone far enough, but we always add 1 more revision
1070
1178
            rev_nos[revision_id] = cur_revno
1084
1192
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1085
1193
 
1086
1194
 
1087
 
@deprecated_function(deprecated_in((2, 2, 0)))
1088
 
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1089
 
    """Filter view_revisions based on revision ranges.
1090
 
 
1091
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1092
 
            tuples to be filtered.
1093
 
 
1094
 
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1095
 
            If NONE then all revisions up to the end_rev_id are logged.
1096
 
 
1097
 
    :param end_rev_id: If not NONE specifies the last revision to be logged.
1098
 
            If NONE then all revisions up to the end of the log are logged.
1099
 
 
1100
 
    :return: The filtered view_revisions.
1101
 
    """
1102
 
    if start_rev_id or end_rev_id:
1103
 
        revision_ids = [r for r, n, d in view_revisions]
1104
 
        if start_rev_id:
1105
 
            start_index = revision_ids.index(start_rev_id)
1106
 
        else:
1107
 
            start_index = 0
1108
 
        if start_rev_id == end_rev_id:
1109
 
            end_index = start_index
1110
 
        else:
1111
 
            if end_rev_id:
1112
 
                end_index = revision_ids.index(end_rev_id)
1113
 
            else:
1114
 
                end_index = len(view_revisions) - 1
1115
 
        # To include the revisions merged into the last revision,
1116
 
        # extend end_rev_id down to, but not including, the next rev
1117
 
        # with the same or lesser merge_depth
1118
 
        end_merge_depth = view_revisions[end_index][2]
1119
 
        try:
1120
 
            for index in xrange(end_index+1, len(view_revisions)+1):
1121
 
                if view_revisions[index][2] <= end_merge_depth:
1122
 
                    end_index = index - 1
1123
 
                    break
1124
 
        except IndexError:
1125
 
            # if the search falls off the end then log to the end as well
1126
 
            end_index = len(view_revisions) - 1
1127
 
        view_revisions = view_revisions[start_index:end_index+1]
1128
 
    return view_revisions
1129
 
 
1130
 
 
1131
1195
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1132
 
    include_merges=True):
 
1196
                                       include_merges=True):
1133
1197
    r"""Return the list of revision ids which touch a given file id.
1134
1198
 
1135
1199
    The function filters view_revisions and returns a subset.
1136
1200
    This includes the revisions which directly change the file id,
1137
1201
    and the revisions which merge these changes. So if the
1138
1202
    revision graph is::
 
1203
 
1139
1204
        A-.
1140
1205
        |\ \
1141
1206
        B C E
1168
1233
    """
1169
1234
    # Lookup all possible text keys to determine which ones actually modified
1170
1235
    # the file.
 
1236
    graph = branch.repository.get_file_graph()
 
1237
    get_parent_map = graph.get_parent_map
1171
1238
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1172
1239
    next_keys = None
1173
1240
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1177
1244
    #       indexing layer. We might consider passing in hints as to the known
1178
1245
    #       access pattern (sparse/clustered, high success rate/low success
1179
1246
    #       rate). This particular access is clustered with a low success rate.
1180
 
    get_parent_map = branch.repository.texts.get_parent_map
1181
1247
    modified_text_revisions = set()
1182
1248
    chunk_size = 1000
1183
 
    for start in xrange(0, len(text_keys), chunk_size):
 
1249
    for start in range(0, len(text_keys), chunk_size):
1184
1250
        next_keys = text_keys[start:start + chunk_size]
1185
1251
        # Only keep the revision_id portion of the key
1186
1252
        modified_text_revisions.update(
1201
1267
 
1202
1268
        if rev_id in modified_text_revisions:
1203
1269
            # This needs to be logged, along with the extra revisions
1204
 
            for idx in xrange(len(current_merge_stack)):
 
1270
            for idx in range(len(current_merge_stack)):
1205
1271
                node = current_merge_stack[idx]
1206
1272
                if node is not None:
1207
1273
                    if include_merges or node[2] == 0:
1210
1276
    return result
1211
1277
 
1212
1278
 
1213
 
@deprecated_function(deprecated_in((2, 2, 0)))
1214
 
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1215
 
                       include_merges=True):
1216
 
    """Produce an iterator of revisions to show
1217
 
    :return: an iterator of (revision_id, revno, merge_depth)
1218
 
    (if there is no revno for a revision, None is supplied)
1219
 
    """
1220
 
    if not include_merges:
1221
 
        revision_ids = mainline_revs[1:]
1222
 
        if direction == 'reverse':
1223
 
            revision_ids.reverse()
1224
 
        for revision_id in revision_ids:
1225
 
            yield revision_id, str(rev_nos[revision_id]), 0
1226
 
        return
1227
 
    graph = branch.repository.get_graph()
1228
 
    # This asks for all mainline revisions, which means we only have to spider
1229
 
    # sideways, rather than depth history. That said, its still size-of-history
1230
 
    # and should be addressed.
1231
 
    # mainline_revisions always includes an extra revision at the beginning, so
1232
 
    # don't request it.
1233
 
    parent_map = dict(((key, value) for key, value in
1234
 
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
1235
 
    # filter out ghosts; merge_sort errors on ghosts.
1236
 
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
1237
 
    merge_sorted_revisions = tsort.merge_sort(
1238
 
        rev_graph,
1239
 
        mainline_revs[-1],
1240
 
        mainline_revs,
1241
 
        generate_revno=True)
1242
 
 
1243
 
    if direction == 'forward':
1244
 
        # forward means oldest first.
1245
 
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
1246
 
    elif direction != 'reverse':
1247
 
        raise ValueError('invalid direction %r' % direction)
1248
 
 
1249
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
1250
 
         ) in merge_sorted_revisions:
1251
 
        yield rev_id, '.'.join(map(str, revno)), merge_depth
1252
 
 
1253
 
 
1254
1279
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1255
1280
    """Reverse revisions by depth.
1256
1281
 
1257
1282
    Revisions with a different depth are sorted as a group with the previous
1258
 
    revision of that depth.  There may be no topological justification for this,
 
1283
    revision of that depth.  There may be no topological justification for this
1259
1284
    but it looks much nicer.
1260
1285
    """
1261
1286
    # Add a fake revision at start so that we can always attach sub revisions
1291
1316
    """
1292
1317
 
1293
1318
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1294
 
                 tags=None, diff=None):
 
1319
                 tags=None, diff=None, signature=None):
1295
1320
        self.rev = rev
1296
 
        self.revno = str(revno)
 
1321
        if revno is None:
 
1322
            self.revno = None
 
1323
        else:
 
1324
            self.revno = str(revno)
1297
1325
        self.merge_depth = merge_depth
1298
1326
        self.delta = delta
1299
1327
        self.tags = tags
1300
1328
        self.diff = diff
 
1329
        self.signature = signature
1301
1330
 
1302
1331
 
1303
1332
class LogFormatter(object):
1312
1341
    to indicate which LogRevision attributes it supports:
1313
1342
 
1314
1343
    - supports_delta must be True if this log formatter supports delta.
1315
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1316
 
        attribute describes whether the 'short_status' format (1) or the long
1317
 
        one (2) should be used.
 
1344
      Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1345
      attribute describes whether the 'short_status' format (1) or the long
 
1346
      one (2) should be used.
1318
1347
 
1319
1348
    - supports_merge_revisions must be True if this log formatter supports
1320
 
        merge revisions.  If not, then only mainline revisions will be passed
1321
 
        to the formatter.
 
1349
      merge revisions.  If not, then only mainline revisions will be passed
 
1350
      to the formatter.
1322
1351
 
1323
1352
    - preferred_levels is the number of levels this formatter defaults to.
1324
 
        The default value is zero meaning display all levels.
1325
 
        This value is only relevant if supports_merge_revisions is True.
 
1353
      The default value is zero meaning display all levels.
 
1354
      This value is only relevant if supports_merge_revisions is True.
1326
1355
 
1327
1356
    - supports_tags must be True if this log formatter supports tags.
1328
 
        Otherwise the tags attribute may not be populated.
 
1357
      Otherwise the tags attribute may not be populated.
1329
1358
 
1330
1359
    - supports_diff must be True if this log formatter supports diffs.
1331
 
        Otherwise the diff attribute may not be populated.
 
1360
      Otherwise the diff attribute may not be populated.
 
1361
 
 
1362
    - supports_signatures must be True if this log formatter supports GPG
 
1363
      signatures.
1332
1364
 
1333
1365
    Plugins can register functions to show custom revision properties using
1334
1366
    the properties_handler_registry. The registered function
1335
 
    must respect the following interface description:
 
1367
    must respect the following interface description::
 
1368
 
1336
1369
        def my_show_properties(properties_dict):
1337
1370
            # code that returns a dict {'name':'value'} of the properties
1338
1371
            # to be shown
1341
1374
 
1342
1375
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1343
1376
                 delta_format=None, levels=None, show_advice=False,
1344
 
                 to_exact_file=None):
 
1377
                 to_exact_file=None, author_list_handler=None):
1345
1378
        """Create a LogFormatter.
1346
1379
 
1347
1380
        :param to_file: the file to output to
1348
 
        :param to_exact_file: if set, gives an output stream to which 
 
1381
        :param to_exact_file: if set, gives an output stream to which
1349
1382
             non-Unicode diffs are written.
1350
1383
        :param show_ids: if True, revision-ids are to be displayed
1351
1384
        :param show_timezone: the timezone to use
1355
1388
          let the log formatter decide.
1356
1389
        :param show_advice: whether to show advice at the end of the
1357
1390
          log or not
 
1391
        :param author_list_handler: callable generating a list of
 
1392
          authors to display for a given revision
1358
1393
        """
1359
1394
        self.to_file = to_file
1360
1395
        # 'exact' stream used to show diff, it should print content 'as is'
1361
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1396
        # and should not try to decode/encode it to unicode to avoid bug
 
1397
        # #328007
1362
1398
        if to_exact_file is not None:
1363
1399
            self.to_exact_file = to_exact_file
1364
1400
        else:
1365
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1366
 
            # for code that expects to get diffs to pass in the exact file
1367
 
            # stream
 
1401
            # XXX: somewhat hacky; this assumes it's a codec writer; it's
 
1402
            # better for code that expects to get diffs to pass in the exact
 
1403
            # file stream
1368
1404
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1369
1405
        self.show_ids = show_ids
1370
1406
        self.show_timezone = show_timezone
1371
1407
        if delta_format is None:
1372
1408
            # Ensures backward compatibility
1373
 
            delta_format = 2 # long format
 
1409
            delta_format = 2  # long format
1374
1410
        self.delta_format = delta_format
1375
1411
        self.levels = levels
1376
1412
        self._show_advice = show_advice
1377
1413
        self._merge_count = 0
 
1414
        self._author_list_handler = author_list_handler
1378
1415
 
1379
1416
    def get_levels(self):
1380
1417
        """Get the number of levels to display or 0 for all."""
1399
1436
            if advice_sep:
1400
1437
                self.to_file.write(advice_sep)
1401
1438
            self.to_file.write(
1402
 
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1439
                "Use --include-merged or -n0 to see merged revisions.\n")
1403
1440
 
1404
1441
    def get_advice_separator(self):
1405
1442
        """Get the text separating the log from the closing advice."""
1412
1449
        return address
1413
1450
 
1414
1451
    def short_author(self, rev):
1415
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
1416
 
        if name:
1417
 
            return name
1418
 
        return address
 
1452
        return self.authors(rev, 'first', short=True, sep=', ')
 
1453
 
 
1454
    def authors(self, rev, who, short=False, sep=None):
 
1455
        """Generate list of authors, taking --authors option into account.
 
1456
 
 
1457
        The caller has to specify the name of a author list handler,
 
1458
        as provided by the author list registry, using the ``who``
 
1459
        argument.  That name only sets a default, though: when the
 
1460
        user selected a different author list generation using the
 
1461
        ``--authors`` command line switch, as represented by the
 
1462
        ``author_list_handler`` constructor argument, that value takes
 
1463
        precedence.
 
1464
 
 
1465
        :param rev: The revision for which to generate the list of authors.
 
1466
        :param who: Name of the default handler.
 
1467
        :param short: Whether to shorten names to either name or address.
 
1468
        :param sep: What separator to use for automatic concatenation.
 
1469
        """
 
1470
        if self._author_list_handler is not None:
 
1471
            # The user did specify --authors, which overrides the default
 
1472
            author_list_handler = self._author_list_handler
 
1473
        else:
 
1474
            # The user didn't specify --authors, so we use the caller's default
 
1475
            author_list_handler = author_list_registry.get(who)
 
1476
        names = author_list_handler(rev)
 
1477
        if short:
 
1478
            for i in range(len(names)):
 
1479
                name, address = config.parse_username(names[i])
 
1480
                if name:
 
1481
                    names[i] = name
 
1482
                else:
 
1483
                    names[i] = address
 
1484
        if sep is not None:
 
1485
            names = sep.join(names)
 
1486
        return names
1419
1487
 
1420
1488
    def merge_marker(self, revision):
1421
1489
        """Get the merge marker to include in the output or '' if none."""
1442
1510
        """
1443
1511
        lines = self._foreign_info_properties(revision)
1444
1512
        for key, handler in properties_handler_registry.iteritems():
1445
 
            lines.extend(self._format_properties(handler(revision)))
 
1513
            try:
 
1514
                lines.extend(self._format_properties(handler(revision)))
 
1515
            except Exception:
 
1516
                trace.log_exception_quietly()
 
1517
                trace.print_exception(sys.exc_info(), self.to_file)
1446
1518
        return lines
1447
1519
 
1448
1520
    def _foreign_info_properties(self, rev):
1456
1528
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
1457
1529
 
1458
1530
        # Imported foreign revision revision ids always contain :
1459
 
        if not ":" in rev.revision_id:
 
1531
        if b":" not in rev.revision_id:
1460
1532
            return []
1461
1533
 
1462
1534
        # Revision was once imported from a foreign repository
1476
1548
        return lines
1477
1549
 
1478
1550
    def show_diff(self, to_file, diff, indent):
1479
 
        for l in diff.rstrip().split('\n'):
1480
 
            to_file.write(indent + '%s\n' % (l,))
 
1551
        encoding = get_terminal_encoding()
 
1552
        for l in diff.rstrip().split(b'\n'):
 
1553
            to_file.write(indent + l.decode(encoding, 'ignore') + '\n')
1481
1554
 
1482
1555
 
1483
1556
# Separator between revisions in long format
1491
1564
    supports_delta = True
1492
1565
    supports_tags = True
1493
1566
    supports_diff = True
 
1567
    supports_signatures = True
1494
1568
 
1495
1569
    def __init__(self, *args, **kwargs):
1496
1570
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1505
1579
 
1506
1580
    def _date_string_original_timezone(self, rev):
1507
1581
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1508
 
            rev.timezone or 0)
 
1582
                                                            rev.timezone or 0)
1509
1583
 
1510
1584
    def log_revision(self, revision):
1511
1585
        """Log a revision, either merged or not."""
1513
1587
        lines = [_LONG_SEP]
1514
1588
        if revision.revno is not None:
1515
1589
            lines.append('revno: %s%s' % (revision.revno,
1516
 
                self.merge_marker(revision)))
 
1590
                                          self.merge_marker(revision)))
1517
1591
        if revision.tags:
1518
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
1592
            lines.append('tags: %s' % (', '.join(sorted(revision.tags))))
 
1593
        if self.show_ids or revision.revno is None:
 
1594
            lines.append('revision-id: %s' %
 
1595
                         (revision.rev.revision_id.decode('utf-8'),))
1519
1596
        if self.show_ids:
1520
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
1521
1597
            for parent_id in revision.rev.parent_ids:
1522
 
                lines.append('parent: %s' % (parent_id,))
 
1598
                lines.append('parent: %s' % (parent_id.decode('utf-8'),))
1523
1599
        lines.extend(self.custom_properties(revision.rev))
1524
1600
 
1525
1601
        committer = revision.rev.committer
1526
 
        authors = revision.rev.get_apparent_authors()
 
1602
        authors = self.authors(revision.rev, 'all')
1527
1603
        if authors != [committer]:
1528
1604
            lines.append('author: %s' % (", ".join(authors),))
1529
1605
        lines.append('committer: %s' % (committer,))
1534
1610
 
1535
1611
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1536
1612
 
 
1613
        if revision.signature is not None:
 
1614
            lines.append('signature: ' + revision.signature)
 
1615
 
1537
1616
        lines.append('message:')
1538
1617
        if not revision.rev.message:
1539
1618
            lines.append('  (no message)')
1547
1626
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
1548
1627
        if revision.delta is not None:
1549
1628
            # Use the standard status output to display changes
1550
 
            from bzrlib.delta import report_delta
1551
 
            report_delta(to_file, revision.delta, short_status=False, 
 
1629
            from breezy.delta import report_delta
 
1630
            report_delta(to_file, revision.delta, short_status=False,
1552
1631
                         show_ids=self.show_ids, indent=indent)
1553
1632
        if revision.diff is not None:
1554
1633
            to_file.write(indent + 'diff:\n')
1586
1665
        indent = '    ' * depth
1587
1666
        revno_width = self.revno_width_by_depth.get(depth)
1588
1667
        if revno_width is None:
1589
 
            if revision.revno.find('.') == -1:
 
1668
            if revision.revno is None or revision.revno.find('.') == -1:
1590
1669
                # mainline revno, e.g. 12345
1591
1670
                revno_width = 5
1592
1671
            else:
1598
1677
        to_file = self.to_file
1599
1678
        tags = ''
1600
1679
        if revision.tags:
1601
 
            tags = ' {%s}' % (', '.join(revision.tags))
 
1680
            tags = ' {%s}' % (', '.join(sorted(revision.tags)))
1602
1681
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1603
 
                revision.revno, self.short_author(revision.rev),
1604
 
                format_date(revision.rev.timestamp,
1605
 
                            revision.rev.timezone or 0,
1606
 
                            self.show_timezone, date_fmt="%Y-%m-%d",
1607
 
                            show_offset=False),
1608
 
                tags, self.merge_marker(revision)))
1609
 
        self.show_properties(revision.rev, indent+offset)
1610
 
        if self.show_ids:
 
1682
                                                     revision.revno or "", self.short_author(
 
1683
                                                         revision.rev),
 
1684
                                                     format_date(revision.rev.timestamp,
 
1685
                                                                 revision.rev.timezone or 0,
 
1686
                                                                 self.show_timezone, date_fmt="%Y-%m-%d",
 
1687
                                                                 show_offset=False),
 
1688
                                                     tags, self.merge_marker(revision)))
 
1689
        self.show_properties(revision.rev, indent + offset)
 
1690
        if self.show_ids or revision.revno is None:
1611
1691
            to_file.write(indent + offset + 'revision-id:%s\n'
1612
 
                          % (revision.rev.revision_id,))
 
1692
                          % (revision.rev.revision_id.decode('utf-8'),))
1613
1693
        if not revision.rev.message:
1614
1694
            to_file.write(indent + offset + '(no message)\n')
1615
1695
        else:
1619
1699
 
1620
1700
        if revision.delta is not None:
1621
1701
            # Use the standard status output to display changes
1622
 
            from bzrlib.delta import report_delta
1623
 
            report_delta(to_file, revision.delta, 
1624
 
                         short_status=self.delta_format==1, 
 
1702
            from breezy.delta import report_delta
 
1703
            report_delta(to_file, revision.delta,
 
1704
                         short_status=self.delta_format == 1,
1625
1705
                         show_ids=self.show_ids, indent=indent + offset)
1626
1706
        if revision.diff is not None:
1627
1707
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1645
1725
    def truncate(self, str, max_len):
1646
1726
        if max_len is None or len(str) <= max_len:
1647
1727
            return str
1648
 
        return str[:max_len-3] + '...'
 
1728
        return str[:max_len - 3] + '...'
1649
1729
 
1650
1730
    def date_string(self, rev):
1651
1731
        return format_date(rev.timestamp, rev.timezone or 0,
1661
1741
    def log_revision(self, revision):
1662
1742
        indent = '  ' * revision.merge_depth
1663
1743
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1664
 
            self._max_chars, revision.tags, indent))
 
1744
                                           self._max_chars, revision.tags, indent))
1665
1745
        self.to_file.write('\n')
1666
1746
 
1667
1747
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
1668
1748
        """Format log info into one string. Truncate tail of string
1669
 
        :param  revno:      revision number or None.
1670
 
                            Revision numbers counts from 1.
1671
 
        :param  rev:        revision object
1672
 
        :param  max_chars:  maximum length of resulting string
1673
 
        :param  tags:       list of tags or None
1674
 
        :param  prefix:     string to prefix each line
1675
 
        :return:            formatted truncated string
 
1749
 
 
1750
        :param revno:      revision number or None.
 
1751
                           Revision numbers counts from 1.
 
1752
        :param rev:        revision object
 
1753
        :param max_chars:  maximum length of resulting string
 
1754
        :param tags:       list of tags or None
 
1755
        :param prefix:     string to prefix each line
 
1756
        :return:           formatted truncated string
1676
1757
        """
1677
1758
        out = []
1678
1759
        if revno:
1679
1760
            # show revno only when is not None
1680
1761
            out.append("%s:" % revno)
1681
 
        out.append(self.truncate(self.short_author(rev), 20))
 
1762
        if max_chars is not None:
 
1763
            out.append(self.truncate(
 
1764
                self.short_author(rev), (max_chars + 3) // 4))
 
1765
        else:
 
1766
            out.append(self.short_author(rev))
1682
1767
        out.append(self.date_string(rev))
1683
1768
        if len(rev.parent_ids) > 1:
1684
1769
            out.append('[merge]')
1685
1770
        if tags:
1686
 
            tag_str = '{%s}' % (', '.join(tags))
 
1771
            tag_str = '{%s}' % (', '.join(sorted(tags)))
1687
1772
            out.append(tag_str)
1688
1773
        out.append(rev.get_summary())
1689
1774
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1703
1788
                               self.show_timezone,
1704
1789
                               date_fmt='%Y-%m-%d',
1705
1790
                               show_offset=False)
1706
 
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
1707
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1791
        committer_str = self.authors(revision.rev, 'first', sep=', ')
 
1792
        committer_str = committer_str.replace(' <', '  <')
 
1793
        to_file.write('%s  %s\n\n' % (date_str, committer_str))
1708
1794
 
1709
1795
        if revision.delta is not None and revision.delta.has_changed():
1710
1796
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1711
 
                path, = c[:1]
 
1797
                if c.path[0] is None:
 
1798
                    path = c.path[1]
 
1799
                else:
 
1800
                    path = c.path[0]
1712
1801
                to_file.write('\t* %s:\n' % (path,))
1713
 
            for c in revision.delta.renamed:
1714
 
                oldpath,newpath = c[:2]
 
1802
            for c in revision.delta.renamed + revision.delta.copied:
1715
1803
                # For renamed files, show both the old and the new path
1716
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1804
                to_file.write('\t* %s:\n\t* %s:\n' % (c.path[0], c.path[1]))
1717
1805
            to_file.write('\n')
1718
1806
 
1719
1807
        if not revision.rev.message:
1742
1830
        return self.get(name)(*args, **kwargs)
1743
1831
 
1744
1832
    def get_default(self, branch):
1745
 
        return self.get(branch.get_config().log_format())
 
1833
        c = branch.get_config_stack()
 
1834
        return self.get(c.get('log_format'))
1746
1835
 
1747
1836
 
1748
1837
log_formatter_registry = LogFormatterRegistry()
1749
1838
 
1750
1839
 
1751
1840
log_formatter_registry.register('short', ShortLogFormatter,
1752
 
                                'Moderately short log format')
 
1841
                                'Moderately short log format.')
1753
1842
log_formatter_registry.register('long', LongLogFormatter,
1754
 
                                'Detailed log format')
 
1843
                                'Detailed log format.')
1755
1844
log_formatter_registry.register('line', LineLogFormatter,
1756
 
                                'Log format with one line per revision')
 
1845
                                'Log format with one line per revision.')
1757
1846
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1758
 
                                'Format used by GNU ChangeLog files')
 
1847
                                'Format used by GNU ChangeLog files.')
1759
1848
 
1760
1849
 
1761
1850
def register_formatter(name, formatter):
1771
1860
    try:
1772
1861
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
1773
1862
    except KeyError:
1774
 
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1775
 
 
1776
 
 
1777
 
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1778
 
    # deprecated; for compatibility
1779
 
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
1780
 
    lf.show(revno, rev, delta)
 
1863
        raise errors.BzrCommandError(
 
1864
            gettext("unknown log formatter: %r") % name)
 
1865
 
 
1866
 
 
1867
def author_list_all(rev):
 
1868
    return rev.get_apparent_authors()[:]
 
1869
 
 
1870
 
 
1871
def author_list_first(rev):
 
1872
    lst = rev.get_apparent_authors()
 
1873
    try:
 
1874
        return [lst[0]]
 
1875
    except IndexError:
 
1876
        return []
 
1877
 
 
1878
 
 
1879
def author_list_committer(rev):
 
1880
    return [rev.committer]
 
1881
 
 
1882
 
 
1883
author_list_registry = registry.Registry()
 
1884
 
 
1885
author_list_registry.register('all', author_list_all,
 
1886
                              'All authors')
 
1887
 
 
1888
author_list_registry.register('first', author_list_first,
 
1889
                              'The first author')
 
1890
 
 
1891
author_list_registry.register('committer', author_list_committer,
 
1892
                              'The committer')
1781
1893
 
1782
1894
 
1783
1895
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1791
1903
    """
1792
1904
    if to_file is None:
1793
1905
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1794
 
            errors='replace')
 
1906
                                                            errors='replace')
1795
1907
    lf = log_formatter(log_format,
1796
1908
                       show_ids=False,
1797
1909
                       to_file=to_file,
1800
1912
    # This is the first index which is different between
1801
1913
    # old and new
1802
1914
    base_idx = None
1803
 
    for i in xrange(max(len(new_rh),
1804
 
                        len(old_rh))):
 
1915
    for i in range(max(len(new_rh), len(old_rh))):
1805
1916
        if (len(new_rh) <= i
1806
1917
            or len(old_rh) <= i
1807
 
            or new_rh[i] != old_rh[i]):
 
1918
                or new_rh[i] != old_rh[i]):
1808
1919
            base_idx = i
1809
1920
            break
1810
1921
 
1811
1922
    if base_idx is None:
1812
1923
        to_file.write('Nothing seems to have changed\n')
1813
1924
        return
1814
 
    ## TODO: It might be nice to do something like show_log
1815
 
    ##       and show the merged entries. But since this is the
1816
 
    ##       removed revisions, it shouldn't be as important
 
1925
    # TODO: It might be nice to do something like show_log
 
1926
    # and show the merged entries. But since this is the
 
1927
    # removed revisions, it shouldn't be as important
1817
1928
    if base_idx < len(old_rh):
1818
 
        to_file.write('*'*60)
 
1929
        to_file.write('*' * 60)
1819
1930
        to_file.write('\nRemoved Revisions:\n')
1820
1931
        for i in range(base_idx, len(old_rh)):
1821
1932
            rev = branch.repository.get_revision(old_rh[i])
1822
 
            lr = LogRevision(rev, i+1, 0, None)
 
1933
            lr = LogRevision(rev, i + 1, 0, None)
1823
1934
            lf.log_revision(lr)
1824
 
        to_file.write('*'*60)
 
1935
        to_file.write('*' * 60)
1825
1936
        to_file.write('\n\n')
1826
1937
    if base_idx < len(new_rh):
1827
1938
        to_file.write('Added Revisions:\n')
1828
1939
        show_log(branch,
1829
1940
                 lf,
1830
 
                 None,
1831
1941
                 verbose=False,
1832
1942
                 direction='forward',
1833
 
                 start_revision=base_idx+1,
 
1943
                 start_revision=base_idx + 1,
1834
1944
                 end_revision=len(new_rh),
1835
1945
                 search=None)
1836
1946
 
1848
1958
    old_revisions = set()
1849
1959
    new_history = []
1850
1960
    new_revisions = set()
1851
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
1852
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
 
1961
    graph = repository.get_graph()
 
1962
    new_iter = graph.iter_lefthand_ancestry(new_revision_id)
 
1963
    old_iter = graph.iter_lefthand_ancestry(old_revision_id)
1853
1964
    stop_revision = None
1854
1965
    do_old = True
1855
1966
    do_new = True
1856
1967
    while do_new or do_old:
1857
1968
        if do_new:
1858
1969
            try:
1859
 
                new_revision = new_iter.next()
 
1970
                new_revision = next(new_iter)
1860
1971
            except StopIteration:
1861
1972
                do_new = False
1862
1973
            else:
1867
1978
                    break
1868
1979
        if do_old:
1869
1980
            try:
1870
 
                old_revision = old_iter.next()
 
1981
                old_revision = next(old_iter)
1871
1982
            except StopIteration:
1872
1983
                do_old = False
1873
1984
            else:
1903
2014
    log_format = log_formatter_registry.get_default(branch)
1904
2015
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
1905
2016
    if old_history != []:
1906
 
        output.write('*'*60)
 
2017
        output.write('*' * 60)
1907
2018
        output.write('\nRemoved Revisions:\n')
1908
2019
        show_flat_log(branch.repository, old_history, old_revno, lf)
1909
 
        output.write('*'*60)
 
2020
        output.write('*' * 60)
1910
2021
        output.write('\n\n')
1911
2022
    if new_history != []:
1912
2023
        output.write('Added Revisions:\n')
1913
2024
        start_revno = new_revno - len(new_history) + 1
1914
 
        show_log(branch, lf, None, verbose=False, direction='forward',
1915
 
                 start_revision=start_revno,)
 
2025
        show_log(branch, lf, verbose=False, direction='forward',
 
2026
                 start_revision=start_revno)
1916
2027
 
1917
2028
 
1918
2029
def show_flat_log(repository, history, last_revno, lf):
1923
2034
    :param last_revno: The revno of the last revision_id in the history.
1924
2035
    :param lf: The log formatter to use.
1925
2036
    """
1926
 
    start_revno = last_revno - len(history) + 1
1927
2037
    revisions = repository.get_revisions(history)
1928
2038
    for i, rev in enumerate(revisions):
1929
2039
        lr = LogRevision(rev, i + last_revno, 0, None)
1930
2040
        lf.log_revision(lr)
1931
2041
 
1932
2042
 
1933
 
def _get_info_for_log_files(revisionspec_list, file_list):
 
2043
def _get_info_for_log_files(revisionspec_list, file_list, exit_stack):
1934
2044
    """Find file-ids and kinds given a list of files and a revision range.
1935
2045
 
1936
2046
    We search for files at the end of the range. If not found there,
1940
2050
    :param file_list: the list of paths given on the command line;
1941
2051
      the first of these can be a branch location or a file path,
1942
2052
      the remainder must be file paths
 
2053
    :param exit_stack: When the branch returned is read locked,
 
2054
      an unlock call will be queued to the exit stack.
1943
2055
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1944
2056
      info_list is a list of (relative_path, file_id, kind) tuples where
1945
2057
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1946
2058
      branch will be read-locked.
1947
2059
    """
1948
 
    from builtins import _get_revision_range, safe_relpath_files
1949
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1950
 
    b.lock_read()
 
2060
    from breezy.builtins import _get_revision_range
 
2061
    tree, b, path = controldir.ControlDir.open_containing_tree_or_branch(
 
2062
        file_list[0])
 
2063
    exit_stack.enter_context(b.lock_read())
1951
2064
    # XXX: It's damn messy converting a list of paths to relative paths when
1952
2065
    # those paths might be deleted ones, they might be on a case-insensitive
1953
2066
    # filesystem and/or they might be in silly locations (like another branch).
1957
2070
    # case of running log in a nested directory, assuming paths beyond the
1958
2071
    # first one haven't been deleted ...
1959
2072
    if tree:
1960
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
 
2073
        relpaths = [path] + tree.safe_relpath_files(file_list[1:])
1961
2074
    else:
1962
2075
        relpaths = [path] + file_list[1:]
1963
2076
    info_list = []
1964
2077
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1965
 
        "log")
 
2078
                                                       "log")
1966
2079
    if relpaths in ([], [u'']):
1967
2080
        return b, [], start_rev_info, end_rev_info
1968
2081
    if start_rev_info is None and end_rev_info is None:
1971
2084
        tree1 = None
1972
2085
        for fp in relpaths:
1973
2086
            file_id = tree.path2id(fp)
1974
 
            kind = _get_kind_for_file_id(tree, file_id)
 
2087
            kind = _get_kind_for_file_id(tree, fp, file_id)
1975
2088
            if file_id is None:
1976
2089
                # go back to when time began
1977
2090
                if tree1 is None:
1985
2098
                        tree1 = b.repository.revision_tree(rev1)
1986
2099
                if tree1:
1987
2100
                    file_id = tree1.path2id(fp)
1988
 
                    kind = _get_kind_for_file_id(tree1, file_id)
 
2101
                    kind = _get_kind_for_file_id(tree1, fp, file_id)
1989
2102
            info_list.append((fp, file_id, kind))
1990
2103
 
1991
2104
    elif start_rev_info == end_rev_info:
1993
2106
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1994
2107
        for fp in relpaths:
1995
2108
            file_id = tree.path2id(fp)
1996
 
            kind = _get_kind_for_file_id(tree, file_id)
 
2109
            kind = _get_kind_for_file_id(tree, fp, file_id)
1997
2110
            info_list.append((fp, file_id, kind))
1998
2111
 
1999
2112
    else:
2007
2120
        tree1 = None
2008
2121
        for fp in relpaths:
2009
2122
            file_id = tree.path2id(fp)
2010
 
            kind = _get_kind_for_file_id(tree, file_id)
 
2123
            kind = _get_kind_for_file_id(tree, fp, file_id)
2011
2124
            if file_id is None:
2012
2125
                if tree1 is None:
2013
2126
                    rev_id = start_rev_info.rev_id
2017
2130
                    else:
2018
2131
                        tree1 = b.repository.revision_tree(rev_id)
2019
2132
                file_id = tree1.path2id(fp)
2020
 
                kind = _get_kind_for_file_id(tree1, file_id)
 
2133
                kind = _get_kind_for_file_id(tree1, fp, file_id)
2021
2134
            info_list.append((fp, file_id, kind))
2022
2135
    return b, info_list, start_rev_info, end_rev_info
2023
2136
 
2024
2137
 
2025
 
def _get_kind_for_file_id(tree, file_id):
 
2138
def _get_kind_for_file_id(tree, path, file_id):
2026
2139
    """Return the kind of a file-id or None if it doesn't exist."""
2027
2140
    if file_id is not None:
2028
 
        return tree.kind(file_id)
 
2141
        return tree.kind(path)
2029
2142
    else:
2030
2143
        return None
2031
2144
 
2033
2146
properties_handler_registry = registry.Registry()
2034
2147
 
2035
2148
# Use the properties handlers to print out bug information if available
 
2149
 
 
2150
 
2036
2151
def _bugs_properties_handler(revision):
2037
 
    if revision.properties.has_key('bugs'):
2038
 
        bug_lines = revision.properties['bugs'].split('\n')
2039
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
2040
 
        fixed_bug_urls = [row[0] for row in bug_rows if
2041
 
                          len(row) > 1 and row[1] == 'fixed']
 
2152
    fixed_bug_urls = []
 
2153
    related_bug_urls = []
 
2154
    for bug_url, status in revision.iter_bugs():
 
2155
        if status == 'fixed':
 
2156
            fixed_bug_urls.append(bug_url)
 
2157
        elif status == 'related':
 
2158
            related_bug_urls.append(bug_url)
 
2159
    ret = {}
 
2160
    if fixed_bug_urls:
 
2161
        text = ngettext('fixes bug', 'fixes bugs', len(fixed_bug_urls))
 
2162
        ret[text] = ' '.join(fixed_bug_urls)
 
2163
    if related_bug_urls:
 
2164
        text = ngettext('related bug', 'related bugs',
 
2165
                        len(related_bug_urls))
 
2166
        ret[text] = ' '.join(related_bug_urls)
 
2167
    return ret
2042
2168
 
2043
 
        if fixed_bug_urls:
2044
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
2045
 
    return {}
2046
2169
 
2047
2170
properties_handler_registry.register('bugs_properties_handler',
2048
2171
                                     _bugs_properties_handler)