/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Robert Collins
  • Date: 2010-05-06 11:08:10 UTC
  • mto: This revision was merged to the branch mainline in revision 5223.
  • Revision ID: robertc@robertcollins.net-20100506110810-h3j07fh5gmw54s25
Cleaner matcher matching revised unlocking protocol.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
 
17
 
 
18
 
17
19
"""Code to show logs of changes.
18
20
 
19
21
Various flavors of log can be produced:
47
49
all the changes since the previous revision that touched hello.c.
48
50
"""
49
51
 
50
 
from __future__ import absolute_import
51
 
 
52
52
import codecs
53
 
import itertools
 
53
from cStringIO import StringIO
 
54
from itertools import (
 
55
    chain,
 
56
    izip,
 
57
    )
54
58
import re
55
59
import sys
56
60
from warnings import (
57
61
    warn,
58
62
    )
59
63
 
60
 
from .lazy_import import lazy_import
 
64
from bzrlib.lazy_import import lazy_import
61
65
lazy_import(globals(), """
62
66
 
63
 
from breezy import (
 
67
from bzrlib import (
 
68
    bzrdir,
64
69
    config,
65
 
    controldir,
66
70
    diff,
 
71
    errors,
67
72
    foreign,
68
 
    lazy_regex,
 
73
    repository as _mod_repository,
69
74
    revision as _mod_revision,
 
75
    revisionspec,
 
76
    trace,
 
77
    tsort,
70
78
    )
71
 
from breezy.i18n import gettext, ngettext
72
79
""")
73
80
 
74
 
from . import (
75
 
    errors,
 
81
from bzrlib import (
76
82
    registry,
77
 
    revisionspec,
78
 
    trace,
79
83
    )
80
 
from .osutils import (
 
84
from bzrlib.osutils import (
81
85
    format_date,
82
86
    format_date_with_offset_in_original_timezone,
83
 
    get_diff_header_encoding,
84
87
    get_terminal_encoding,
 
88
    re_compile_checked,
85
89
    terminal_width,
86
90
    )
87
 
from .sixish import (
88
 
    BytesIO,
89
 
    range,
90
 
    zip,
 
91
from bzrlib.symbol_versioning import (
 
92
    deprecated_function,
 
93
    deprecated_in,
91
94
    )
92
 
from .tree import find_previous_path
93
 
 
94
 
 
95
 
def find_touching_revisions(repository, last_revision, last_tree, last_path):
 
95
 
 
96
 
 
97
def find_touching_revisions(branch, file_id):
96
98
    """Yield a description of revisions which affect the file_id.
97
99
 
98
100
    Each returned element is (revno, revision_id, description)
103
105
    TODO: Perhaps some way to limit this to only particular revisions,
104
106
    or to traverse a non-mainline set of revisions?
105
107
    """
106
 
    last_verifier = last_tree.get_file_verifier(last_path)
107
 
    graph = repository.get_graph()
108
 
    history = list(graph.iter_lefthand_ancestry(last_revision, []))
109
 
    revno = len(history)
110
 
    for revision_id in history:
111
 
        this_tree = repository.revision_tree(revision_id)
112
 
        this_path = find_previous_path(last_tree, this_tree, last_path)
 
108
    last_ie = None
 
109
    last_path = None
 
110
    revno = 1
 
111
    for revision_id in branch.revision_history():
 
112
        this_inv = branch.repository.get_inventory(revision_id)
 
113
        if file_id in this_inv:
 
114
            this_ie = this_inv[file_id]
 
115
            this_path = this_inv.id2path(file_id)
 
116
        else:
 
117
            this_ie = this_path = None
113
118
 
114
119
        # now we know how it was last time, and how it is in this revision.
115
120
        # are those two states effectively the same or not?
116
 
        if this_path is not None and last_path is None:
117
 
            yield revno, revision_id, "deleted " + this_path
118
 
            this_verifier = this_tree.get_file_verifier(this_path)
119
 
        elif this_path is None and last_path is not None:
120
 
            yield revno, revision_id, "added " + last_path
 
121
 
 
122
        if not this_ie and not last_ie:
 
123
            # not present in either
 
124
            pass
 
125
        elif this_ie and not last_ie:
 
126
            yield revno, revision_id, "added " + this_path
 
127
        elif not this_ie and last_ie:
 
128
            # deleted here
 
129
            yield revno, revision_id, "deleted " + last_path
121
130
        elif this_path != last_path:
122
 
            yield revno, revision_id, ("renamed %s => %s" % (this_path, last_path))
123
 
            this_verifier = this_tree.get_file_verifier(this_path)
124
 
        else:
125
 
            this_verifier = this_tree.get_file_verifier(this_path)
126
 
            if (this_verifier != last_verifier):
127
 
                yield revno, revision_id, "modified " + this_path
 
131
            yield revno, revision_id, ("renamed %s => %s" % (last_path, this_path))
 
132
        elif (this_ie.text_size != last_ie.text_size
 
133
              or this_ie.text_sha1 != last_ie.text_sha1):
 
134
            yield revno, revision_id, "modified " + this_path
128
135
 
129
 
        last_verifier = this_verifier
 
136
        last_ie = this_ie
130
137
        last_path = this_path
131
 
        last_tree = this_tree
132
 
        if last_path is None:
133
 
            return
134
 
        revno -= 1
 
138
        revno += 1
 
139
 
 
140
 
 
141
def _enumerate_history(branch):
 
142
    rh = []
 
143
    revno = 1
 
144
    for rev_id in branch.revision_history():
 
145
        rh.append((revno, rev_id))
 
146
        revno += 1
 
147
    return rh
135
148
 
136
149
 
137
150
def show_log(branch,
138
151
             lf,
 
152
             specific_fileid=None,
139
153
             verbose=False,
140
154
             direction='reverse',
141
155
             start_revision=None,
142
156
             end_revision=None,
143
157
             search=None,
144
158
             limit=None,
145
 
             show_diff=False,
146
 
             match=None):
 
159
             show_diff=False):
147
160
    """Write out human-readable log of commits to this branch.
148
161
 
149
162
    This function is being retained for backwards compatibility but
153
166
 
154
167
    :param lf: The LogFormatter object showing the output.
155
168
 
 
169
    :param specific_fileid: If not None, list only the commits affecting the
 
170
        specified file, rather than all commits.
 
171
 
156
172
    :param verbose: If True show added/changed/deleted/renamed files.
157
173
 
158
174
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
169
185
        if None or 0.
170
186
 
171
187
    :param show_diff: If True, output a diff after each revision.
172
 
 
173
 
    :param match: Dictionary of search lists to use when matching revision
174
 
      properties.
175
188
    """
 
189
    # Convert old-style parameters to new-style parameters
 
190
    if specific_fileid is not None:
 
191
        file_ids = [specific_fileid]
 
192
    else:
 
193
        file_ids = None
176
194
    if verbose:
177
 
        delta_type = 'full'
 
195
        if file_ids:
 
196
            delta_type = 'partial'
 
197
        else:
 
198
            delta_type = 'full'
178
199
    else:
179
200
        delta_type = None
180
201
    if show_diff:
181
 
        diff_type = 'full'
 
202
        if file_ids:
 
203
            diff_type = 'partial'
 
204
        else:
 
205
            diff_type = 'full'
182
206
    else:
183
207
        diff_type = None
184
208
 
185
 
    if isinstance(start_revision, int):
186
 
        try:
187
 
            start_revision = revisionspec.RevisionInfo(branch, start_revision)
188
 
        except (errors.NoSuchRevision, errors.RevnoOutOfBounds):
189
 
            raise errors.InvalidRevisionNumber(start_revision)
190
 
 
191
 
    if isinstance(end_revision, int):
192
 
        try:
193
 
            end_revision = revisionspec.RevisionInfo(branch, end_revision)
194
 
        except (errors.NoSuchRevision, errors.RevnoOutOfBounds):
195
 
            raise errors.InvalidRevisionNumber(end_revision)
196
 
 
197
 
    if end_revision is not None and end_revision.revno == 0:
198
 
        raise errors.InvalidRevisionNumber(end_revision.revno)
199
 
 
200
209
    # Build the request and execute it
201
 
    rqst = make_log_request_dict(
202
 
        direction=direction,
 
210
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
203
211
        start_revision=start_revision, end_revision=end_revision,
204
212
        limit=limit, message_search=search,
205
213
        delta_type=delta_type, diff_type=diff_type)
206
214
    Logger(branch, rqst).show(lf)
207
215
 
208
216
 
209
 
# Note: This needs to be kept in sync with the defaults in
 
217
# Note: This needs to be kept this in sync with the defaults in
210
218
# make_log_request_dict() below
211
219
_DEFAULT_REQUEST_PARAMS = {
212
220
    'direction': 'reverse',
213
 
    'levels': None,
 
221
    'levels': 1,
214
222
    'generate_tags': True,
215
223
    'exclude_common_ancestry': False,
216
224
    '_match_using_deltas': True,
219
227
 
220
228
def make_log_request_dict(direction='reverse', specific_fileids=None,
221
229
                          start_revision=None, end_revision=None, limit=None,
222
 
                          message_search=None, levels=None, generate_tags=True,
 
230
                          message_search=None, levels=1, generate_tags=True,
223
231
                          delta_type=None,
224
232
                          diff_type=None, _match_using_deltas=True,
225
 
                          exclude_common_ancestry=False, match=None,
226
 
                          signature=False, omit_merges=False,
 
233
                          exclude_common_ancestry=False,
227
234
                          ):
228
235
    """Convenience function for making a logging request dictionary.
229
236
 
250
257
      matching commit messages
251
258
 
252
259
    :param levels: the number of levels of revisions to
253
 
      generate; 1 for just the mainline; 0 for all levels, or None for
254
 
      a sensible default.
 
260
      generate; 1 for just the mainline; 0 for all levels.
255
261
 
256
262
    :param generate_tags: If True, include tags for matched revisions.
257
 
`
 
263
 
258
264
    :param delta_type: Either 'full', 'partial' or None.
259
265
      'full' means generate the complete delta - adds/deletes/modifies/etc;
260
266
      'partial' means filter the delta using specific_fileids;
267
273
 
268
274
    :param _match_using_deltas: a private parameter controlling the
269
275
      algorithm used for matching specific_fileids. This parameter
270
 
      may be removed in the future so breezy client code should NOT
 
276
      may be removed in the future so bzrlib client code should NOT
271
277
      use it.
272
278
 
273
279
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
274
280
      range operator or as a graph difference.
275
 
 
276
 
    :param signature: show digital signature information
277
 
 
278
 
    :param match: Dictionary of list of search strings to use when filtering
279
 
      revisions. Keys can be 'message', 'author', 'committer', 'bugs' or
280
 
      the empty string to match any of the preceding properties.
281
 
 
282
 
    :param omit_merges: If True, commits with more than one parent are
283
 
      omitted.
284
 
 
285
281
    """
286
 
    # Take care of old style message_search parameter
287
 
    if message_search:
288
 
        if match:
289
 
            if 'message' in match:
290
 
                match['message'].append(message_search)
291
 
            else:
292
 
                match['message'] = [message_search]
293
 
        else:
294
 
            match = {'message': [message_search]}
295
282
    return {
296
283
        'direction': direction,
297
284
        'specific_fileids': specific_fileids,
298
285
        'start_revision': start_revision,
299
286
        'end_revision': end_revision,
300
287
        'limit': limit,
 
288
        'message_search': message_search,
301
289
        'levels': levels,
302
290
        'generate_tags': generate_tags,
303
291
        'delta_type': delta_type,
304
292
        'diff_type': diff_type,
305
293
        'exclude_common_ancestry': exclude_common_ancestry,
306
 
        'signature': signature,
307
 
        'match': match,
308
 
        'omit_merges': omit_merges,
309
294
        # Add 'private' attributes for features that may be deprecated
310
295
        '_match_using_deltas': _match_using_deltas,
311
296
    }
313
298
 
314
299
def _apply_log_request_defaults(rqst):
315
300
    """Apply default values to a request dictionary."""
316
 
    result = _DEFAULT_REQUEST_PARAMS.copy()
 
301
    result = _DEFAULT_REQUEST_PARAMS
317
302
    if rqst:
318
303
        result.update(rqst)
319
304
    return result
320
305
 
321
306
 
322
 
def format_signature_validity(rev_id, branch):
323
 
    """get the signature validity
324
 
 
325
 
    :param rev_id: revision id to validate
326
 
    :param branch: branch of revision
327
 
    :return: human readable string to print to log
328
 
    """
329
 
    from breezy import gpg
330
 
 
331
 
    gpg_strategy = gpg.GPGStrategy(branch.get_config_stack())
332
 
    result = branch.repository.verify_revision_signature(rev_id, gpg_strategy)
333
 
    if result[0] == gpg.SIGNATURE_VALID:
334
 
        return u"valid signature from {0}".format(result[1])
335
 
    if result[0] == gpg.SIGNATURE_KEY_MISSING:
336
 
        return "unknown key {0}".format(result[1])
337
 
    if result[0] == gpg.SIGNATURE_NOT_VALID:
338
 
        return "invalid signature!"
339
 
    if result[0] == gpg.SIGNATURE_NOT_SIGNED:
340
 
        return "no signature"
341
 
 
342
 
 
343
307
class LogGenerator(object):
344
308
    """A generator of log revisions."""
345
309
 
372
336
        if not isinstance(lf, LogFormatter):
373
337
            warn("not a LogFormatter instance: %r" % lf)
374
338
 
375
 
        with self.branch.lock_read():
 
339
        self.branch.lock_read()
 
340
        try:
376
341
            if getattr(lf, 'begin_log', None):
377
342
                lf.begin_log()
378
343
            self._show_body(lf)
379
344
            if getattr(lf, 'end_log', None):
380
345
                lf.end_log()
 
346
        finally:
 
347
            self.branch.unlock()
381
348
 
382
349
    def _show_body(self, lf):
383
350
        """Show the main log output.
387
354
        # Tweak the LogRequest based on what the LogFormatter can handle.
388
355
        # (There's no point generating stuff if the formatter can't display it.)
389
356
        rqst = self.rqst
390
 
        if rqst['levels'] is None or lf.get_levels() > rqst['levels']:
391
 
            # user didn't specify levels, use whatever the LF can handle:
392
 
            rqst['levels'] = lf.get_levels()
393
 
 
 
357
        rqst['levels'] = lf.get_levels()
394
358
        if not getattr(lf, 'supports_tags', False):
395
359
            rqst['generate_tags'] = False
396
360
        if not getattr(lf, 'supports_delta', False):
397
361
            rqst['delta_type'] = None
398
362
        if not getattr(lf, 'supports_diff', False):
399
363
            rqst['diff_type'] = None
400
 
        if not getattr(lf, 'supports_signatures', False):
401
 
            rqst['signature'] = False
402
364
 
403
365
        # Find and print the interesting revisions
404
366
        generator = self._generator_factory(self.branch, rqst)
405
 
        try:
406
 
            for lr in generator.iter_log_revisions():
407
 
                lf.log_revision(lr)
408
 
        except errors.GhostRevisionUnusableHere:
409
 
            raise errors.BzrCommandError(
410
 
                gettext('Further revision history missing.'))
 
367
        for lr in generator.iter_log_revisions():
 
368
            lf.log_revision(lr)
411
369
        lf.show_advice()
412
370
 
413
371
    def _generator_factory(self, branch, rqst):
414
372
        """Make the LogGenerator object to use.
415
 
 
 
373
        
416
374
        Subclasses may wish to override this.
417
375
        """
418
376
        return _DefaultLogGenerator(branch, rqst)
442
400
        levels = rqst.get('levels')
443
401
        limit = rqst.get('limit')
444
402
        diff_type = rqst.get('diff_type')
445
 
        show_signature = rqst.get('signature')
446
 
        omit_merges = rqst.get('omit_merges')
447
403
        log_count = 0
448
404
        revision_iterator = self._create_log_revision_iterator()
449
405
        for revs in revision_iterator:
450
406
            for (rev_id, revno, merge_depth), rev, delta in revs:
451
407
                # 0 levels means show everything; merge_depth counts from 0
452
 
                if (levels != 0 and merge_depth is not None and
453
 
                        merge_depth >= levels):
454
 
                    continue
455
 
                if omit_merges and len(rev.parent_ids) > 1:
456
 
                    continue
457
 
                if rev is None:
458
 
                    raise errors.GhostRevisionUnusableHere(rev_id)
 
408
                if levels != 0 and merge_depth >= levels:
 
409
                    continue
459
410
                if diff_type is None:
460
411
                    diff = None
461
412
                else:
462
413
                    diff = self._format_diff(rev, rev_id, diff_type)
463
 
                if show_signature:
464
 
                    signature = format_signature_validity(rev_id, self.branch)
465
 
                else:
466
 
                    signature = None
467
 
                yield LogRevision(
468
 
                    rev, revno, merge_depth, delta,
469
 
                    self.rev_tag_dict.get(rev_id), diff, signature)
 
414
                yield LogRevision(rev, revno, merge_depth, delta,
 
415
                    self.rev_tag_dict.get(rev_id), diff)
470
416
                if limit:
471
417
                    log_count += 1
472
418
                    if log_count >= limit:
485
431
            specific_files = [tree_2.id2path(id) for id in file_ids]
486
432
        else:
487
433
            specific_files = None
488
 
        s = BytesIO()
489
 
        path_encoding = get_diff_header_encoding()
 
434
        s = StringIO()
490
435
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
491
 
                             new_label='', path_encoding=path_encoding)
 
436
            new_label='')
492
437
        return s.getvalue()
493
438
 
494
439
    def _create_log_revision_iterator(self):
508
453
            # not a directory
509
454
            file_count = len(self.rqst.get('specific_fileids'))
510
455
            if file_count != 1:
511
 
                raise errors.BzrError(
512
 
                    "illegal LogRequest: must match-using-deltas "
 
456
                raise BzrError("illegal LogRequest: must match-using-deltas "
513
457
                    "when logging %d files" % file_count)
514
458
            return self._log_revision_iterator_using_per_file_graph()
515
459
 
518
462
        rqst = self.rqst
519
463
        generate_merge_revisions = rqst.get('levels') != 1
520
464
        delayed_graph_generation = not rqst.get('specific_fileids') and (
521
 
            rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
465
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
522
466
        view_revisions = _calc_view_revisions(
523
467
            self.branch, self.start_rev_id, self.end_rev_id,
524
468
            rqst.get('direction'),
528
472
 
529
473
        # Apply the other filters
530
474
        return make_log_rev_iterator(self.branch, view_revisions,
531
 
                                     rqst.get('delta_type'), rqst.get('match'),
532
 
                                     file_ids=rqst.get('specific_fileids'),
533
 
                                     direction=rqst.get('direction'))
 
475
            rqst.get('delta_type'), rqst.get('message_search'),
 
476
            file_ids=rqst.get('specific_fileids'),
 
477
            direction=rqst.get('direction'))
534
478
 
535
479
    def _log_revision_iterator_using_per_file_graph(self):
536
480
        # Get the base revisions, filtering by the revision range.
544
488
        if not isinstance(view_revisions, list):
545
489
            view_revisions = list(view_revisions)
546
490
        view_revisions = _filter_revisions_touching_file_id(self.branch,
547
 
                                                            rqst.get('specific_fileids')[
548
 
                                                                0], view_revisions,
549
 
                                                            include_merges=rqst.get('levels') != 1)
 
491
            rqst.get('specific_fileids')[0], view_revisions,
 
492
            include_merges=rqst.get('levels') != 1)
550
493
        return make_log_rev_iterator(self.branch, view_revisions,
551
 
                                     rqst.get('delta_type'), rqst.get('match'))
 
494
            rqst.get('delta_type'), rqst.get('message_search'))
552
495
 
553
496
 
554
497
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
562
505
             a list of the same tuples.
563
506
    """
564
507
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
565
 
        raise errors.BzrCommandError(gettext(
566
 
            '--exclude-common-ancestry requires two different revisions'))
 
508
        raise errors.BzrCommandError(
 
509
            '--exclude-common-ancestry requires two different revisions')
567
510
    if direction not in ('reverse', 'forward'):
568
 
        raise ValueError(gettext('invalid direction %r') % direction)
569
 
    br_rev_id = branch.last_revision()
570
 
    if br_rev_id == _mod_revision.NULL_REVISION:
 
511
        raise ValueError('invalid direction %r' % direction)
 
512
    br_revno, br_rev_id = branch.last_revision_info()
 
513
    if br_revno == 0:
571
514
        return []
572
515
 
573
516
    if (end_rev_id and start_rev_id == end_rev_id
574
517
        and (not generate_merge_revisions
575
518
             or not _has_merges(branch, end_rev_id))):
576
519
        # If a single revision is requested, check we can handle it
577
 
        return _generate_one_revision(branch, end_rev_id, br_rev_id,
578
 
                                      branch.revno())
579
 
    if not generate_merge_revisions:
580
 
        try:
581
 
            # If we only want to see linear revisions, we can iterate ...
582
 
            iter_revs = _linear_view_revisions(
583
 
                branch, start_rev_id, end_rev_id,
584
 
                exclude_common_ancestry=exclude_common_ancestry)
585
 
            # If a start limit was given and it's not obviously an
586
 
            # ancestor of the end limit, check it before outputting anything
587
 
            if (direction == 'forward'
588
 
                or (start_rev_id and not _is_obvious_ancestor(
589
 
                    branch, start_rev_id, end_rev_id))):
590
 
                iter_revs = list(iter_revs)
591
 
            if direction == 'forward':
592
 
                iter_revs = reversed(iter_revs)
593
 
            return iter_revs
594
 
        except _StartNotLinearAncestor:
595
 
            # Switch to the slower implementation that may be able to find a
596
 
            # non-obvious ancestor out of the left-hand history.
597
 
            pass
598
 
    iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
599
 
                                        direction, delayed_graph_generation,
600
 
                                        exclude_common_ancestry)
601
 
    if direction == 'forward':
602
 
        iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
 
520
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
 
521
                                           br_revno)
 
522
    elif not generate_merge_revisions:
 
523
        # If we only want to see linear revisions, we can iterate ...
 
524
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
525
                                             direction)
 
526
        if direction == 'forward':
 
527
            iter_revs = reversed(iter_revs)
 
528
    else:
 
529
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
530
                                            direction, delayed_graph_generation,
 
531
                                            exclude_common_ancestry)
 
532
        if direction == 'forward':
 
533
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
603
534
    return iter_revs
604
535
 
605
536
 
608
539
        # It's the tip
609
540
        return [(br_rev_id, br_revno, 0)]
610
541
    else:
611
 
        revno_str = _compute_revno_str(branch, rev_id)
 
542
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
543
        revno_str = '.'.join(str(n) for n in revno)
612
544
        return [(rev_id, revno_str, 0)]
613
545
 
614
546
 
 
547
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
548
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
549
    # If a start limit was given and it's not obviously an
 
550
    # ancestor of the end limit, check it before outputting anything
 
551
    if direction == 'forward' or (start_rev_id
 
552
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
553
        try:
 
554
            result = list(result)
 
555
        except _StartNotLinearAncestor:
 
556
            raise errors.BzrCommandError('Start revision not found in'
 
557
                ' left-hand history of end revision.')
 
558
    return result
 
559
 
 
560
 
615
561
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
616
562
                            delayed_graph_generation,
617
563
                            exclude_common_ancestry=False):
625
571
    initial_revisions = []
626
572
    if delayed_graph_generation:
627
573
        try:
628
 
            for rev_id, revno, depth in _linear_view_revisions(
629
 
                    branch, start_rev_id, end_rev_id, exclude_common_ancestry):
 
574
            for rev_id, revno, depth in  _linear_view_revisions(
 
575
                branch, start_rev_id, end_rev_id):
630
576
                if _has_merges(branch, rev_id):
631
577
                    # The end_rev_id can be nested down somewhere. We need an
632
578
                    # explicit ancestry check. There is an ambiguity here as we
639
585
                    # -- vila 20100319
640
586
                    graph = branch.repository.get_graph()
641
587
                    if (start_rev_id is not None
642
 
                            and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
588
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
643
589
                        raise _StartNotLinearAncestor()
644
590
                    # Since we collected the revisions so far, we need to
645
591
                    # adjust end_rev_id.
653
599
        except _StartNotLinearAncestor:
654
600
            # A merge was never detected so the lower revision limit can't
655
601
            # be nested down somewhere
656
 
            raise errors.BzrCommandError(gettext('Start revision not found in'
657
 
                                                 ' history of end revision.'))
 
602
            raise errors.BzrCommandError('Start revision not found in'
 
603
                ' history of end revision.')
658
604
 
659
605
    # We exit the loop above because we encounter a revision with merges, from
660
606
    # this revision, we need to switch to _graph_view_revisions.
664
610
    # shown naturally, i.e. just like it is for linear logging. We can easily
665
611
    # make forward the exact opposite display, but showing the merge revisions
666
612
    # indented at the end seems slightly nicer in that case.
667
 
    view_revisions = itertools.chain(iter(initial_revisions),
668
 
                                     _graph_view_revisions(branch, start_rev_id, end_rev_id,
669
 
                                                           rebase_initial_depths=(
670
 
                                                               direction == 'reverse'),
671
 
                                                           exclude_common_ancestry=exclude_common_ancestry))
 
613
    view_revisions = chain(iter(initial_revisions),
 
614
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
615
                              rebase_initial_depths=(direction == 'reverse'),
 
616
                              exclude_common_ancestry=exclude_common_ancestry))
672
617
    return view_revisions
673
618
 
674
619
 
678
623
    return len(parents) > 1
679
624
 
680
625
 
681
 
def _compute_revno_str(branch, rev_id):
682
 
    """Compute the revno string from a rev_id.
683
 
 
684
 
    :return: The revno string, or None if the revision is not in the supplied
685
 
        branch.
686
 
    """
687
 
    try:
688
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
689
 
    except errors.NoSuchRevision:
690
 
        # The revision must be outside of this branch
691
 
        return None
692
 
    else:
693
 
        return '.'.join(str(n) for n in revno)
694
 
 
695
 
 
696
626
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
697
627
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
698
628
    if start_rev_id and end_rev_id:
699
 
        try:
700
 
            start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
701
 
            end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
702
 
        except errors.NoSuchRevision:
703
 
            # one or both is not in the branch; not obvious
704
 
            return False
 
629
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
630
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
705
631
        if len(start_dotted) == 1 and len(end_dotted) == 1:
706
632
            # both on mainline
707
633
            return start_dotted[0] <= end_dotted[0]
708
634
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
709
 
              start_dotted[0:1] == end_dotted[0:1]):
 
635
            start_dotted[0:1] == end_dotted[0:1]):
710
636
            # both on same development line
711
637
            return start_dotted[2] <= end_dotted[2]
712
638
        else:
717
643
    return True
718
644
 
719
645
 
720
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id,
721
 
                           exclude_common_ancestry=False):
 
646
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
722
647
    """Calculate a sequence of revisions to view, newest to oldest.
723
648
 
724
649
    :param start_rev_id: the lower revision-id
725
650
    :param end_rev_id: the upper revision-id
726
 
    :param exclude_common_ancestry: Whether the start_rev_id should be part of
727
 
        the iterated revisions.
728
651
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
729
 
        dotted_revno will be None for ghosts
730
652
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
731
 
        is not found walking the left-hand history
 
653
      is not found walking the left-hand history
732
654
    """
 
655
    br_revno, br_rev_id = branch.last_revision_info()
733
656
    repo = branch.repository
734
 
    graph = repo.get_graph()
735
657
    if start_rev_id is None and end_rev_id is None:
736
 
        if branch._format.stores_revno() or \
737
 
                config.GlobalStack().get('calculate_revnos'):
738
 
            try:
739
 
                br_revno, br_rev_id = branch.last_revision_info()
740
 
            except errors.GhostRevisionsHaveNoRevno:
741
 
                br_rev_id = branch.last_revision()
742
 
                cur_revno = None
743
 
            else:
744
 
                cur_revno = br_revno
745
 
        else:
746
 
            br_rev_id = branch.last_revision()
747
 
            cur_revno = None
748
 
 
749
 
        graph_iter = graph.iter_lefthand_ancestry(br_rev_id,
750
 
                                                  (_mod_revision.NULL_REVISION,))
751
 
        while True:
752
 
            try:
753
 
                revision_id = next(graph_iter)
754
 
            except errors.RevisionNotPresent as e:
755
 
                # Oops, a ghost.
756
 
                yield e.revision_id, None, None
757
 
                break
758
 
            except StopIteration:
759
 
                break
760
 
            else:
761
 
                yield revision_id, str(cur_revno) if cur_revno is not None else None, 0
762
 
                if cur_revno is not None:
763
 
                    cur_revno -= 1
 
658
        cur_revno = br_revno
 
659
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
 
660
            yield revision_id, str(cur_revno), 0
 
661
            cur_revno -= 1
764
662
    else:
765
 
        br_rev_id = branch.last_revision()
766
663
        if end_rev_id is None:
767
664
            end_rev_id = br_rev_id
768
665
        found_start = start_rev_id is None
769
 
        graph_iter = graph.iter_lefthand_ancestry(end_rev_id,
770
 
                                                  (_mod_revision.NULL_REVISION,))
771
 
        while True:
772
 
            try:
773
 
                revision_id = next(graph_iter)
774
 
            except StopIteration:
775
 
                break
776
 
            except errors.RevisionNotPresent as e:
777
 
                # Oops, a ghost.
778
 
                yield e.revision_id, None, None
 
666
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
667
            revno = branch.revision_id_to_dotted_revno(revision_id)
 
668
            revno_str = '.'.join(str(n) for n in revno)
 
669
            if not found_start and revision_id == start_rev_id:
 
670
                yield revision_id, revno_str, 0
 
671
                found_start = True
779
672
                break
780
673
            else:
781
 
                revno_str = _compute_revno_str(branch, revision_id)
782
 
                if not found_start and revision_id == start_rev_id:
783
 
                    if not exclude_common_ancestry:
784
 
                        yield revision_id, revno_str, 0
785
 
                    found_start = True
786
 
                    break
787
 
                else:
788
 
                    yield revision_id, revno_str, 0
789
 
        if not found_start:
790
 
            raise _StartNotLinearAncestor()
 
674
                yield revision_id, revno_str, 0
 
675
        else:
 
676
            if not found_start:
 
677
                raise _StartNotLinearAncestor()
791
678
 
792
679
 
793
680
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
834
721
            yield rev_id, '.'.join(map(str, revno)), merge_depth
835
722
 
836
723
 
 
724
@deprecated_function(deprecated_in((2, 2, 0)))
 
725
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
726
        specific_fileid, generate_merge_revisions):
 
727
    """Calculate the revisions to view.
 
728
 
 
729
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
730
             a list of the same tuples.
 
731
    """
 
732
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
733
        end_revision)
 
734
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
735
        direction, generate_merge_revisions or specific_fileid))
 
736
    if specific_fileid:
 
737
        view_revisions = _filter_revisions_touching_file_id(branch,
 
738
            specific_fileid, view_revisions,
 
739
            include_merges=generate_merge_revisions)
 
740
    return _rebase_merge_depth(view_revisions)
 
741
 
 
742
 
837
743
def _rebase_merge_depth(view_revisions):
838
744
    """Adjust depths upwards so the top level is 0."""
839
745
    # If either the first or last revision have a merge_depth of 0, we're done
840
746
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
841
 
        min_depth = min([d for r, n, d in view_revisions])
 
747
        min_depth = min([d for r,n,d in view_revisions])
842
748
        if min_depth != 0:
843
 
            view_revisions = [(r, n, d - min_depth)
844
 
                              for r, n, d in view_revisions]
 
749
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
845
750
    return view_revisions
846
751
 
847
752
 
848
753
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
849
 
                          file_ids=None, direction='reverse'):
 
754
        file_ids=None, direction='reverse'):
850
755
    """Create a revision iterator for log.
851
756
 
852
757
    :param branch: The branch being logged.
862
767
    """
863
768
    # Convert view_revisions into (view, None, None) groups to fit with
864
769
    # the standard interface here.
865
 
    if isinstance(view_revisions, list):
 
770
    if type(view_revisions) == list:
866
771
        # A single batch conversion is faster than many incremental ones.
867
772
        # As we have all the data, do a batch conversion.
868
773
        nones = [None] * len(view_revisions)
869
 
        log_rev_iterator = iter([list(zip(view_revisions, nones, nones))])
 
774
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
870
775
    else:
871
776
        def _convert():
872
777
            for view in view_revisions:
876
781
        # It would be nicer if log adapters were first class objects
877
782
        # with custom parameters. This will do for now. IGC 20090127
878
783
        if adapter == _make_delta_filter:
879
 
            log_rev_iterator = adapter(
880
 
                branch, generate_delta, search, log_rev_iterator, file_ids,
881
 
                direction)
 
784
            log_rev_iterator = adapter(branch, generate_delta,
 
785
                search, log_rev_iterator, file_ids, direction)
882
786
        else:
883
 
            log_rev_iterator = adapter(
884
 
                branch, generate_delta, search, log_rev_iterator)
 
787
            log_rev_iterator = adapter(branch, generate_delta,
 
788
                search, log_rev_iterator)
885
789
    return log_rev_iterator
886
790
 
887
791
 
888
 
def _make_search_filter(branch, generate_delta, match, log_rev_iterator):
 
792
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
889
793
    """Create a filtered iterator of log_rev_iterator matching on a regex.
890
794
 
891
795
    :param branch: The branch being logged.
892
796
    :param generate_delta: Whether to generate a delta for each revision.
893
 
    :param match: A dictionary with properties as keys and lists of strings
894
 
        as values. To match, a revision may match any of the supplied strings
895
 
        within a single property but must match at least one string for each
896
 
        property.
 
797
    :param search: A user text search string.
897
798
    :param log_rev_iterator: An input iterator containing all revisions that
898
799
        could be displayed, in lists.
899
800
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
900
801
        delta).
901
802
    """
902
 
    if not match:
 
803
    if search is None:
903
804
        return log_rev_iterator
904
 
    # Use lazy_compile so mapping to InvalidPattern error occurs.
905
 
    searchRE = [(k, [lazy_regex.lazy_compile(x, re.IGNORECASE) for x in v])
906
 
                for k, v in match.items()]
907
 
    return _filter_re(searchRE, log_rev_iterator)
908
 
 
909
 
 
910
 
def _filter_re(searchRE, log_rev_iterator):
 
805
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
806
            'log message filter')
 
807
    return _filter_message_re(searchRE, log_rev_iterator)
 
808
 
 
809
 
 
810
def _filter_message_re(searchRE, log_rev_iterator):
911
811
    for revs in log_rev_iterator:
912
 
        new_revs = [rev for rev in revs if _match_filter(searchRE, rev[1])]
913
 
        if new_revs:
914
 
            yield new_revs
915
 
 
916
 
 
917
 
def _match_filter(searchRE, rev):
918
 
    strings = {
919
 
        'message': (rev.message,),
920
 
        'committer': (rev.committer,),
921
 
        'author': (rev.get_apparent_authors()),
922
 
        'bugs': list(rev.iter_bugs())
923
 
        }
924
 
    strings[''] = [item for inner_list in strings.values()
925
 
                   for item in inner_list]
926
 
    for k, v in searchRE:
927
 
        if k in strings and not _match_any_filter(strings[k], v):
928
 
            return False
929
 
    return True
930
 
 
931
 
 
932
 
def _match_any_filter(strings, res):
933
 
    return any(r.search(s) for r in res for s in strings)
 
812
        new_revs = []
 
813
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
814
            if searchRE.search(rev.message):
 
815
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
 
816
        yield new_revs
934
817
 
935
818
 
936
819
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
937
 
                       fileids=None, direction='reverse'):
 
820
    fileids=None, direction='reverse'):
938
821
    """Add revision deltas to a log iterator if needed.
939
822
 
940
823
    :param branch: The branch being logged.
952
835
    if not generate_delta and not fileids:
953
836
        return log_rev_iterator
954
837
    return _generate_deltas(branch.repository, log_rev_iterator,
955
 
                            generate_delta, fileids, direction)
 
838
        generate_delta, fileids, direction)
956
839
 
957
840
 
958
841
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
959
 
                     direction):
 
842
    direction):
960
843
    """Create deltas for each batch of revisions in log_rev_iterator.
961
844
 
962
845
    If we're only generating deltas for the sake of filtering against
982
865
        new_revs = []
983
866
        if delta_type == 'full' and not check_fileids:
984
867
            deltas = repository.get_deltas_for_revisions(revisions)
985
 
            for rev, delta in zip(revs, deltas):
 
868
            for rev, delta in izip(revs, deltas):
986
869
                new_revs.append((rev[0], rev[1], delta))
987
870
        else:
988
871
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
989
 
            for rev, delta in zip(revs, deltas):
 
872
            for rev, delta in izip(revs, deltas):
990
873
                if check_fileids:
991
874
                    if delta is None or not delta.has_changed():
992
875
                        continue
1010
893
 
1011
894
def _update_fileids(delta, fileids, stop_on):
1012
895
    """Update the set of file-ids to search based on file lifecycle events.
1013
 
 
 
896
    
1014
897
    :param fileids: a set of fileids to update
1015
898
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
1016
899
      fileids set once their add or remove entry is detected respectively
1017
900
    """
1018
901
    if stop_on == 'add':
1019
 
        for item in delta.added + delta.copied:
1020
 
            if item.file_id in fileids:
1021
 
                fileids.remove(item.file_id)
 
902
        for item in delta.added:
 
903
            if item[1] in fileids:
 
904
                fileids.remove(item[1])
1022
905
    elif stop_on == 'delete':
1023
906
        for item in delta.removed:
1024
 
            if item.file_id in fileids:
1025
 
                fileids.remove(item.file_id)
 
907
            if item[1] in fileids:
 
908
                fileids.remove(item[1])
1026
909
 
1027
910
 
1028
911
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
1040
923
    for revs in log_rev_iterator:
1041
924
        # r = revision_id, n = revno, d = merge depth
1042
925
        revision_ids = [view[0] for view, _, _ in revs]
1043
 
        revisions = dict(repository.iter_revisions(revision_ids))
1044
 
        yield [(rev[0], revisions[rev[0][0]], rev[2]) for rev in revs]
 
926
        revisions = repository.get_revisions(revision_ids)
 
927
        revs = [(rev[0], revision, rev[2]) for rev, revision in
 
928
            izip(revs, revisions)]
 
929
        yield revs
1045
930
 
1046
931
 
1047
932
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
1055
940
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
1056
941
        delta).
1057
942
    """
 
943
    repository = branch.repository
1058
944
    num = 9
1059
945
    for batch in log_rev_iterator:
1060
946
        batch = iter(batch)
1072
958
    :param  branch: The branch containing the revisions.
1073
959
 
1074
960
    :param  start_revision: The first revision to be logged.
 
961
            For backwards compatibility this may be a mainline integer revno,
1075
962
            but for merge revision support a RevisionInfo is expected.
1076
963
 
1077
964
    :param  end_revision: The last revision to be logged.
1080
967
 
1081
968
    :return: (start_rev_id, end_rev_id) tuple.
1082
969
    """
 
970
    branch_revno, branch_rev_id = branch.last_revision_info()
1083
971
    start_rev_id = None
1084
 
    start_revno = None
1085
 
    if start_revision is not None:
1086
 
        if not isinstance(start_revision, revisionspec.RevisionInfo):
1087
 
            raise TypeError(start_revision)
1088
 
        start_rev_id = start_revision.rev_id
1089
 
        start_revno = start_revision.revno
1090
 
    if start_revno is None:
 
972
    if start_revision is None:
1091
973
        start_revno = 1
 
974
    else:
 
975
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
976
            start_rev_id = start_revision.rev_id
 
977
            start_revno = start_revision.revno or 1
 
978
        else:
 
979
            branch.check_real_revno(start_revision)
 
980
            start_revno = start_revision
 
981
            start_rev_id = branch.get_rev_id(start_revno)
1092
982
 
1093
983
    end_rev_id = None
1094
 
    end_revno = None
1095
 
    if end_revision is not None:
1096
 
        if not isinstance(end_revision, revisionspec.RevisionInfo):
1097
 
            raise TypeError(start_revision)
1098
 
        end_rev_id = end_revision.rev_id
1099
 
        end_revno = end_revision.revno
 
984
    if end_revision is None:
 
985
        end_revno = branch_revno
 
986
    else:
 
987
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
988
            end_rev_id = end_revision.rev_id
 
989
            end_revno = end_revision.revno or branch_revno
 
990
        else:
 
991
            branch.check_real_revno(end_revision)
 
992
            end_revno = end_revision
 
993
            end_rev_id = branch.get_rev_id(end_revno)
1100
994
 
1101
 
    if branch.last_revision() != _mod_revision.NULL_REVISION:
 
995
    if branch_revno != 0:
1102
996
        if (start_rev_id == _mod_revision.NULL_REVISION
1103
 
                or end_rev_id == _mod_revision.NULL_REVISION):
1104
 
            raise errors.BzrCommandError(
1105
 
                gettext('Logging revision 0 is invalid.'))
1106
 
        if end_revno is not None and start_revno > end_revno:
1107
 
            raise errors.BzrCommandError(
1108
 
                gettext("Start revision must be older than the end revision."))
 
997
            or end_rev_id == _mod_revision.NULL_REVISION):
 
998
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
999
        if start_revno > end_revno:
 
1000
            raise errors.BzrCommandError("Start revision must be older than "
 
1001
                                         "the end revision.")
1109
1002
    return (start_rev_id, end_rev_id)
1110
1003
 
1111
1004
 
1159
1052
            end_revno = end_revision
1160
1053
 
1161
1054
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1162
 
            or (end_rev_id == _mod_revision.NULL_REVISION)):
1163
 
        raise errors.BzrCommandError(gettext('Logging revision 0 is invalid.'))
 
1055
        or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1056
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
1164
1057
    if start_revno > end_revno:
1165
 
        raise errors.BzrCommandError(gettext("Start revision must be older "
1166
 
                                             "than the end revision."))
 
1058
        raise errors.BzrCommandError("Start revision must be older than "
 
1059
                                     "the end revision.")
1167
1060
 
1168
1061
    if end_revno < start_revno:
1169
1062
        return None, None, None, None
1170
1063
    cur_revno = branch_revno
1171
1064
    rev_nos = {}
1172
1065
    mainline_revs = []
1173
 
    graph = branch.repository.get_graph()
1174
 
    for revision_id in graph.iter_lefthand_ancestry(
1175
 
            branch_last_revision, (_mod_revision.NULL_REVISION,)):
 
1066
    for revision_id in branch.repository.iter_reverse_revision_history(
 
1067
                        branch_last_revision):
1176
1068
        if cur_revno < start_revno:
1177
1069
            # We have gone far enough, but we always add 1 more revision
1178
1070
            rev_nos[revision_id] = cur_revno
1192
1084
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1193
1085
 
1194
1086
 
 
1087
@deprecated_function(deprecated_in((2, 2, 0)))
 
1088
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
 
1089
    """Filter view_revisions based on revision ranges.
 
1090
 
 
1091
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1092
            tuples to be filtered.
 
1093
 
 
1094
    :param start_rev_id: If not NONE specifies the first revision to be logged.
 
1095
            If NONE then all revisions up to the end_rev_id are logged.
 
1096
 
 
1097
    :param end_rev_id: If not NONE specifies the last revision to be logged.
 
1098
            If NONE then all revisions up to the end of the log are logged.
 
1099
 
 
1100
    :return: The filtered view_revisions.
 
1101
    """
 
1102
    if start_rev_id or end_rev_id:
 
1103
        revision_ids = [r for r, n, d in view_revisions]
 
1104
        if start_rev_id:
 
1105
            start_index = revision_ids.index(start_rev_id)
 
1106
        else:
 
1107
            start_index = 0
 
1108
        if start_rev_id == end_rev_id:
 
1109
            end_index = start_index
 
1110
        else:
 
1111
            if end_rev_id:
 
1112
                end_index = revision_ids.index(end_rev_id)
 
1113
            else:
 
1114
                end_index = len(view_revisions) - 1
 
1115
        # To include the revisions merged into the last revision,
 
1116
        # extend end_rev_id down to, but not including, the next rev
 
1117
        # with the same or lesser merge_depth
 
1118
        end_merge_depth = view_revisions[end_index][2]
 
1119
        try:
 
1120
            for index in xrange(end_index+1, len(view_revisions)+1):
 
1121
                if view_revisions[index][2] <= end_merge_depth:
 
1122
                    end_index = index - 1
 
1123
                    break
 
1124
        except IndexError:
 
1125
            # if the search falls off the end then log to the end as well
 
1126
            end_index = len(view_revisions) - 1
 
1127
        view_revisions = view_revisions[start_index:end_index+1]
 
1128
    return view_revisions
 
1129
 
 
1130
 
1195
1131
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1196
 
                                       include_merges=True):
 
1132
    include_merges=True):
1197
1133
    r"""Return the list of revision ids which touch a given file id.
1198
1134
 
1199
1135
    The function filters view_revisions and returns a subset.
1200
1136
    This includes the revisions which directly change the file id,
1201
1137
    and the revisions which merge these changes. So if the
1202
1138
    revision graph is::
1203
 
 
1204
1139
        A-.
1205
1140
        |\ \
1206
1141
        B C E
1233
1168
    """
1234
1169
    # Lookup all possible text keys to determine which ones actually modified
1235
1170
    # the file.
1236
 
    graph = branch.repository.get_file_graph()
1237
 
    get_parent_map = graph.get_parent_map
1238
1171
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1239
1172
    next_keys = None
1240
1173
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1244
1177
    #       indexing layer. We might consider passing in hints as to the known
1245
1178
    #       access pattern (sparse/clustered, high success rate/low success
1246
1179
    #       rate). This particular access is clustered with a low success rate.
 
1180
    get_parent_map = branch.repository.texts.get_parent_map
1247
1181
    modified_text_revisions = set()
1248
1182
    chunk_size = 1000
1249
 
    for start in range(0, len(text_keys), chunk_size):
 
1183
    for start in xrange(0, len(text_keys), chunk_size):
1250
1184
        next_keys = text_keys[start:start + chunk_size]
1251
1185
        # Only keep the revision_id portion of the key
1252
1186
        modified_text_revisions.update(
1267
1201
 
1268
1202
        if rev_id in modified_text_revisions:
1269
1203
            # This needs to be logged, along with the extra revisions
1270
 
            for idx in range(len(current_merge_stack)):
 
1204
            for idx in xrange(len(current_merge_stack)):
1271
1205
                node = current_merge_stack[idx]
1272
1206
                if node is not None:
1273
1207
                    if include_merges or node[2] == 0:
1276
1210
    return result
1277
1211
 
1278
1212
 
 
1213
@deprecated_function(deprecated_in((2, 2, 0)))
 
1214
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
 
1215
                       include_merges=True):
 
1216
    """Produce an iterator of revisions to show
 
1217
    :return: an iterator of (revision_id, revno, merge_depth)
 
1218
    (if there is no revno for a revision, None is supplied)
 
1219
    """
 
1220
    if not include_merges:
 
1221
        revision_ids = mainline_revs[1:]
 
1222
        if direction == 'reverse':
 
1223
            revision_ids.reverse()
 
1224
        for revision_id in revision_ids:
 
1225
            yield revision_id, str(rev_nos[revision_id]), 0
 
1226
        return
 
1227
    graph = branch.repository.get_graph()
 
1228
    # This asks for all mainline revisions, which means we only have to spider
 
1229
    # sideways, rather than depth history. That said, its still size-of-history
 
1230
    # and should be addressed.
 
1231
    # mainline_revisions always includes an extra revision at the beginning, so
 
1232
    # don't request it.
 
1233
    parent_map = dict(((key, value) for key, value in
 
1234
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
 
1235
    # filter out ghosts; merge_sort errors on ghosts.
 
1236
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
 
1237
    merge_sorted_revisions = tsort.merge_sort(
 
1238
        rev_graph,
 
1239
        mainline_revs[-1],
 
1240
        mainline_revs,
 
1241
        generate_revno=True)
 
1242
 
 
1243
    if direction == 'forward':
 
1244
        # forward means oldest first.
 
1245
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
 
1246
    elif direction != 'reverse':
 
1247
        raise ValueError('invalid direction %r' % direction)
 
1248
 
 
1249
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1250
         ) in merge_sorted_revisions:
 
1251
        yield rev_id, '.'.join(map(str, revno)), merge_depth
 
1252
 
 
1253
 
1279
1254
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1280
1255
    """Reverse revisions by depth.
1281
1256
 
1282
1257
    Revisions with a different depth are sorted as a group with the previous
1283
 
    revision of that depth.  There may be no topological justification for this
 
1258
    revision of that depth.  There may be no topological justification for this,
1284
1259
    but it looks much nicer.
1285
1260
    """
1286
1261
    # Add a fake revision at start so that we can always attach sub revisions
1316
1291
    """
1317
1292
 
1318
1293
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1319
 
                 tags=None, diff=None, signature=None):
 
1294
                 tags=None, diff=None):
1320
1295
        self.rev = rev
1321
 
        if revno is None:
1322
 
            self.revno = None
1323
 
        else:
1324
 
            self.revno = str(revno)
 
1296
        self.revno = str(revno)
1325
1297
        self.merge_depth = merge_depth
1326
1298
        self.delta = delta
1327
1299
        self.tags = tags
1328
1300
        self.diff = diff
1329
 
        self.signature = signature
1330
1301
 
1331
1302
 
1332
1303
class LogFormatter(object):
1341
1312
    to indicate which LogRevision attributes it supports:
1342
1313
 
1343
1314
    - supports_delta must be True if this log formatter supports delta.
1344
 
      Otherwise the delta attribute may not be populated.  The 'delta_format'
1345
 
      attribute describes whether the 'short_status' format (1) or the long
1346
 
      one (2) should be used.
 
1315
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1316
        attribute describes whether the 'short_status' format (1) or the long
 
1317
        one (2) should be used.
1347
1318
 
1348
1319
    - supports_merge_revisions must be True if this log formatter supports
1349
 
      merge revisions.  If not, then only mainline revisions will be passed
1350
 
      to the formatter.
 
1320
        merge revisions.  If not, then only mainline revisions will be passed
 
1321
        to the formatter.
1351
1322
 
1352
1323
    - preferred_levels is the number of levels this formatter defaults to.
1353
 
      The default value is zero meaning display all levels.
1354
 
      This value is only relevant if supports_merge_revisions is True.
 
1324
        The default value is zero meaning display all levels.
 
1325
        This value is only relevant if supports_merge_revisions is True.
1355
1326
 
1356
1327
    - supports_tags must be True if this log formatter supports tags.
1357
 
      Otherwise the tags attribute may not be populated.
 
1328
        Otherwise the tags attribute may not be populated.
1358
1329
 
1359
1330
    - supports_diff must be True if this log formatter supports diffs.
1360
 
      Otherwise the diff attribute may not be populated.
1361
 
 
1362
 
    - supports_signatures must be True if this log formatter supports GPG
1363
 
      signatures.
 
1331
        Otherwise the diff attribute may not be populated.
1364
1332
 
1365
1333
    Plugins can register functions to show custom revision properties using
1366
1334
    the properties_handler_registry. The registered function
1367
 
    must respect the following interface description::
1368
 
 
 
1335
    must respect the following interface description:
1369
1336
        def my_show_properties(properties_dict):
1370
1337
            # code that returns a dict {'name':'value'} of the properties
1371
1338
            # to be shown
1374
1341
 
1375
1342
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1376
1343
                 delta_format=None, levels=None, show_advice=False,
1377
 
                 to_exact_file=None, author_list_handler=None):
 
1344
                 to_exact_file=None):
1378
1345
        """Create a LogFormatter.
1379
1346
 
1380
1347
        :param to_file: the file to output to
1381
 
        :param to_exact_file: if set, gives an output stream to which
 
1348
        :param to_exact_file: if set, gives an output stream to which 
1382
1349
             non-Unicode diffs are written.
1383
1350
        :param show_ids: if True, revision-ids are to be displayed
1384
1351
        :param show_timezone: the timezone to use
1388
1355
          let the log formatter decide.
1389
1356
        :param show_advice: whether to show advice at the end of the
1390
1357
          log or not
1391
 
        :param author_list_handler: callable generating a list of
1392
 
          authors to display for a given revision
1393
1358
        """
1394
1359
        self.to_file = to_file
1395
1360
        # 'exact' stream used to show diff, it should print content 'as is'
1396
 
        # and should not try to decode/encode it to unicode to avoid bug
1397
 
        # #328007
 
1361
        # and should not try to decode/encode it to unicode to avoid bug #328007
1398
1362
        if to_exact_file is not None:
1399
1363
            self.to_exact_file = to_exact_file
1400
1364
        else:
1401
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's
1402
 
            # better for code that expects to get diffs to pass in the exact
1403
 
            # file stream
 
1365
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
 
1366
            # for code that expects to get diffs to pass in the exact file
 
1367
            # stream
1404
1368
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1405
1369
        self.show_ids = show_ids
1406
1370
        self.show_timezone = show_timezone
1407
1371
        if delta_format is None:
1408
1372
            # Ensures backward compatibility
1409
 
            delta_format = 2  # long format
 
1373
            delta_format = 2 # long format
1410
1374
        self.delta_format = delta_format
1411
1375
        self.levels = levels
1412
1376
        self._show_advice = show_advice
1413
1377
        self._merge_count = 0
1414
 
        self._author_list_handler = author_list_handler
1415
1378
 
1416
1379
    def get_levels(self):
1417
1380
        """Get the number of levels to display or 0 for all."""
1436
1399
            if advice_sep:
1437
1400
                self.to_file.write(advice_sep)
1438
1401
            self.to_file.write(
1439
 
                "Use --include-merged or -n0 to see merged revisions.\n")
 
1402
                "Use --include-merges or -n0 to see merged revisions.\n")
1440
1403
 
1441
1404
    def get_advice_separator(self):
1442
1405
        """Get the text separating the log from the closing advice."""
1449
1412
        return address
1450
1413
 
1451
1414
    def short_author(self, rev):
1452
 
        return self.authors(rev, 'first', short=True, sep=', ')
1453
 
 
1454
 
    def authors(self, rev, who, short=False, sep=None):
1455
 
        """Generate list of authors, taking --authors option into account.
1456
 
 
1457
 
        The caller has to specify the name of a author list handler,
1458
 
        as provided by the author list registry, using the ``who``
1459
 
        argument.  That name only sets a default, though: when the
1460
 
        user selected a different author list generation using the
1461
 
        ``--authors`` command line switch, as represented by the
1462
 
        ``author_list_handler`` constructor argument, that value takes
1463
 
        precedence.
1464
 
 
1465
 
        :param rev: The revision for which to generate the list of authors.
1466
 
        :param who: Name of the default handler.
1467
 
        :param short: Whether to shorten names to either name or address.
1468
 
        :param sep: What separator to use for automatic concatenation.
1469
 
        """
1470
 
        if self._author_list_handler is not None:
1471
 
            # The user did specify --authors, which overrides the default
1472
 
            author_list_handler = self._author_list_handler
1473
 
        else:
1474
 
            # The user didn't specify --authors, so we use the caller's default
1475
 
            author_list_handler = author_list_registry.get(who)
1476
 
        names = author_list_handler(rev)
1477
 
        if short:
1478
 
            for i in range(len(names)):
1479
 
                name, address = config.parse_username(names[i])
1480
 
                if name:
1481
 
                    names[i] = name
1482
 
                else:
1483
 
                    names[i] = address
1484
 
        if sep is not None:
1485
 
            names = sep.join(names)
1486
 
        return names
 
1415
        name, address = config.parse_username(rev.get_apparent_authors()[0])
 
1416
        if name:
 
1417
            return name
 
1418
        return address
1487
1419
 
1488
1420
    def merge_marker(self, revision):
1489
1421
        """Get the merge marker to include in the output or '' if none."""
1510
1442
        """
1511
1443
        lines = self._foreign_info_properties(revision)
1512
1444
        for key, handler in properties_handler_registry.iteritems():
1513
 
            try:
1514
 
                lines.extend(self._format_properties(handler(revision)))
1515
 
            except Exception:
1516
 
                trace.log_exception_quietly()
1517
 
                trace.print_exception(sys.exc_info(), self.to_file)
 
1445
            lines.extend(self._format_properties(handler(revision)))
1518
1446
        return lines
1519
1447
 
1520
1448
    def _foreign_info_properties(self, rev):
1528
1456
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
1529
1457
 
1530
1458
        # Imported foreign revision revision ids always contain :
1531
 
        if b":" not in rev.revision_id:
 
1459
        if not ":" in rev.revision_id:
1532
1460
            return []
1533
1461
 
1534
1462
        # Revision was once imported from a foreign repository
1548
1476
        return lines
1549
1477
 
1550
1478
    def show_diff(self, to_file, diff, indent):
1551
 
        encoding = get_terminal_encoding()
1552
 
        for l in diff.rstrip().split(b'\n'):
1553
 
            to_file.write(indent + l.decode(encoding, 'ignore') + '\n')
 
1479
        for l in diff.rstrip().split('\n'):
 
1480
            to_file.write(indent + '%s\n' % (l,))
1554
1481
 
1555
1482
 
1556
1483
# Separator between revisions in long format
1564
1491
    supports_delta = True
1565
1492
    supports_tags = True
1566
1493
    supports_diff = True
1567
 
    supports_signatures = True
1568
1494
 
1569
1495
    def __init__(self, *args, **kwargs):
1570
1496
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1579
1505
 
1580
1506
    def _date_string_original_timezone(self, rev):
1581
1507
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1582
 
                                                            rev.timezone or 0)
 
1508
            rev.timezone or 0)
1583
1509
 
1584
1510
    def log_revision(self, revision):
1585
1511
        """Log a revision, either merged or not."""
1587
1513
        lines = [_LONG_SEP]
1588
1514
        if revision.revno is not None:
1589
1515
            lines.append('revno: %s%s' % (revision.revno,
1590
 
                                          self.merge_marker(revision)))
 
1516
                self.merge_marker(revision)))
1591
1517
        if revision.tags:
1592
 
            lines.append('tags: %s' % (', '.join(sorted(revision.tags))))
1593
 
        if self.show_ids or revision.revno is None:
1594
 
            lines.append('revision-id: %s' %
1595
 
                         (revision.rev.revision_id.decode('utf-8'),))
 
1518
            lines.append('tags: %s' % (', '.join(revision.tags)))
1596
1519
        if self.show_ids:
 
1520
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
1597
1521
            for parent_id in revision.rev.parent_ids:
1598
 
                lines.append('parent: %s' % (parent_id.decode('utf-8'),))
 
1522
                lines.append('parent: %s' % (parent_id,))
1599
1523
        lines.extend(self.custom_properties(revision.rev))
1600
1524
 
1601
1525
        committer = revision.rev.committer
1602
 
        authors = self.authors(revision.rev, 'all')
 
1526
        authors = revision.rev.get_apparent_authors()
1603
1527
        if authors != [committer]:
1604
1528
            lines.append('author: %s' % (", ".join(authors),))
1605
1529
        lines.append('committer: %s' % (committer,))
1610
1534
 
1611
1535
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1612
1536
 
1613
 
        if revision.signature is not None:
1614
 
            lines.append('signature: ' + revision.signature)
1615
 
 
1616
1537
        lines.append('message:')
1617
1538
        if not revision.rev.message:
1618
1539
            lines.append('  (no message)')
1626
1547
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
1627
1548
        if revision.delta is not None:
1628
1549
            # Use the standard status output to display changes
1629
 
            from breezy.delta import report_delta
1630
 
            report_delta(to_file, revision.delta, short_status=False,
 
1550
            from bzrlib.delta import report_delta
 
1551
            report_delta(to_file, revision.delta, short_status=False, 
1631
1552
                         show_ids=self.show_ids, indent=indent)
1632
1553
        if revision.diff is not None:
1633
1554
            to_file.write(indent + 'diff:\n')
1665
1586
        indent = '    ' * depth
1666
1587
        revno_width = self.revno_width_by_depth.get(depth)
1667
1588
        if revno_width is None:
1668
 
            if revision.revno is None or revision.revno.find('.') == -1:
 
1589
            if revision.revno.find('.') == -1:
1669
1590
                # mainline revno, e.g. 12345
1670
1591
                revno_width = 5
1671
1592
            else:
1677
1598
        to_file = self.to_file
1678
1599
        tags = ''
1679
1600
        if revision.tags:
1680
 
            tags = ' {%s}' % (', '.join(sorted(revision.tags)))
 
1601
            tags = ' {%s}' % (', '.join(revision.tags))
1681
1602
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1682
 
                                                     revision.revno or "", self.short_author(
1683
 
                                                         revision.rev),
1684
 
                                                     format_date(revision.rev.timestamp,
1685
 
                                                                 revision.rev.timezone or 0,
1686
 
                                                                 self.show_timezone, date_fmt="%Y-%m-%d",
1687
 
                                                                 show_offset=False),
1688
 
                                                     tags, self.merge_marker(revision)))
1689
 
        self.show_properties(revision.rev, indent + offset)
1690
 
        if self.show_ids or revision.revno is None:
 
1603
                revision.revno, self.short_author(revision.rev),
 
1604
                format_date(revision.rev.timestamp,
 
1605
                            revision.rev.timezone or 0,
 
1606
                            self.show_timezone, date_fmt="%Y-%m-%d",
 
1607
                            show_offset=False),
 
1608
                tags, self.merge_marker(revision)))
 
1609
        self.show_properties(revision.rev, indent+offset)
 
1610
        if self.show_ids:
1691
1611
            to_file.write(indent + offset + 'revision-id:%s\n'
1692
 
                          % (revision.rev.revision_id.decode('utf-8'),))
 
1612
                          % (revision.rev.revision_id,))
1693
1613
        if not revision.rev.message:
1694
1614
            to_file.write(indent + offset + '(no message)\n')
1695
1615
        else:
1699
1619
 
1700
1620
        if revision.delta is not None:
1701
1621
            # Use the standard status output to display changes
1702
 
            from breezy.delta import report_delta
1703
 
            report_delta(to_file, revision.delta,
1704
 
                         short_status=self.delta_format == 1,
 
1622
            from bzrlib.delta import report_delta
 
1623
            report_delta(to_file, revision.delta, 
 
1624
                         short_status=self.delta_format==1, 
1705
1625
                         show_ids=self.show_ids, indent=indent + offset)
1706
1626
        if revision.diff is not None:
1707
1627
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1725
1645
    def truncate(self, str, max_len):
1726
1646
        if max_len is None or len(str) <= max_len:
1727
1647
            return str
1728
 
        return str[:max_len - 3] + '...'
 
1648
        return str[:max_len-3] + '...'
1729
1649
 
1730
1650
    def date_string(self, rev):
1731
1651
        return format_date(rev.timestamp, rev.timezone or 0,
1741
1661
    def log_revision(self, revision):
1742
1662
        indent = '  ' * revision.merge_depth
1743
1663
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1744
 
                                           self._max_chars, revision.tags, indent))
 
1664
            self._max_chars, revision.tags, indent))
1745
1665
        self.to_file.write('\n')
1746
1666
 
1747
1667
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
1748
1668
        """Format log info into one string. Truncate tail of string
1749
 
 
1750
 
        :param revno:      revision number or None.
1751
 
                           Revision numbers counts from 1.
1752
 
        :param rev:        revision object
1753
 
        :param max_chars:  maximum length of resulting string
1754
 
        :param tags:       list of tags or None
1755
 
        :param prefix:     string to prefix each line
1756
 
        :return:           formatted truncated string
 
1669
        :param  revno:      revision number or None.
 
1670
                            Revision numbers counts from 1.
 
1671
        :param  rev:        revision object
 
1672
        :param  max_chars:  maximum length of resulting string
 
1673
        :param  tags:       list of tags or None
 
1674
        :param  prefix:     string to prefix each line
 
1675
        :return:            formatted truncated string
1757
1676
        """
1758
1677
        out = []
1759
1678
        if revno:
1760
1679
            # show revno only when is not None
1761
1680
            out.append("%s:" % revno)
1762
 
        if max_chars is not None:
1763
 
            out.append(self.truncate(
1764
 
                self.short_author(rev), (max_chars + 3) // 4))
1765
 
        else:
1766
 
            out.append(self.short_author(rev))
 
1681
        out.append(self.truncate(self.short_author(rev), 20))
1767
1682
        out.append(self.date_string(rev))
1768
1683
        if len(rev.parent_ids) > 1:
1769
1684
            out.append('[merge]')
1770
1685
        if tags:
1771
 
            tag_str = '{%s}' % (', '.join(sorted(tags)))
 
1686
            tag_str = '{%s}' % (', '.join(tags))
1772
1687
            out.append(tag_str)
1773
1688
        out.append(rev.get_summary())
1774
1689
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1788
1703
                               self.show_timezone,
1789
1704
                               date_fmt='%Y-%m-%d',
1790
1705
                               show_offset=False)
1791
 
        committer_str = self.authors(revision.rev, 'first', sep=', ')
1792
 
        committer_str = committer_str.replace(' <', '  <')
1793
 
        to_file.write('%s  %s\n\n' % (date_str, committer_str))
 
1706
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
 
1707
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1794
1708
 
1795
1709
        if revision.delta is not None and revision.delta.has_changed():
1796
1710
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1797
 
                if c.path[0] is None:
1798
 
                    path = c.path[1]
1799
 
                else:
1800
 
                    path = c.path[0]
 
1711
                path, = c[:1]
1801
1712
                to_file.write('\t* %s:\n' % (path,))
1802
 
            for c in revision.delta.renamed + revision.delta.copied:
 
1713
            for c in revision.delta.renamed:
 
1714
                oldpath,newpath = c[:2]
1803
1715
                # For renamed files, show both the old and the new path
1804
 
                to_file.write('\t* %s:\n\t* %s:\n' % (c.path[0], c.path[1]))
 
1716
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1805
1717
            to_file.write('\n')
1806
1718
 
1807
1719
        if not revision.rev.message:
1830
1742
        return self.get(name)(*args, **kwargs)
1831
1743
 
1832
1744
    def get_default(self, branch):
1833
 
        c = branch.get_config_stack()
1834
 
        return self.get(c.get('log_format'))
 
1745
        return self.get(branch.get_config().log_format())
1835
1746
 
1836
1747
 
1837
1748
log_formatter_registry = LogFormatterRegistry()
1838
1749
 
1839
1750
 
1840
1751
log_formatter_registry.register('short', ShortLogFormatter,
1841
 
                                'Moderately short log format.')
 
1752
                                'Moderately short log format')
1842
1753
log_formatter_registry.register('long', LongLogFormatter,
1843
 
                                'Detailed log format.')
 
1754
                                'Detailed log format')
1844
1755
log_formatter_registry.register('line', LineLogFormatter,
1845
 
                                'Log format with one line per revision.')
 
1756
                                'Log format with one line per revision')
1846
1757
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1847
 
                                'Format used by GNU ChangeLog files.')
 
1758
                                'Format used by GNU ChangeLog files')
1848
1759
 
1849
1760
 
1850
1761
def register_formatter(name, formatter):
1860
1771
    try:
1861
1772
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
1862
1773
    except KeyError:
1863
 
        raise errors.BzrCommandError(
1864
 
            gettext("unknown log formatter: %r") % name)
1865
 
 
1866
 
 
1867
 
def author_list_all(rev):
1868
 
    return rev.get_apparent_authors()[:]
1869
 
 
1870
 
 
1871
 
def author_list_first(rev):
1872
 
    lst = rev.get_apparent_authors()
1873
 
    try:
1874
 
        return [lst[0]]
1875
 
    except IndexError:
1876
 
        return []
1877
 
 
1878
 
 
1879
 
def author_list_committer(rev):
1880
 
    return [rev.committer]
1881
 
 
1882
 
 
1883
 
author_list_registry = registry.Registry()
1884
 
 
1885
 
author_list_registry.register('all', author_list_all,
1886
 
                              'All authors')
1887
 
 
1888
 
author_list_registry.register('first', author_list_first,
1889
 
                              'The first author')
1890
 
 
1891
 
author_list_registry.register('committer', author_list_committer,
1892
 
                              'The committer')
 
1774
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
 
1775
 
 
1776
 
 
1777
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
 
1778
    # deprecated; for compatibility
 
1779
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
 
1780
    lf.show(revno, rev, delta)
1893
1781
 
1894
1782
 
1895
1783
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1903
1791
    """
1904
1792
    if to_file is None:
1905
1793
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1906
 
                                                            errors='replace')
 
1794
            errors='replace')
1907
1795
    lf = log_formatter(log_format,
1908
1796
                       show_ids=False,
1909
1797
                       to_file=to_file,
1912
1800
    # This is the first index which is different between
1913
1801
    # old and new
1914
1802
    base_idx = None
1915
 
    for i in range(max(len(new_rh), len(old_rh))):
 
1803
    for i in xrange(max(len(new_rh),
 
1804
                        len(old_rh))):
1916
1805
        if (len(new_rh) <= i
1917
1806
            or len(old_rh) <= i
1918
 
                or new_rh[i] != old_rh[i]):
 
1807
            or new_rh[i] != old_rh[i]):
1919
1808
            base_idx = i
1920
1809
            break
1921
1810
 
1922
1811
    if base_idx is None:
1923
1812
        to_file.write('Nothing seems to have changed\n')
1924
1813
        return
1925
 
    # TODO: It might be nice to do something like show_log
1926
 
    # and show the merged entries. But since this is the
1927
 
    # removed revisions, it shouldn't be as important
 
1814
    ## TODO: It might be nice to do something like show_log
 
1815
    ##       and show the merged entries. But since this is the
 
1816
    ##       removed revisions, it shouldn't be as important
1928
1817
    if base_idx < len(old_rh):
1929
 
        to_file.write('*' * 60)
 
1818
        to_file.write('*'*60)
1930
1819
        to_file.write('\nRemoved Revisions:\n')
1931
1820
        for i in range(base_idx, len(old_rh)):
1932
1821
            rev = branch.repository.get_revision(old_rh[i])
1933
 
            lr = LogRevision(rev, i + 1, 0, None)
 
1822
            lr = LogRevision(rev, i+1, 0, None)
1934
1823
            lf.log_revision(lr)
1935
 
        to_file.write('*' * 60)
 
1824
        to_file.write('*'*60)
1936
1825
        to_file.write('\n\n')
1937
1826
    if base_idx < len(new_rh):
1938
1827
        to_file.write('Added Revisions:\n')
1939
1828
        show_log(branch,
1940
1829
                 lf,
 
1830
                 None,
1941
1831
                 verbose=False,
1942
1832
                 direction='forward',
1943
 
                 start_revision=base_idx + 1,
 
1833
                 start_revision=base_idx+1,
1944
1834
                 end_revision=len(new_rh),
1945
1835
                 search=None)
1946
1836
 
1958
1848
    old_revisions = set()
1959
1849
    new_history = []
1960
1850
    new_revisions = set()
1961
 
    graph = repository.get_graph()
1962
 
    new_iter = graph.iter_lefthand_ancestry(new_revision_id)
1963
 
    old_iter = graph.iter_lefthand_ancestry(old_revision_id)
 
1851
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1852
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
1964
1853
    stop_revision = None
1965
1854
    do_old = True
1966
1855
    do_new = True
1967
1856
    while do_new or do_old:
1968
1857
        if do_new:
1969
1858
            try:
1970
 
                new_revision = next(new_iter)
 
1859
                new_revision = new_iter.next()
1971
1860
            except StopIteration:
1972
1861
                do_new = False
1973
1862
            else:
1978
1867
                    break
1979
1868
        if do_old:
1980
1869
            try:
1981
 
                old_revision = next(old_iter)
 
1870
                old_revision = old_iter.next()
1982
1871
            except StopIteration:
1983
1872
                do_old = False
1984
1873
            else:
2014
1903
    log_format = log_formatter_registry.get_default(branch)
2015
1904
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
2016
1905
    if old_history != []:
2017
 
        output.write('*' * 60)
 
1906
        output.write('*'*60)
2018
1907
        output.write('\nRemoved Revisions:\n')
2019
1908
        show_flat_log(branch.repository, old_history, old_revno, lf)
2020
 
        output.write('*' * 60)
 
1909
        output.write('*'*60)
2021
1910
        output.write('\n\n')
2022
1911
    if new_history != []:
2023
1912
        output.write('Added Revisions:\n')
2024
1913
        start_revno = new_revno - len(new_history) + 1
2025
 
        show_log(branch, lf, verbose=False, direction='forward',
2026
 
                 start_revision=start_revno)
 
1914
        show_log(branch, lf, None, verbose=False, direction='forward',
 
1915
                 start_revision=start_revno,)
2027
1916
 
2028
1917
 
2029
1918
def show_flat_log(repository, history, last_revno, lf):
2034
1923
    :param last_revno: The revno of the last revision_id in the history.
2035
1924
    :param lf: The log formatter to use.
2036
1925
    """
 
1926
    start_revno = last_revno - len(history) + 1
2037
1927
    revisions = repository.get_revisions(history)
2038
1928
    for i, rev in enumerate(revisions):
2039
1929
        lr = LogRevision(rev, i + last_revno, 0, None)
2040
1930
        lf.log_revision(lr)
2041
1931
 
2042
1932
 
2043
 
def _get_info_for_log_files(revisionspec_list, file_list, exit_stack):
 
1933
def _get_info_for_log_files(revisionspec_list, file_list):
2044
1934
    """Find file-ids and kinds given a list of files and a revision range.
2045
1935
 
2046
1936
    We search for files at the end of the range. If not found there,
2050
1940
    :param file_list: the list of paths given on the command line;
2051
1941
      the first of these can be a branch location or a file path,
2052
1942
      the remainder must be file paths
2053
 
    :param exit_stack: When the branch returned is read locked,
2054
 
      an unlock call will be queued to the exit stack.
2055
1943
    :return: (branch, info_list, start_rev_info, end_rev_info) where
2056
1944
      info_list is a list of (relative_path, file_id, kind) tuples where
2057
1945
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
2058
1946
      branch will be read-locked.
2059
1947
    """
2060
 
    from breezy.builtins import _get_revision_range
2061
 
    tree, b, path = controldir.ControlDir.open_containing_tree_or_branch(
2062
 
        file_list[0])
2063
 
    exit_stack.enter_context(b.lock_read())
 
1948
    from builtins import _get_revision_range, safe_relpath_files
 
1949
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
1950
    b.lock_read()
2064
1951
    # XXX: It's damn messy converting a list of paths to relative paths when
2065
1952
    # those paths might be deleted ones, they might be on a case-insensitive
2066
1953
    # filesystem and/or they might be in silly locations (like another branch).
2070
1957
    # case of running log in a nested directory, assuming paths beyond the
2071
1958
    # first one haven't been deleted ...
2072
1959
    if tree:
2073
 
        relpaths = [path] + tree.safe_relpath_files(file_list[1:])
 
1960
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
2074
1961
    else:
2075
1962
        relpaths = [path] + file_list[1:]
2076
1963
    info_list = []
2077
1964
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
2078
 
                                                       "log")
 
1965
        "log")
2079
1966
    if relpaths in ([], [u'']):
2080
1967
        return b, [], start_rev_info, end_rev_info
2081
1968
    if start_rev_info is None and end_rev_info is None:
2084
1971
        tree1 = None
2085
1972
        for fp in relpaths:
2086
1973
            file_id = tree.path2id(fp)
2087
 
            kind = _get_kind_for_file_id(tree, fp, file_id)
 
1974
            kind = _get_kind_for_file_id(tree, file_id)
2088
1975
            if file_id is None:
2089
1976
                # go back to when time began
2090
1977
                if tree1 is None:
2098
1985
                        tree1 = b.repository.revision_tree(rev1)
2099
1986
                if tree1:
2100
1987
                    file_id = tree1.path2id(fp)
2101
 
                    kind = _get_kind_for_file_id(tree1, fp, file_id)
 
1988
                    kind = _get_kind_for_file_id(tree1, file_id)
2102
1989
            info_list.append((fp, file_id, kind))
2103
1990
 
2104
1991
    elif start_rev_info == end_rev_info:
2106
1993
        tree = b.repository.revision_tree(end_rev_info.rev_id)
2107
1994
        for fp in relpaths:
2108
1995
            file_id = tree.path2id(fp)
2109
 
            kind = _get_kind_for_file_id(tree, fp, file_id)
 
1996
            kind = _get_kind_for_file_id(tree, file_id)
2110
1997
            info_list.append((fp, file_id, kind))
2111
1998
 
2112
1999
    else:
2120
2007
        tree1 = None
2121
2008
        for fp in relpaths:
2122
2009
            file_id = tree.path2id(fp)
2123
 
            kind = _get_kind_for_file_id(tree, fp, file_id)
 
2010
            kind = _get_kind_for_file_id(tree, file_id)
2124
2011
            if file_id is None:
2125
2012
                if tree1 is None:
2126
2013
                    rev_id = start_rev_info.rev_id
2130
2017
                    else:
2131
2018
                        tree1 = b.repository.revision_tree(rev_id)
2132
2019
                file_id = tree1.path2id(fp)
2133
 
                kind = _get_kind_for_file_id(tree1, fp, file_id)
 
2020
                kind = _get_kind_for_file_id(tree1, file_id)
2134
2021
            info_list.append((fp, file_id, kind))
2135
2022
    return b, info_list, start_rev_info, end_rev_info
2136
2023
 
2137
2024
 
2138
 
def _get_kind_for_file_id(tree, path, file_id):
 
2025
def _get_kind_for_file_id(tree, file_id):
2139
2026
    """Return the kind of a file-id or None if it doesn't exist."""
2140
2027
    if file_id is not None:
2141
 
        return tree.kind(path)
 
2028
        return tree.kind(file_id)
2142
2029
    else:
2143
2030
        return None
2144
2031
 
2146
2033
properties_handler_registry = registry.Registry()
2147
2034
 
2148
2035
# Use the properties handlers to print out bug information if available
2149
 
 
2150
 
 
2151
2036
def _bugs_properties_handler(revision):
2152
 
    fixed_bug_urls = []
2153
 
    related_bug_urls = []
2154
 
    for bug_url, status in revision.iter_bugs():
2155
 
        if status == 'fixed':
2156
 
            fixed_bug_urls.append(bug_url)
2157
 
        elif status == 'related':
2158
 
            related_bug_urls.append(bug_url)
2159
 
    ret = {}
2160
 
    if fixed_bug_urls:
2161
 
        text = ngettext('fixes bug', 'fixes bugs', len(fixed_bug_urls))
2162
 
        ret[text] = ' '.join(fixed_bug_urls)
2163
 
    if related_bug_urls:
2164
 
        text = ngettext('related bug', 'related bugs',
2165
 
                        len(related_bug_urls))
2166
 
        ret[text] = ' '.join(related_bug_urls)
2167
 
    return ret
 
2037
    if revision.properties.has_key('bugs'):
 
2038
        bug_lines = revision.properties['bugs'].split('\n')
 
2039
        bug_rows = [line.split(' ', 1) for line in bug_lines]
 
2040
        fixed_bug_urls = [row[0] for row in bug_rows if
 
2041
                          len(row) > 1 and row[1] == 'fixed']
2168
2042
 
 
2043
        if fixed_bug_urls:
 
2044
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
 
2045
    return {}
2169
2046
 
2170
2047
properties_handler_registry.register('bugs_properties_handler',
2171
2048
                                     _bugs_properties_handler)