/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to breezy/log.py

  • Committer: Jelmer Vernooij
  • Date: 2020-09-02 15:11:17 UTC
  • mto: (7490.40.109 work)
  • mto: This revision was merged to the branch mainline in revision 7526.
  • Revision ID: jelmer@jelmer.uk-20200902151117-jeu7tarbz3dkuju0
Move more transform code.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2010 Canonical Ltd
 
1
# Copyright (C) 2005-2011 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
 
 
18
 
 
19
17
"""Code to show logs of changes.
20
18
 
21
19
Various flavors of log can be produced:
26
24
* in "verbose" mode with a description of what changed from one
27
25
  version to the next
28
26
 
29
 
* with file-ids and revision-ids shown
 
27
* with files and revision-ids shown
30
28
 
31
29
Logs are actually written out through an abstract LogFormatter
32
30
interface, which allows for different preferred formats.  Plugins can
49
47
all the changes since the previous revision that touched hello.c.
50
48
"""
51
49
 
 
50
from __future__ import absolute_import
 
51
 
52
52
import codecs
53
 
from cStringIO import StringIO
54
 
from itertools import (
55
 
    chain,
56
 
    izip,
57
 
    )
 
53
import itertools
58
54
import re
59
55
import sys
60
56
from warnings import (
61
57
    warn,
62
58
    )
63
59
 
64
 
from bzrlib.lazy_import import lazy_import
 
60
from .lazy_import import lazy_import
65
61
lazy_import(globals(), """
66
62
 
67
 
from bzrlib import (
68
 
    bzrdir,
 
63
from breezy import (
69
64
    config,
 
65
    controldir,
70
66
    diff,
71
 
    errors,
72
67
    foreign,
73
 
    repository as _mod_repository,
 
68
    lazy_regex,
74
69
    revision as _mod_revision,
 
70
    )
 
71
from breezy.i18n import gettext, ngettext
 
72
""")
 
73
 
 
74
from . import (
 
75
    errors,
 
76
    registry,
75
77
    revisionspec,
76
78
    trace,
77
 
    tsort,
78
 
    )
79
 
""")
80
 
 
81
 
from bzrlib import (
82
 
    registry,
83
 
    )
84
 
from bzrlib.osutils import (
 
79
    )
 
80
from .osutils import (
85
81
    format_date,
86
82
    format_date_with_offset_in_original_timezone,
 
83
    get_diff_header_encoding,
87
84
    get_terminal_encoding,
88
 
    re_compile_checked,
 
85
    is_inside,
89
86
    terminal_width,
90
87
    )
91
 
from bzrlib.symbol_versioning import (
92
 
    deprecated_function,
93
 
    deprecated_in,
 
88
from .sixish import (
 
89
    BytesIO,
 
90
    range,
 
91
    zip,
94
92
    )
95
 
 
96
 
 
97
 
def find_touching_revisions(branch, file_id):
98
 
    """Yield a description of revisions which affect the file_id.
 
93
from .tree import InterTree
 
94
 
 
95
 
 
96
def find_touching_revisions(repository, last_revision, last_tree, last_path):
 
97
    """Yield a description of revisions which affect the file.
99
98
 
100
99
    Each returned element is (revno, revision_id, description)
101
100
 
105
104
    TODO: Perhaps some way to limit this to only particular revisions,
106
105
    or to traverse a non-mainline set of revisions?
107
106
    """
108
 
    last_ie = None
109
 
    last_path = None
110
 
    revno = 1
111
 
    for revision_id in branch.revision_history():
112
 
        this_inv = branch.repository.get_inventory(revision_id)
113
 
        if file_id in this_inv:
114
 
            this_ie = this_inv[file_id]
115
 
            this_path = this_inv.id2path(file_id)
116
 
        else:
117
 
            this_ie = this_path = None
 
107
    last_verifier = last_tree.get_file_verifier(last_path)
 
108
    graph = repository.get_graph()
 
109
    history = list(graph.iter_lefthand_ancestry(last_revision, []))
 
110
    revno = len(history)
 
111
    for revision_id in history:
 
112
        this_tree = repository.revision_tree(revision_id)
 
113
        this_intertree = InterTree.get(this_tree, last_tree)
 
114
        this_path = this_intertree.find_source_path(last_path)
118
115
 
119
116
        # now we know how it was last time, and how it is in this revision.
120
117
        # are those two states effectively the same or not?
121
 
 
122
 
        if not this_ie and not last_ie:
123
 
            # not present in either
124
 
            pass
125
 
        elif this_ie and not last_ie:
126
 
            yield revno, revision_id, "added " + this_path
127
 
        elif not this_ie and last_ie:
128
 
            # deleted here
129
 
            yield revno, revision_id, "deleted " + last_path
 
118
        if this_path is not None and last_path is None:
 
119
            yield revno, revision_id, "deleted " + this_path
 
120
            this_verifier = this_tree.get_file_verifier(this_path)
 
121
        elif this_path is None and last_path is not None:
 
122
            yield revno, revision_id, "added " + last_path
130
123
        elif this_path != last_path:
131
 
            yield revno, revision_id, ("renamed %s => %s" % (last_path, this_path))
132
 
        elif (this_ie.text_size != last_ie.text_size
133
 
              or this_ie.text_sha1 != last_ie.text_sha1):
134
 
            yield revno, revision_id, "modified " + this_path
 
124
            yield revno, revision_id, ("renamed %s => %s" % (this_path, last_path))
 
125
            this_verifier = this_tree.get_file_verifier(this_path)
 
126
        else:
 
127
            this_verifier = this_tree.get_file_verifier(this_path)
 
128
            if (this_verifier != last_verifier):
 
129
                yield revno, revision_id, "modified " + this_path
135
130
 
136
 
        last_ie = this_ie
 
131
        last_verifier = this_verifier
137
132
        last_path = this_path
138
 
        revno += 1
139
 
 
140
 
 
141
 
def _enumerate_history(branch):
142
 
    rh = []
143
 
    revno = 1
144
 
    for rev_id in branch.revision_history():
145
 
        rh.append((revno, rev_id))
146
 
        revno += 1
147
 
    return rh
 
133
        last_tree = this_tree
 
134
        if last_path is None:
 
135
            return
 
136
        revno -= 1
148
137
 
149
138
 
150
139
def show_log(branch,
151
140
             lf,
152
 
             specific_fileid=None,
153
141
             verbose=False,
154
142
             direction='reverse',
155
143
             start_revision=None,
156
144
             end_revision=None,
157
 
             search=None,
158
145
             limit=None,
159
 
             show_diff=False):
 
146
             show_diff=False,
 
147
             match=None):
160
148
    """Write out human-readable log of commits to this branch.
161
149
 
162
150
    This function is being retained for backwards compatibility but
166
154
 
167
155
    :param lf: The LogFormatter object showing the output.
168
156
 
169
 
    :param specific_fileid: If not None, list only the commits affecting the
170
 
        specified file, rather than all commits.
171
 
 
172
157
    :param verbose: If True show added/changed/deleted/renamed files.
173
158
 
174
159
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
178
163
 
179
164
    :param end_revision: If not None, only show revisions <= end_revision
180
165
 
181
 
    :param search: If not None, only show revisions with matching commit
182
 
        messages
183
 
 
184
166
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
185
167
        if None or 0.
186
168
 
187
169
    :param show_diff: If True, output a diff after each revision.
 
170
 
 
171
    :param match: Dictionary of search lists to use when matching revision
 
172
      properties.
188
173
    """
189
 
    # Convert old-style parameters to new-style parameters
190
 
    if specific_fileid is not None:
191
 
        file_ids = [specific_fileid]
192
 
    else:
193
 
        file_ids = None
194
174
    if verbose:
195
 
        if file_ids:
196
 
            delta_type = 'partial'
197
 
        else:
198
 
            delta_type = 'full'
 
175
        delta_type = 'full'
199
176
    else:
200
177
        delta_type = None
201
178
    if show_diff:
202
 
        if file_ids:
203
 
            diff_type = 'partial'
204
 
        else:
205
 
            diff_type = 'full'
 
179
        diff_type = 'full'
206
180
    else:
207
181
        diff_type = None
208
182
 
 
183
    if isinstance(start_revision, int):
 
184
        try:
 
185
            start_revision = revisionspec.RevisionInfo(branch, start_revision)
 
186
        except (errors.NoSuchRevision, errors.RevnoOutOfBounds):
 
187
            raise errors.InvalidRevisionNumber(start_revision)
 
188
 
 
189
    if isinstance(end_revision, int):
 
190
        try:
 
191
            end_revision = revisionspec.RevisionInfo(branch, end_revision)
 
192
        except (errors.NoSuchRevision, errors.RevnoOutOfBounds):
 
193
            raise errors.InvalidRevisionNumber(end_revision)
 
194
 
 
195
    if end_revision is not None and end_revision.revno == 0:
 
196
        raise errors.InvalidRevisionNumber(end_revision.revno)
 
197
 
209
198
    # Build the request and execute it
210
 
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
 
199
    rqst = make_log_request_dict(
 
200
        direction=direction,
211
201
        start_revision=start_revision, end_revision=end_revision,
212
 
        limit=limit, message_search=search,
213
 
        delta_type=delta_type, diff_type=diff_type)
 
202
        limit=limit, delta_type=delta_type, diff_type=diff_type)
214
203
    Logger(branch, rqst).show(lf)
215
204
 
216
205
 
217
 
# Note: This needs to be kept this in sync with the defaults in
 
206
# Note: This needs to be kept in sync with the defaults in
218
207
# make_log_request_dict() below
219
208
_DEFAULT_REQUEST_PARAMS = {
220
209
    'direction': 'reverse',
221
 
    'levels': 1,
 
210
    'levels': None,
222
211
    'generate_tags': True,
223
212
    'exclude_common_ancestry': False,
224
213
    '_match_using_deltas': True,
225
214
    }
226
215
 
227
216
 
228
 
def make_log_request_dict(direction='reverse', specific_fileids=None,
 
217
def make_log_request_dict(direction='reverse', specific_files=None,
229
218
                          start_revision=None, end_revision=None, limit=None,
230
 
                          message_search=None, levels=1, generate_tags=True,
 
219
                          message_search=None, levels=None, generate_tags=True,
231
220
                          delta_type=None,
232
221
                          diff_type=None, _match_using_deltas=True,
233
 
                          exclude_common_ancestry=False,
 
222
                          exclude_common_ancestry=False, match=None,
 
223
                          signature=False, omit_merges=False,
234
224
                          ):
235
225
    """Convenience function for making a logging request dictionary.
236
226
 
241
231
    :param direction: 'reverse' (default) is latest to earliest;
242
232
      'forward' is earliest to latest.
243
233
 
244
 
    :param specific_fileids: If not None, only include revisions
 
234
    :param specific_files: If not None, only include revisions
245
235
      affecting the specified files, rather than all revisions.
246
236
 
247
237
    :param start_revision: If not None, only generate
257
247
      matching commit messages
258
248
 
259
249
    :param levels: the number of levels of revisions to
260
 
      generate; 1 for just the mainline; 0 for all levels.
 
250
      generate; 1 for just the mainline; 0 for all levels, or None for
 
251
      a sensible default.
261
252
 
262
253
    :param generate_tags: If True, include tags for matched revisions.
263
 
 
 
254
`
264
255
    :param delta_type: Either 'full', 'partial' or None.
265
256
      'full' means generate the complete delta - adds/deletes/modifies/etc;
266
 
      'partial' means filter the delta using specific_fileids;
 
257
      'partial' means filter the delta using specific_files;
267
258
      None means do not generate any delta.
268
259
 
269
260
    :param diff_type: Either 'full', 'partial' or None.
270
261
      'full' means generate the complete diff - adds/deletes/modifies/etc;
271
 
      'partial' means filter the diff using specific_fileids;
 
262
      'partial' means filter the diff using specific_files;
272
263
      None means do not generate any diff.
273
264
 
274
265
    :param _match_using_deltas: a private parameter controlling the
275
 
      algorithm used for matching specific_fileids. This parameter
276
 
      may be removed in the future so bzrlib client code should NOT
 
266
      algorithm used for matching specific_files. This parameter
 
267
      may be removed in the future so breezy client code should NOT
277
268
      use it.
278
269
 
279
270
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
280
271
      range operator or as a graph difference.
 
272
 
 
273
    :param signature: show digital signature information
 
274
 
 
275
    :param match: Dictionary of list of search strings to use when filtering
 
276
      revisions. Keys can be 'message', 'author', 'committer', 'bugs' or
 
277
      the empty string to match any of the preceding properties.
 
278
 
 
279
    :param omit_merges: If True, commits with more than one parent are
 
280
      omitted.
 
281
 
281
282
    """
 
283
    # Take care of old style message_search parameter
 
284
    if message_search:
 
285
        if match:
 
286
            if 'message' in match:
 
287
                match['message'].append(message_search)
 
288
            else:
 
289
                match['message'] = [message_search]
 
290
        else:
 
291
            match = {'message': [message_search]}
282
292
    return {
283
293
        'direction': direction,
284
 
        'specific_fileids': specific_fileids,
 
294
        'specific_files': specific_files,
285
295
        'start_revision': start_revision,
286
296
        'end_revision': end_revision,
287
297
        'limit': limit,
288
 
        'message_search': message_search,
289
298
        'levels': levels,
290
299
        'generate_tags': generate_tags,
291
300
        'delta_type': delta_type,
292
301
        'diff_type': diff_type,
293
302
        'exclude_common_ancestry': exclude_common_ancestry,
 
303
        'signature': signature,
 
304
        'match': match,
 
305
        'omit_merges': omit_merges,
294
306
        # Add 'private' attributes for features that may be deprecated
295
307
        '_match_using_deltas': _match_using_deltas,
296
308
    }
298
310
 
299
311
def _apply_log_request_defaults(rqst):
300
312
    """Apply default values to a request dictionary."""
301
 
    result = _DEFAULT_REQUEST_PARAMS
 
313
    result = _DEFAULT_REQUEST_PARAMS.copy()
302
314
    if rqst:
303
315
        result.update(rqst)
304
316
    return result
305
317
 
306
318
 
 
319
def format_signature_validity(rev_id, branch):
 
320
    """get the signature validity
 
321
 
 
322
    :param rev_id: revision id to validate
 
323
    :param branch: branch of revision
 
324
    :return: human readable string to print to log
 
325
    """
 
326
    from breezy import gpg
 
327
 
 
328
    gpg_strategy = gpg.GPGStrategy(branch.get_config_stack())
 
329
    result = branch.repository.verify_revision_signature(rev_id, gpg_strategy)
 
330
    if result[0] == gpg.SIGNATURE_VALID:
 
331
        return u"valid signature from {0}".format(result[1])
 
332
    if result[0] == gpg.SIGNATURE_KEY_MISSING:
 
333
        return "unknown key {0}".format(result[1])
 
334
    if result[0] == gpg.SIGNATURE_NOT_VALID:
 
335
        return "invalid signature!"
 
336
    if result[0] == gpg.SIGNATURE_NOT_SIGNED:
 
337
        return "no signature"
 
338
 
 
339
 
307
340
class LogGenerator(object):
308
341
    """A generator of log revisions."""
309
342
 
336
369
        if not isinstance(lf, LogFormatter):
337
370
            warn("not a LogFormatter instance: %r" % lf)
338
371
 
339
 
        self.branch.lock_read()
340
 
        try:
 
372
        with self.branch.lock_read():
341
373
            if getattr(lf, 'begin_log', None):
342
374
                lf.begin_log()
343
375
            self._show_body(lf)
344
376
            if getattr(lf, 'end_log', None):
345
377
                lf.end_log()
346
 
        finally:
347
 
            self.branch.unlock()
348
378
 
349
379
    def _show_body(self, lf):
350
380
        """Show the main log output.
354
384
        # Tweak the LogRequest based on what the LogFormatter can handle.
355
385
        # (There's no point generating stuff if the formatter can't display it.)
356
386
        rqst = self.rqst
357
 
        rqst['levels'] = lf.get_levels()
 
387
        if rqst['levels'] is None or lf.get_levels() > rqst['levels']:
 
388
            # user didn't specify levels, use whatever the LF can handle:
 
389
            rqst['levels'] = lf.get_levels()
 
390
 
358
391
        if not getattr(lf, 'supports_tags', False):
359
392
            rqst['generate_tags'] = False
360
393
        if not getattr(lf, 'supports_delta', False):
361
394
            rqst['delta_type'] = None
362
395
        if not getattr(lf, 'supports_diff', False):
363
396
            rqst['diff_type'] = None
 
397
        if not getattr(lf, 'supports_signatures', False):
 
398
            rqst['signature'] = False
364
399
 
365
400
        # Find and print the interesting revisions
366
401
        generator = self._generator_factory(self.branch, rqst)
367
 
        for lr in generator.iter_log_revisions():
368
 
            lf.log_revision(lr)
 
402
        try:
 
403
            for lr in generator.iter_log_revisions():
 
404
                lf.log_revision(lr)
 
405
        except errors.GhostRevisionUnusableHere:
 
406
            raise errors.CommandError(
 
407
                gettext('Further revision history missing.'))
369
408
        lf.show_advice()
370
409
 
371
410
    def _generator_factory(self, branch, rqst):
372
411
        """Make the LogGenerator object to use.
373
 
        
 
412
 
374
413
        Subclasses may wish to override this.
375
414
        """
376
 
        return _DefaultLogGenerator(branch, rqst)
 
415
        return _DefaultLogGenerator(branch, **rqst)
 
416
 
 
417
 
 
418
def _log_revision_iterator_using_per_file_graph(
 
419
        branch, delta_type, match, levels, path, start_rev_id, end_rev_id,
 
420
        direction, exclude_common_ancestry):
 
421
    # Get the base revisions, filtering by the revision range.
 
422
    # Note that we always generate the merge revisions because
 
423
    # filter_revisions_touching_path() requires them ...
 
424
    view_revisions = _calc_view_revisions(
 
425
        branch, start_rev_id, end_rev_id,
 
426
        direction, generate_merge_revisions=True,
 
427
        exclude_common_ancestry=exclude_common_ancestry)
 
428
    if not isinstance(view_revisions, list):
 
429
        view_revisions = list(view_revisions)
 
430
    view_revisions = _filter_revisions_touching_path(
 
431
        branch, path, view_revisions,
 
432
        include_merges=levels != 1)
 
433
    return make_log_rev_iterator(
 
434
        branch, view_revisions, delta_type, match)
 
435
 
 
436
 
 
437
def _log_revision_iterator_using_delta_matching(
 
438
        branch, delta_type, match, levels, specific_files, start_rev_id, end_rev_id,
 
439
        direction, exclude_common_ancestry, limit):
 
440
    # Get the base revisions, filtering by the revision range
 
441
    generate_merge_revisions = levels != 1
 
442
    delayed_graph_generation = not specific_files and (
 
443
        limit or start_rev_id or end_rev_id)
 
444
    view_revisions = _calc_view_revisions(
 
445
        branch, start_rev_id, end_rev_id,
 
446
        direction,
 
447
        generate_merge_revisions=generate_merge_revisions,
 
448
        delayed_graph_generation=delayed_graph_generation,
 
449
        exclude_common_ancestry=exclude_common_ancestry)
 
450
 
 
451
    # Apply the other filters
 
452
    return make_log_rev_iterator(branch, view_revisions,
 
453
                                 delta_type, match,
 
454
                                 files=specific_files,
 
455
                                 direction=direction)
 
456
 
 
457
 
 
458
def _format_diff(branch, rev, diff_type, files=None):
 
459
    """Format a diff.
 
460
 
 
461
    :param branch: Branch object
 
462
    :param rev: Revision object
 
463
    :param diff_type: Type of diff to generate
 
464
    :param files: List of files to generate diff for (or None for all)
 
465
    """
 
466
    repo = branch.repository
 
467
    if len(rev.parent_ids) == 0:
 
468
        ancestor_id = _mod_revision.NULL_REVISION
 
469
    else:
 
470
        ancestor_id = rev.parent_ids[0]
 
471
    tree_1 = repo.revision_tree(ancestor_id)
 
472
    tree_2 = repo.revision_tree(rev.revision_id)
 
473
    if diff_type == 'partial' and files is not None:
 
474
        specific_files = files
 
475
    else:
 
476
        specific_files = None
 
477
    s = BytesIO()
 
478
    path_encoding = get_diff_header_encoding()
 
479
    diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
480
                         new_label='', path_encoding=path_encoding)
 
481
    return s.getvalue()
377
482
 
378
483
 
379
484
class _StartNotLinearAncestor(Exception):
383
488
class _DefaultLogGenerator(LogGenerator):
384
489
    """The default generator of log revisions."""
385
490
 
386
 
    def __init__(self, branch, rqst):
 
491
    def __init__(
 
492
            self, branch, levels=None, limit=None, diff_type=None,
 
493
            delta_type=None, show_signature=None, omit_merges=None,
 
494
            generate_tags=None, specific_files=None, match=None,
 
495
            start_revision=None, end_revision=None, direction=None,
 
496
            exclude_common_ancestry=None, _match_using_deltas=None,
 
497
            signature=None):
387
498
        self.branch = branch
388
 
        self.rqst = rqst
389
 
        if rqst.get('generate_tags') and branch.supports_tags():
 
499
        self.levels = levels
 
500
        self.limit = limit
 
501
        self.diff_type = diff_type
 
502
        self.delta_type = delta_type
 
503
        self.show_signature = signature
 
504
        self.omit_merges = omit_merges
 
505
        self.specific_files = specific_files
 
506
        self.match = match
 
507
        self.start_revision = start_revision
 
508
        self.end_revision = end_revision
 
509
        self.direction = direction
 
510
        self.exclude_common_ancestry = exclude_common_ancestry
 
511
        self._match_using_deltas = _match_using_deltas
 
512
        if generate_tags and branch.supports_tags():
390
513
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
391
514
        else:
392
515
            self.rev_tag_dict = {}
396
519
 
397
520
        :return: An iterator yielding LogRevision objects.
398
521
        """
399
 
        rqst = self.rqst
400
 
        levels = rqst.get('levels')
401
 
        limit = rqst.get('limit')
402
 
        diff_type = rqst.get('diff_type')
403
522
        log_count = 0
404
523
        revision_iterator = self._create_log_revision_iterator()
405
524
        for revs in revision_iterator:
406
525
            for (rev_id, revno, merge_depth), rev, delta in revs:
407
526
                # 0 levels means show everything; merge_depth counts from 0
408
 
                if levels != 0 and merge_depth >= levels:
409
 
                    continue
410
 
                if diff_type is None:
 
527
                if (self.levels != 0 and merge_depth is not None and
 
528
                        merge_depth >= self.levels):
 
529
                    continue
 
530
                if self.omit_merges and len(rev.parent_ids) > 1:
 
531
                    continue
 
532
                if rev is None:
 
533
                    raise errors.GhostRevisionUnusableHere(rev_id)
 
534
                if self.diff_type is None:
411
535
                    diff = None
412
536
                else:
413
 
                    diff = self._format_diff(rev, rev_id, diff_type)
414
 
                yield LogRevision(rev, revno, merge_depth, delta,
415
 
                    self.rev_tag_dict.get(rev_id), diff)
416
 
                if limit:
 
537
                    diff = _format_diff(
 
538
                        self.branch, rev, self.diff_type,
 
539
                        self.specific_files)
 
540
                if self.show_signature:
 
541
                    signature = format_signature_validity(rev_id, self.branch)
 
542
                else:
 
543
                    signature = None
 
544
                yield LogRevision(
 
545
                    rev, revno, merge_depth, delta,
 
546
                    self.rev_tag_dict.get(rev_id), diff, signature)
 
547
                if self.limit:
417
548
                    log_count += 1
418
 
                    if log_count >= limit:
 
549
                    if log_count >= self.limit:
419
550
                        return
420
551
 
421
 
    def _format_diff(self, rev, rev_id, diff_type):
422
 
        repo = self.branch.repository
423
 
        if len(rev.parent_ids) == 0:
424
 
            ancestor_id = _mod_revision.NULL_REVISION
425
 
        else:
426
 
            ancestor_id = rev.parent_ids[0]
427
 
        tree_1 = repo.revision_tree(ancestor_id)
428
 
        tree_2 = repo.revision_tree(rev_id)
429
 
        file_ids = self.rqst.get('specific_fileids')
430
 
        if diff_type == 'partial' and file_ids is not None:
431
 
            specific_files = [tree_2.id2path(id) for id in file_ids]
432
 
        else:
433
 
            specific_files = None
434
 
        s = StringIO()
435
 
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
436
 
            new_label='')
437
 
        return s.getvalue()
438
 
 
439
552
    def _create_log_revision_iterator(self):
440
553
        """Create a revision iterator for log.
441
554
 
442
555
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
443
556
            delta).
444
557
        """
445
 
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
446
 
            self.branch, self.rqst.get('start_revision'),
447
 
            self.rqst.get('end_revision'))
448
 
        if self.rqst.get('_match_using_deltas'):
449
 
            return self._log_revision_iterator_using_delta_matching()
 
558
        start_rev_id, end_rev_id = _get_revision_limits(
 
559
            self.branch, self.start_revision, self.end_revision)
 
560
        if self._match_using_deltas:
 
561
            return _log_revision_iterator_using_delta_matching(
 
562
                self.branch,
 
563
                delta_type=self.delta_type,
 
564
                match=self.match,
 
565
                levels=self.levels,
 
566
                specific_files=self.specific_files,
 
567
                start_rev_id=start_rev_id, end_rev_id=end_rev_id,
 
568
                direction=self.direction,
 
569
                exclude_common_ancestry=self.exclude_common_ancestry,
 
570
                limit=self.limit)
450
571
        else:
451
572
            # We're using the per-file-graph algorithm. This scales really
452
573
            # well but only makes sense if there is a single file and it's
453
574
            # not a directory
454
 
            file_count = len(self.rqst.get('specific_fileids'))
 
575
            file_count = len(self.specific_files)
455
576
            if file_count != 1:
456
 
                raise BzrError("illegal LogRequest: must match-using-deltas "
 
577
                raise errors.BzrError(
 
578
                    "illegal LogRequest: must match-using-deltas "
457
579
                    "when logging %d files" % file_count)
458
 
            return self._log_revision_iterator_using_per_file_graph()
459
 
 
460
 
    def _log_revision_iterator_using_delta_matching(self):
461
 
        # Get the base revisions, filtering by the revision range
462
 
        rqst = self.rqst
463
 
        generate_merge_revisions = rqst.get('levels') != 1
464
 
        delayed_graph_generation = not rqst.get('specific_fileids') and (
465
 
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
466
 
        view_revisions = _calc_view_revisions(
467
 
            self.branch, self.start_rev_id, self.end_rev_id,
468
 
            rqst.get('direction'),
469
 
            generate_merge_revisions=generate_merge_revisions,
470
 
            delayed_graph_generation=delayed_graph_generation,
471
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
472
 
 
473
 
        # Apply the other filters
474
 
        return make_log_rev_iterator(self.branch, view_revisions,
475
 
            rqst.get('delta_type'), rqst.get('message_search'),
476
 
            file_ids=rqst.get('specific_fileids'),
477
 
            direction=rqst.get('direction'))
478
 
 
479
 
    def _log_revision_iterator_using_per_file_graph(self):
480
 
        # Get the base revisions, filtering by the revision range.
481
 
        # Note that we always generate the merge revisions because
482
 
        # filter_revisions_touching_file_id() requires them ...
483
 
        rqst = self.rqst
484
 
        view_revisions = _calc_view_revisions(
485
 
            self.branch, self.start_rev_id, self.end_rev_id,
486
 
            rqst.get('direction'), generate_merge_revisions=True,
487
 
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
488
 
        if not isinstance(view_revisions, list):
489
 
            view_revisions = list(view_revisions)
490
 
        view_revisions = _filter_revisions_touching_file_id(self.branch,
491
 
            rqst.get('specific_fileids')[0], view_revisions,
492
 
            include_merges=rqst.get('levels') != 1)
493
 
        return make_log_rev_iterator(self.branch, view_revisions,
494
 
            rqst.get('delta_type'), rqst.get('message_search'))
 
580
            return _log_revision_iterator_using_per_file_graph(
 
581
                self.branch,
 
582
                delta_type=self.delta_type,
 
583
                match=self.match,
 
584
                levels=self.levels,
 
585
                path=self.specific_files[0],
 
586
                start_rev_id=start_rev_id, end_rev_id=end_rev_id,
 
587
                direction=self.direction,
 
588
                exclude_common_ancestry=self.exclude_common_ancestry
 
589
                )
495
590
 
496
591
 
497
592
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
505
600
             a list of the same tuples.
506
601
    """
507
602
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
508
 
        raise errors.BzrCommandError(
509
 
            '--exclude-common-ancestry requires two different revisions')
 
603
        raise errors.CommandError(gettext(
 
604
            '--exclude-common-ancestry requires two different revisions'))
510
605
    if direction not in ('reverse', 'forward'):
511
 
        raise ValueError('invalid direction %r' % direction)
512
 
    br_revno, br_rev_id = branch.last_revision_info()
513
 
    if br_revno == 0:
 
606
        raise ValueError(gettext('invalid direction %r') % direction)
 
607
    br_rev_id = branch.last_revision()
 
608
    if br_rev_id == _mod_revision.NULL_REVISION:
514
609
        return []
515
610
 
516
611
    if (end_rev_id and start_rev_id == end_rev_id
517
612
        and (not generate_merge_revisions
518
613
             or not _has_merges(branch, end_rev_id))):
519
614
        # If a single revision is requested, check we can handle it
520
 
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
521
 
                                           br_revno)
522
 
    elif not generate_merge_revisions:
523
 
        # If we only want to see linear revisions, we can iterate ...
524
 
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
525
 
                                             direction)
526
 
        if direction == 'forward':
527
 
            iter_revs = reversed(iter_revs)
528
 
    else:
529
 
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
530
 
                                            direction, delayed_graph_generation,
531
 
                                            exclude_common_ancestry)
532
 
        if direction == 'forward':
533
 
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
 
615
        return _generate_one_revision(branch, end_rev_id, br_rev_id,
 
616
                                      branch.revno())
 
617
    if not generate_merge_revisions:
 
618
        try:
 
619
            # If we only want to see linear revisions, we can iterate ...
 
620
            iter_revs = _linear_view_revisions(
 
621
                branch, start_rev_id, end_rev_id,
 
622
                exclude_common_ancestry=exclude_common_ancestry)
 
623
            # If a start limit was given and it's not obviously an
 
624
            # ancestor of the end limit, check it before outputting anything
 
625
            if (direction == 'forward'
 
626
                or (start_rev_id and not _is_obvious_ancestor(
 
627
                    branch, start_rev_id, end_rev_id))):
 
628
                iter_revs = list(iter_revs)
 
629
            if direction == 'forward':
 
630
                iter_revs = reversed(iter_revs)
 
631
            return iter_revs
 
632
        except _StartNotLinearAncestor:
 
633
            # Switch to the slower implementation that may be able to find a
 
634
            # non-obvious ancestor out of the left-hand history.
 
635
            pass
 
636
    iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
637
                                        direction, delayed_graph_generation,
 
638
                                        exclude_common_ancestry)
 
639
    if direction == 'forward':
 
640
        iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
534
641
    return iter_revs
535
642
 
536
643
 
539
646
        # It's the tip
540
647
        return [(br_rev_id, br_revno, 0)]
541
648
    else:
542
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
543
 
        revno_str = '.'.join(str(n) for n in revno)
 
649
        revno_str = _compute_revno_str(branch, rev_id)
544
650
        return [(rev_id, revno_str, 0)]
545
651
 
546
652
 
547
 
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
548
 
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
549
 
    # If a start limit was given and it's not obviously an
550
 
    # ancestor of the end limit, check it before outputting anything
551
 
    if direction == 'forward' or (start_rev_id
552
 
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
553
 
        try:
554
 
            result = list(result)
555
 
        except _StartNotLinearAncestor:
556
 
            raise errors.BzrCommandError('Start revision not found in'
557
 
                ' left-hand history of end revision.')
558
 
    return result
559
 
 
560
 
 
561
653
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
562
654
                            delayed_graph_generation,
563
655
                            exclude_common_ancestry=False):
571
663
    initial_revisions = []
572
664
    if delayed_graph_generation:
573
665
        try:
574
 
            for rev_id, revno, depth in  _linear_view_revisions(
575
 
                branch, start_rev_id, end_rev_id):
 
666
            for rev_id, revno, depth in _linear_view_revisions(
 
667
                    branch, start_rev_id, end_rev_id, exclude_common_ancestry):
576
668
                if _has_merges(branch, rev_id):
577
669
                    # The end_rev_id can be nested down somewhere. We need an
578
670
                    # explicit ancestry check. There is an ambiguity here as we
585
677
                    # -- vila 20100319
586
678
                    graph = branch.repository.get_graph()
587
679
                    if (start_rev_id is not None
588
 
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
680
                            and not graph.is_ancestor(start_rev_id, end_rev_id)):
589
681
                        raise _StartNotLinearAncestor()
590
682
                    # Since we collected the revisions so far, we need to
591
683
                    # adjust end_rev_id.
599
691
        except _StartNotLinearAncestor:
600
692
            # A merge was never detected so the lower revision limit can't
601
693
            # be nested down somewhere
602
 
            raise errors.BzrCommandError('Start revision not found in'
603
 
                ' history of end revision.')
 
694
            raise errors.CommandError(gettext('Start revision not found in'
 
695
                                                 ' history of end revision.'))
604
696
 
605
697
    # We exit the loop above because we encounter a revision with merges, from
606
698
    # this revision, we need to switch to _graph_view_revisions.
610
702
    # shown naturally, i.e. just like it is for linear logging. We can easily
611
703
    # make forward the exact opposite display, but showing the merge revisions
612
704
    # indented at the end seems slightly nicer in that case.
613
 
    view_revisions = chain(iter(initial_revisions),
614
 
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
615
 
                              rebase_initial_depths=(direction == 'reverse'),
616
 
                              exclude_common_ancestry=exclude_common_ancestry))
 
705
    view_revisions = itertools.chain(iter(initial_revisions),
 
706
                                     _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
707
                                                           rebase_initial_depths=(
 
708
                                                               direction == 'reverse'),
 
709
                                                           exclude_common_ancestry=exclude_common_ancestry))
617
710
    return view_revisions
618
711
 
619
712
 
623
716
    return len(parents) > 1
624
717
 
625
718
 
 
719
def _compute_revno_str(branch, rev_id):
 
720
    """Compute the revno string from a rev_id.
 
721
 
 
722
    :return: The revno string, or None if the revision is not in the supplied
 
723
        branch.
 
724
    """
 
725
    try:
 
726
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
727
    except errors.NoSuchRevision:
 
728
        # The revision must be outside of this branch
 
729
        return None
 
730
    else:
 
731
        return '.'.join(str(n) for n in revno)
 
732
 
 
733
 
626
734
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
627
735
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
628
736
    if start_rev_id and end_rev_id:
629
 
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
630
 
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
737
        try:
 
738
            start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
739
            end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
 
740
        except errors.NoSuchRevision:
 
741
            # one or both is not in the branch; not obvious
 
742
            return False
631
743
        if len(start_dotted) == 1 and len(end_dotted) == 1:
632
744
            # both on mainline
633
745
            return start_dotted[0] <= end_dotted[0]
634
746
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
635
 
            start_dotted[0:1] == end_dotted[0:1]):
 
747
              start_dotted[0:1] == end_dotted[0:1]):
636
748
            # both on same development line
637
749
            return start_dotted[2] <= end_dotted[2]
638
750
        else:
643
755
    return True
644
756
 
645
757
 
646
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
 
758
def _linear_view_revisions(branch, start_rev_id, end_rev_id,
 
759
                           exclude_common_ancestry=False):
647
760
    """Calculate a sequence of revisions to view, newest to oldest.
648
761
 
649
762
    :param start_rev_id: the lower revision-id
650
763
    :param end_rev_id: the upper revision-id
 
764
    :param exclude_common_ancestry: Whether the start_rev_id should be part of
 
765
        the iterated revisions.
651
766
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
 
767
        dotted_revno will be None for ghosts
652
768
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
653
 
      is not found walking the left-hand history
 
769
        is not found walking the left-hand history
654
770
    """
655
 
    br_revno, br_rev_id = branch.last_revision_info()
656
771
    repo = branch.repository
 
772
    graph = repo.get_graph()
657
773
    if start_rev_id is None and end_rev_id is None:
658
 
        cur_revno = br_revno
659
 
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
660
 
            yield revision_id, str(cur_revno), 0
661
 
            cur_revno -= 1
 
774
        if branch._format.stores_revno() or \
 
775
                config.GlobalStack().get('calculate_revnos'):
 
776
            try:
 
777
                br_revno, br_rev_id = branch.last_revision_info()
 
778
            except errors.GhostRevisionsHaveNoRevno:
 
779
                br_rev_id = branch.last_revision()
 
780
                cur_revno = None
 
781
            else:
 
782
                cur_revno = br_revno
 
783
        else:
 
784
            br_rev_id = branch.last_revision()
 
785
            cur_revno = None
 
786
 
 
787
        graph_iter = graph.iter_lefthand_ancestry(br_rev_id,
 
788
                                                  (_mod_revision.NULL_REVISION,))
 
789
        while True:
 
790
            try:
 
791
                revision_id = next(graph_iter)
 
792
            except errors.RevisionNotPresent as e:
 
793
                # Oops, a ghost.
 
794
                yield e.revision_id, None, None
 
795
                break
 
796
            except StopIteration:
 
797
                break
 
798
            else:
 
799
                yield revision_id, str(cur_revno) if cur_revno is not None else None, 0
 
800
                if cur_revno is not None:
 
801
                    cur_revno -= 1
662
802
    else:
 
803
        br_rev_id = branch.last_revision()
663
804
        if end_rev_id is None:
664
805
            end_rev_id = br_rev_id
665
806
        found_start = start_rev_id is None
666
 
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
667
 
            revno = branch.revision_id_to_dotted_revno(revision_id)
668
 
            revno_str = '.'.join(str(n) for n in revno)
669
 
            if not found_start and revision_id == start_rev_id:
670
 
                yield revision_id, revno_str, 0
671
 
                found_start = True
 
807
        graph_iter = graph.iter_lefthand_ancestry(end_rev_id,
 
808
                                                  (_mod_revision.NULL_REVISION,))
 
809
        while True:
 
810
            try:
 
811
                revision_id = next(graph_iter)
 
812
            except StopIteration:
 
813
                break
 
814
            except errors.RevisionNotPresent as e:
 
815
                # Oops, a ghost.
 
816
                yield e.revision_id, None, None
672
817
                break
673
818
            else:
674
 
                yield revision_id, revno_str, 0
675
 
        else:
676
 
            if not found_start:
677
 
                raise _StartNotLinearAncestor()
 
819
                revno_str = _compute_revno_str(branch, revision_id)
 
820
                if not found_start and revision_id == start_rev_id:
 
821
                    if not exclude_common_ancestry:
 
822
                        yield revision_id, revno_str, 0
 
823
                    found_start = True
 
824
                    break
 
825
                else:
 
826
                    yield revision_id, revno_str, 0
 
827
        if not found_start:
 
828
            raise _StartNotLinearAncestor()
678
829
 
679
830
 
680
831
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
721
872
            yield rev_id, '.'.join(map(str, revno)), merge_depth
722
873
 
723
874
 
724
 
@deprecated_function(deprecated_in((2, 2, 0)))
725
 
def calculate_view_revisions(branch, start_revision, end_revision, direction,
726
 
        specific_fileid, generate_merge_revisions):
727
 
    """Calculate the revisions to view.
728
 
 
729
 
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
730
 
             a list of the same tuples.
731
 
    """
732
 
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
733
 
        end_revision)
734
 
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
735
 
        direction, generate_merge_revisions or specific_fileid))
736
 
    if specific_fileid:
737
 
        view_revisions = _filter_revisions_touching_file_id(branch,
738
 
            specific_fileid, view_revisions,
739
 
            include_merges=generate_merge_revisions)
740
 
    return _rebase_merge_depth(view_revisions)
741
 
 
742
 
 
743
875
def _rebase_merge_depth(view_revisions):
744
876
    """Adjust depths upwards so the top level is 0."""
745
877
    # If either the first or last revision have a merge_depth of 0, we're done
746
878
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
747
 
        min_depth = min([d for r,n,d in view_revisions])
 
879
        min_depth = min([d for r, n, d in view_revisions])
748
880
        if min_depth != 0:
749
 
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
 
881
            view_revisions = [(r, n, d - min_depth)
 
882
                              for r, n, d in view_revisions]
750
883
    return view_revisions
751
884
 
752
885
 
753
886
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
754
 
        file_ids=None, direction='reverse'):
 
887
                          files=None, direction='reverse'):
755
888
    """Create a revision iterator for log.
756
889
 
757
890
    :param branch: The branch being logged.
759
892
    :param generate_delta: Whether to generate a delta for each revision.
760
893
      Permitted values are None, 'full' and 'partial'.
761
894
    :param search: A user text search string.
762
 
    :param file_ids: If non empty, only revisions matching one or more of
763
 
      the file-ids are to be kept.
 
895
    :param files: If non empty, only revisions matching one or more of
 
896
      the files are to be kept.
764
897
    :param direction: the direction in which view_revisions is sorted
765
898
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
766
899
        delta).
767
900
    """
768
901
    # Convert view_revisions into (view, None, None) groups to fit with
769
902
    # the standard interface here.
770
 
    if type(view_revisions) == list:
 
903
    if isinstance(view_revisions, list):
771
904
        # A single batch conversion is faster than many incremental ones.
772
905
        # As we have all the data, do a batch conversion.
773
906
        nones = [None] * len(view_revisions)
774
 
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
 
907
        log_rev_iterator = iter([list(zip(view_revisions, nones, nones))])
775
908
    else:
776
909
        def _convert():
777
910
            for view in view_revisions:
781
914
        # It would be nicer if log adapters were first class objects
782
915
        # with custom parameters. This will do for now. IGC 20090127
783
916
        if adapter == _make_delta_filter:
784
 
            log_rev_iterator = adapter(branch, generate_delta,
785
 
                search, log_rev_iterator, file_ids, direction)
 
917
            log_rev_iterator = adapter(
 
918
                branch, generate_delta, search, log_rev_iterator, files,
 
919
                direction)
786
920
        else:
787
 
            log_rev_iterator = adapter(branch, generate_delta,
788
 
                search, log_rev_iterator)
 
921
            log_rev_iterator = adapter(
 
922
                branch, generate_delta, search, log_rev_iterator)
789
923
    return log_rev_iterator
790
924
 
791
925
 
792
 
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
 
926
def _make_search_filter(branch, generate_delta, match, log_rev_iterator):
793
927
    """Create a filtered iterator of log_rev_iterator matching on a regex.
794
928
 
795
929
    :param branch: The branch being logged.
796
930
    :param generate_delta: Whether to generate a delta for each revision.
797
 
    :param search: A user text search string.
 
931
    :param match: A dictionary with properties as keys and lists of strings
 
932
        as values. To match, a revision may match any of the supplied strings
 
933
        within a single property but must match at least one string for each
 
934
        property.
798
935
    :param log_rev_iterator: An input iterator containing all revisions that
799
936
        could be displayed, in lists.
800
937
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
801
938
        delta).
802
939
    """
803
 
    if search is None:
 
940
    if not match:
804
941
        return log_rev_iterator
805
 
    searchRE = re_compile_checked(search, re.IGNORECASE,
806
 
            'log message filter')
807
 
    return _filter_message_re(searchRE, log_rev_iterator)
808
 
 
809
 
 
810
 
def _filter_message_re(searchRE, log_rev_iterator):
 
942
    # Use lazy_compile so mapping to InvalidPattern error occurs.
 
943
    searchRE = [(k, [lazy_regex.lazy_compile(x, re.IGNORECASE) for x in v])
 
944
                for k, v in match.items()]
 
945
    return _filter_re(searchRE, log_rev_iterator)
 
946
 
 
947
 
 
948
def _filter_re(searchRE, log_rev_iterator):
811
949
    for revs in log_rev_iterator:
812
 
        new_revs = []
813
 
        for (rev_id, revno, merge_depth), rev, delta in revs:
814
 
            if searchRE.search(rev.message):
815
 
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
816
 
        yield new_revs
 
950
        new_revs = [rev for rev in revs if _match_filter(searchRE, rev[1])]
 
951
        if new_revs:
 
952
            yield new_revs
 
953
 
 
954
 
 
955
def _match_filter(searchRE, rev):
 
956
    strings = {
 
957
        'message': (rev.message,),
 
958
        'committer': (rev.committer,),
 
959
        'author': (rev.get_apparent_authors()),
 
960
        'bugs': list(rev.iter_bugs())
 
961
        }
 
962
    strings[''] = [item for inner_list in strings.values()
 
963
                   for item in inner_list]
 
964
    for k, v in searchRE:
 
965
        if k in strings and not _match_any_filter(strings[k], v):
 
966
            return False
 
967
    return True
 
968
 
 
969
 
 
970
def _match_any_filter(strings, res):
 
971
    return any(r.search(s) for r in res for s in strings)
817
972
 
818
973
 
819
974
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
820
 
    fileids=None, direction='reverse'):
 
975
                       files=None, direction='reverse'):
821
976
    """Add revision deltas to a log iterator if needed.
822
977
 
823
978
    :param branch: The branch being logged.
826
981
    :param search: A user text search string.
827
982
    :param log_rev_iterator: An input iterator containing all revisions that
828
983
        could be displayed, in lists.
829
 
    :param fileids: If non empty, only revisions matching one or more of
830
 
      the file-ids are to be kept.
 
984
    :param files: If non empty, only revisions matching one or more of
 
985
      the files are to be kept.
831
986
    :param direction: the direction in which view_revisions is sorted
832
987
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
833
988
        delta).
834
989
    """
835
 
    if not generate_delta and not fileids:
 
990
    if not generate_delta and not files:
836
991
        return log_rev_iterator
837
992
    return _generate_deltas(branch.repository, log_rev_iterator,
838
 
        generate_delta, fileids, direction)
839
 
 
840
 
 
841
 
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
842
 
    direction):
 
993
                            generate_delta, files, direction)
 
994
 
 
995
 
 
996
def _generate_deltas(repository, log_rev_iterator, delta_type, files,
 
997
                     direction):
843
998
    """Create deltas for each batch of revisions in log_rev_iterator.
844
999
 
845
1000
    If we're only generating deltas for the sake of filtering against
846
 
    file-ids, we stop generating deltas once all file-ids reach the
 
1001
    files, we stop generating deltas once all files reach the
847
1002
    appropriate life-cycle point. If we're receiving data newest to
848
1003
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
849
1004
    """
850
 
    check_fileids = fileids is not None and len(fileids) > 0
851
 
    if check_fileids:
852
 
        fileid_set = set(fileids)
 
1005
    check_files = files is not None and len(files) > 0
 
1006
    if check_files:
 
1007
        file_set = set(files)
853
1008
        if direction == 'reverse':
854
1009
            stop_on = 'add'
855
1010
        else:
856
1011
            stop_on = 'remove'
857
1012
    else:
858
 
        fileid_set = None
 
1013
        file_set = None
859
1014
    for revs in log_rev_iterator:
860
 
        # If we were matching against fileids and we've run out,
 
1015
        # If we were matching against files and we've run out,
861
1016
        # there's nothing left to do
862
 
        if check_fileids and not fileid_set:
 
1017
        if check_files and not file_set:
863
1018
            return
864
1019
        revisions = [rev[1] for rev in revs]
865
1020
        new_revs = []
866
 
        if delta_type == 'full' and not check_fileids:
867
 
            deltas = repository.get_deltas_for_revisions(revisions)
868
 
            for rev, delta in izip(revs, deltas):
 
1021
        if delta_type == 'full' and not check_files:
 
1022
            deltas = repository.get_revision_deltas(revisions)
 
1023
            for rev, delta in zip(revs, deltas):
869
1024
                new_revs.append((rev[0], rev[1], delta))
870
1025
        else:
871
 
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
872
 
            for rev, delta in izip(revs, deltas):
873
 
                if check_fileids:
 
1026
            deltas = repository.get_revision_deltas(
 
1027
                revisions, specific_files=file_set)
 
1028
            for rev, delta in zip(revs, deltas):
 
1029
                if check_files:
874
1030
                    if delta is None or not delta.has_changed():
875
1031
                        continue
876
1032
                    else:
877
 
                        _update_fileids(delta, fileid_set, stop_on)
 
1033
                        _update_files(delta, file_set, stop_on)
878
1034
                        if delta_type is None:
879
1035
                            delta = None
880
1036
                        elif delta_type == 'full':
891
1047
        yield new_revs
892
1048
 
893
1049
 
894
 
def _update_fileids(delta, fileids, stop_on):
895
 
    """Update the set of file-ids to search based on file lifecycle events.
896
 
    
897
 
    :param fileids: a set of fileids to update
898
 
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
899
 
      fileids set once their add or remove entry is detected respectively
 
1050
def _update_files(delta, files, stop_on):
 
1051
    """Update the set of files to search based on file lifecycle events.
 
1052
 
 
1053
    :param files: a set of files to update
 
1054
    :param stop_on: either 'add' or 'remove' - take files out of the
 
1055
      files set once their add or remove entry is detected respectively
900
1056
    """
901
1057
    if stop_on == 'add':
902
1058
        for item in delta.added:
903
 
            if item[1] in fileids:
904
 
                fileids.remove(item[1])
 
1059
            if item.path[1] in files:
 
1060
                files.remove(item.path[1])
 
1061
        for item in delta.copied + delta.renamed:
 
1062
            if item.path[1] in files:
 
1063
                files.remove(item.path[1])
 
1064
                files.add(item.path[0])
 
1065
            if item.kind[1] == 'directory':
 
1066
                for path in list(files):
 
1067
                    if is_inside(item.path[1], path):
 
1068
                        files.remove(path)
 
1069
                        files.add(item.path[0] + path[len(item.path[1]):])
905
1070
    elif stop_on == 'delete':
906
1071
        for item in delta.removed:
907
 
            if item[1] in fileids:
908
 
                fileids.remove(item[1])
 
1072
            if item.path[0] in files:
 
1073
                files.remove(item.path[0])
 
1074
        for item in delta.copied + delta.renamed:
 
1075
            if item.path[0] in files:
 
1076
                files.remove(item.path[0])
 
1077
                files.add(item.path[1])
 
1078
            if item.kind[0] == 'directory':
 
1079
                for path in list(files):
 
1080
                    if is_inside(item.path[0], path):
 
1081
                        files.remove(path)
 
1082
                        files.add(item.path[1] + path[len(item.path[0]):])
909
1083
 
910
1084
 
911
1085
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
923
1097
    for revs in log_rev_iterator:
924
1098
        # r = revision_id, n = revno, d = merge depth
925
1099
        revision_ids = [view[0] for view, _, _ in revs]
926
 
        revisions = repository.get_revisions(revision_ids)
927
 
        revs = [(rev[0], revision, rev[2]) for rev, revision in
928
 
            izip(revs, revisions)]
929
 
        yield revs
 
1100
        revisions = dict(repository.iter_revisions(revision_ids))
 
1101
        yield [(rev[0], revisions[rev[0][0]], rev[2]) for rev in revs]
930
1102
 
931
1103
 
932
1104
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
940
1112
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
941
1113
        delta).
942
1114
    """
943
 
    repository = branch.repository
944
1115
    num = 9
945
1116
    for batch in log_rev_iterator:
946
1117
        batch = iter(batch)
955
1126
def _get_revision_limits(branch, start_revision, end_revision):
956
1127
    """Get and check revision limits.
957
1128
 
958
 
    :param  branch: The branch containing the revisions.
959
 
 
960
 
    :param  start_revision: The first revision to be logged.
961
 
            For backwards compatibility this may be a mainline integer revno,
962
 
            but for merge revision support a RevisionInfo is expected.
963
 
 
964
 
    :param  end_revision: The last revision to be logged.
965
 
            For backwards compatibility this may be a mainline integer revno,
966
 
            but for merge revision support a RevisionInfo is expected.
 
1129
    :param branch: The branch containing the revisions.
 
1130
 
 
1131
    :param start_revision: The first revision to be logged, as a RevisionInfo.
 
1132
 
 
1133
    :param end_revision: The last revision to be logged, as a RevisionInfo
967
1134
 
968
1135
    :return: (start_rev_id, end_rev_id) tuple.
969
1136
    """
970
 
    branch_revno, branch_rev_id = branch.last_revision_info()
971
1137
    start_rev_id = None
972
 
    if start_revision is None:
 
1138
    start_revno = None
 
1139
    if start_revision is not None:
 
1140
        if not isinstance(start_revision, revisionspec.RevisionInfo):
 
1141
            raise TypeError(start_revision)
 
1142
        start_rev_id = start_revision.rev_id
 
1143
        start_revno = start_revision.revno
 
1144
    if start_revno is None:
973
1145
        start_revno = 1
974
 
    else:
975
 
        if isinstance(start_revision, revisionspec.RevisionInfo):
976
 
            start_rev_id = start_revision.rev_id
977
 
            start_revno = start_revision.revno or 1
978
 
        else:
979
 
            branch.check_real_revno(start_revision)
980
 
            start_revno = start_revision
981
 
            start_rev_id = branch.get_rev_id(start_revno)
982
1146
 
983
1147
    end_rev_id = None
984
 
    if end_revision is None:
985
 
        end_revno = branch_revno
986
 
    else:
987
 
        if isinstance(end_revision, revisionspec.RevisionInfo):
988
 
            end_rev_id = end_revision.rev_id
989
 
            end_revno = end_revision.revno or branch_revno
990
 
        else:
991
 
            branch.check_real_revno(end_revision)
992
 
            end_revno = end_revision
993
 
            end_rev_id = branch.get_rev_id(end_revno)
 
1148
    end_revno = None
 
1149
    if end_revision is not None:
 
1150
        if not isinstance(end_revision, revisionspec.RevisionInfo):
 
1151
            raise TypeError(start_revision)
 
1152
        end_rev_id = end_revision.rev_id
 
1153
        end_revno = end_revision.revno
994
1154
 
995
 
    if branch_revno != 0:
 
1155
    if branch.last_revision() != _mod_revision.NULL_REVISION:
996
1156
        if (start_rev_id == _mod_revision.NULL_REVISION
997
 
            or end_rev_id == _mod_revision.NULL_REVISION):
998
 
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
999
 
        if start_revno > end_revno:
1000
 
            raise errors.BzrCommandError("Start revision must be older than "
1001
 
                                         "the end revision.")
 
1157
                or end_rev_id == _mod_revision.NULL_REVISION):
 
1158
            raise errors.CommandError(
 
1159
                gettext('Logging revision 0 is invalid.'))
 
1160
        if end_revno is not None and start_revno > end_revno:
 
1161
            raise errors.CommandError(
 
1162
                gettext("Start revision must be older than the end revision."))
1002
1163
    return (start_rev_id, end_rev_id)
1003
1164
 
1004
1165
 
1052
1213
            end_revno = end_revision
1053
1214
 
1054
1215
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1055
 
        or (end_rev_id == _mod_revision.NULL_REVISION)):
1056
 
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
1216
            or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1217
        raise errors.CommandError(gettext('Logging revision 0 is invalid.'))
1057
1218
    if start_revno > end_revno:
1058
 
        raise errors.BzrCommandError("Start revision must be older than "
1059
 
                                     "the end revision.")
 
1219
        raise errors.CommandError(gettext("Start revision must be older "
 
1220
                                             "than the end revision."))
1060
1221
 
1061
1222
    if end_revno < start_revno:
1062
1223
        return None, None, None, None
1063
1224
    cur_revno = branch_revno
1064
1225
    rev_nos = {}
1065
1226
    mainline_revs = []
1066
 
    for revision_id in branch.repository.iter_reverse_revision_history(
1067
 
                        branch_last_revision):
 
1227
    graph = branch.repository.get_graph()
 
1228
    for revision_id in graph.iter_lefthand_ancestry(
 
1229
            branch_last_revision, (_mod_revision.NULL_REVISION,)):
1068
1230
        if cur_revno < start_revno:
1069
1231
            # We have gone far enough, but we always add 1 more revision
1070
1232
            rev_nos[revision_id] = cur_revno
1084
1246
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1085
1247
 
1086
1248
 
1087
 
@deprecated_function(deprecated_in((2, 2, 0)))
1088
 
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
1089
 
    """Filter view_revisions based on revision ranges.
1090
 
 
1091
 
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1092
 
            tuples to be filtered.
1093
 
 
1094
 
    :param start_rev_id: If not NONE specifies the first revision to be logged.
1095
 
            If NONE then all revisions up to the end_rev_id are logged.
1096
 
 
1097
 
    :param end_rev_id: If not NONE specifies the last revision to be logged.
1098
 
            If NONE then all revisions up to the end of the log are logged.
1099
 
 
1100
 
    :return: The filtered view_revisions.
1101
 
    """
1102
 
    if start_rev_id or end_rev_id:
1103
 
        revision_ids = [r for r, n, d in view_revisions]
1104
 
        if start_rev_id:
1105
 
            start_index = revision_ids.index(start_rev_id)
1106
 
        else:
1107
 
            start_index = 0
1108
 
        if start_rev_id == end_rev_id:
1109
 
            end_index = start_index
1110
 
        else:
1111
 
            if end_rev_id:
1112
 
                end_index = revision_ids.index(end_rev_id)
1113
 
            else:
1114
 
                end_index = len(view_revisions) - 1
1115
 
        # To include the revisions merged into the last revision,
1116
 
        # extend end_rev_id down to, but not including, the next rev
1117
 
        # with the same or lesser merge_depth
1118
 
        end_merge_depth = view_revisions[end_index][2]
1119
 
        try:
1120
 
            for index in xrange(end_index+1, len(view_revisions)+1):
1121
 
                if view_revisions[index][2] <= end_merge_depth:
1122
 
                    end_index = index - 1
1123
 
                    break
1124
 
        except IndexError:
1125
 
            # if the search falls off the end then log to the end as well
1126
 
            end_index = len(view_revisions) - 1
1127
 
        view_revisions = view_revisions[start_index:end_index+1]
1128
 
    return view_revisions
1129
 
 
1130
 
 
1131
 
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
1132
 
    include_merges=True):
1133
 
    r"""Return the list of revision ids which touch a given file id.
 
1249
def _filter_revisions_touching_path(branch, path, view_revisions,
 
1250
                                    include_merges=True):
 
1251
    r"""Return the list of revision ids which touch a given path.
1134
1252
 
1135
1253
    The function filters view_revisions and returns a subset.
1136
 
    This includes the revisions which directly change the file id,
 
1254
    This includes the revisions which directly change the path,
1137
1255
    and the revisions which merge these changes. So if the
1138
1256
    revision graph is::
 
1257
 
1139
1258
        A-.
1140
1259
        |\ \
1141
1260
        B C E
1155
1274
 
1156
1275
    :param branch: The branch where we can get text revision information.
1157
1276
 
1158
 
    :param file_id: Filter out revisions that do not touch file_id.
 
1277
    :param path: Filter out revisions that do not touch path.
1159
1278
 
1160
1279
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1161
1280
        tuples. This is the list of revisions which will be filtered. It is
1168
1287
    """
1169
1288
    # Lookup all possible text keys to determine which ones actually modified
1170
1289
    # the file.
 
1290
    graph = branch.repository.get_file_graph()
 
1291
    start_tree = branch.repository.revision_tree(view_revisions[0][0])
 
1292
    file_id = start_tree.path2id(path)
 
1293
    get_parent_map = graph.get_parent_map
1171
1294
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1172
1295
    next_keys = None
1173
1296
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1177
1300
    #       indexing layer. We might consider passing in hints as to the known
1178
1301
    #       access pattern (sparse/clustered, high success rate/low success
1179
1302
    #       rate). This particular access is clustered with a low success rate.
1180
 
    get_parent_map = branch.repository.texts.get_parent_map
1181
1303
    modified_text_revisions = set()
1182
1304
    chunk_size = 1000
1183
 
    for start in xrange(0, len(text_keys), chunk_size):
 
1305
    for start in range(0, len(text_keys), chunk_size):
1184
1306
        next_keys = text_keys[start:start + chunk_size]
1185
1307
        # Only keep the revision_id portion of the key
1186
1308
        modified_text_revisions.update(
1201
1323
 
1202
1324
        if rev_id in modified_text_revisions:
1203
1325
            # This needs to be logged, along with the extra revisions
1204
 
            for idx in xrange(len(current_merge_stack)):
 
1326
            for idx in range(len(current_merge_stack)):
1205
1327
                node = current_merge_stack[idx]
1206
1328
                if node is not None:
1207
1329
                    if include_merges or node[2] == 0:
1210
1332
    return result
1211
1333
 
1212
1334
 
1213
 
@deprecated_function(deprecated_in((2, 2, 0)))
1214
 
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
1215
 
                       include_merges=True):
1216
 
    """Produce an iterator of revisions to show
1217
 
    :return: an iterator of (revision_id, revno, merge_depth)
1218
 
    (if there is no revno for a revision, None is supplied)
1219
 
    """
1220
 
    if not include_merges:
1221
 
        revision_ids = mainline_revs[1:]
1222
 
        if direction == 'reverse':
1223
 
            revision_ids.reverse()
1224
 
        for revision_id in revision_ids:
1225
 
            yield revision_id, str(rev_nos[revision_id]), 0
1226
 
        return
1227
 
    graph = branch.repository.get_graph()
1228
 
    # This asks for all mainline revisions, which means we only have to spider
1229
 
    # sideways, rather than depth history. That said, its still size-of-history
1230
 
    # and should be addressed.
1231
 
    # mainline_revisions always includes an extra revision at the beginning, so
1232
 
    # don't request it.
1233
 
    parent_map = dict(((key, value) for key, value in
1234
 
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
1235
 
    # filter out ghosts; merge_sort errors on ghosts.
1236
 
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
1237
 
    merge_sorted_revisions = tsort.merge_sort(
1238
 
        rev_graph,
1239
 
        mainline_revs[-1],
1240
 
        mainline_revs,
1241
 
        generate_revno=True)
1242
 
 
1243
 
    if direction == 'forward':
1244
 
        # forward means oldest first.
1245
 
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
1246
 
    elif direction != 'reverse':
1247
 
        raise ValueError('invalid direction %r' % direction)
1248
 
 
1249
 
    for (sequence, rev_id, merge_depth, revno, end_of_merge
1250
 
         ) in merge_sorted_revisions:
1251
 
        yield rev_id, '.'.join(map(str, revno)), merge_depth
1252
 
 
1253
 
 
1254
1335
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1255
1336
    """Reverse revisions by depth.
1256
1337
 
1257
1338
    Revisions with a different depth are sorted as a group with the previous
1258
 
    revision of that depth.  There may be no topological justification for this,
 
1339
    revision of that depth.  There may be no topological justification for this
1259
1340
    but it looks much nicer.
1260
1341
    """
1261
1342
    # Add a fake revision at start so that we can always attach sub revisions
1291
1372
    """
1292
1373
 
1293
1374
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1294
 
                 tags=None, diff=None):
 
1375
                 tags=None, diff=None, signature=None):
1295
1376
        self.rev = rev
1296
 
        self.revno = str(revno)
 
1377
        if revno is None:
 
1378
            self.revno = None
 
1379
        else:
 
1380
            self.revno = str(revno)
1297
1381
        self.merge_depth = merge_depth
1298
1382
        self.delta = delta
1299
1383
        self.tags = tags
1300
1384
        self.diff = diff
 
1385
        self.signature = signature
1301
1386
 
1302
1387
 
1303
1388
class LogFormatter(object):
1312
1397
    to indicate which LogRevision attributes it supports:
1313
1398
 
1314
1399
    - supports_delta must be True if this log formatter supports delta.
1315
 
        Otherwise the delta attribute may not be populated.  The 'delta_format'
1316
 
        attribute describes whether the 'short_status' format (1) or the long
1317
 
        one (2) should be used.
 
1400
      Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1401
      attribute describes whether the 'short_status' format (1) or the long
 
1402
      one (2) should be used.
1318
1403
 
1319
1404
    - supports_merge_revisions must be True if this log formatter supports
1320
 
        merge revisions.  If not, then only mainline revisions will be passed
1321
 
        to the formatter.
 
1405
      merge revisions.  If not, then only mainline revisions will be passed
 
1406
      to the formatter.
1322
1407
 
1323
1408
    - preferred_levels is the number of levels this formatter defaults to.
1324
 
        The default value is zero meaning display all levels.
1325
 
        This value is only relevant if supports_merge_revisions is True.
 
1409
      The default value is zero meaning display all levels.
 
1410
      This value is only relevant if supports_merge_revisions is True.
1326
1411
 
1327
1412
    - supports_tags must be True if this log formatter supports tags.
1328
 
        Otherwise the tags attribute may not be populated.
 
1413
      Otherwise the tags attribute may not be populated.
1329
1414
 
1330
1415
    - supports_diff must be True if this log formatter supports diffs.
1331
 
        Otherwise the diff attribute may not be populated.
 
1416
      Otherwise the diff attribute may not be populated.
 
1417
 
 
1418
    - supports_signatures must be True if this log formatter supports GPG
 
1419
      signatures.
1332
1420
 
1333
1421
    Plugins can register functions to show custom revision properties using
1334
1422
    the properties_handler_registry. The registered function
1335
 
    must respect the following interface description:
 
1423
    must respect the following interface description::
 
1424
 
1336
1425
        def my_show_properties(properties_dict):
1337
1426
            # code that returns a dict {'name':'value'} of the properties
1338
1427
            # to be shown
1341
1430
 
1342
1431
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1343
1432
                 delta_format=None, levels=None, show_advice=False,
1344
 
                 to_exact_file=None):
 
1433
                 to_exact_file=None, author_list_handler=None):
1345
1434
        """Create a LogFormatter.
1346
1435
 
1347
1436
        :param to_file: the file to output to
1348
 
        :param to_exact_file: if set, gives an output stream to which 
 
1437
        :param to_exact_file: if set, gives an output stream to which
1349
1438
             non-Unicode diffs are written.
1350
1439
        :param show_ids: if True, revision-ids are to be displayed
1351
1440
        :param show_timezone: the timezone to use
1355
1444
          let the log formatter decide.
1356
1445
        :param show_advice: whether to show advice at the end of the
1357
1446
          log or not
 
1447
        :param author_list_handler: callable generating a list of
 
1448
          authors to display for a given revision
1358
1449
        """
1359
1450
        self.to_file = to_file
1360
1451
        # 'exact' stream used to show diff, it should print content 'as is'
1361
 
        # and should not try to decode/encode it to unicode to avoid bug #328007
 
1452
        # and should not try to decode/encode it to unicode to avoid bug
 
1453
        # #328007
1362
1454
        if to_exact_file is not None:
1363
1455
            self.to_exact_file = to_exact_file
1364
1456
        else:
1365
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
1366
 
            # for code that expects to get diffs to pass in the exact file
1367
 
            # stream
 
1457
            # XXX: somewhat hacky; this assumes it's a codec writer; it's
 
1458
            # better for code that expects to get diffs to pass in the exact
 
1459
            # file stream
1368
1460
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1369
1461
        self.show_ids = show_ids
1370
1462
        self.show_timezone = show_timezone
1371
1463
        if delta_format is None:
1372
1464
            # Ensures backward compatibility
1373
 
            delta_format = 2 # long format
 
1465
            delta_format = 2  # long format
1374
1466
        self.delta_format = delta_format
1375
1467
        self.levels = levels
1376
1468
        self._show_advice = show_advice
1377
1469
        self._merge_count = 0
 
1470
        self._author_list_handler = author_list_handler
1378
1471
 
1379
1472
    def get_levels(self):
1380
1473
        """Get the number of levels to display or 0 for all."""
1399
1492
            if advice_sep:
1400
1493
                self.to_file.write(advice_sep)
1401
1494
            self.to_file.write(
1402
 
                "Use --include-merges or -n0 to see merged revisions.\n")
 
1495
                "Use --include-merged or -n0 to see merged revisions.\n")
1403
1496
 
1404
1497
    def get_advice_separator(self):
1405
1498
        """Get the text separating the log from the closing advice."""
1412
1505
        return address
1413
1506
 
1414
1507
    def short_author(self, rev):
1415
 
        name, address = config.parse_username(rev.get_apparent_authors()[0])
1416
 
        if name:
1417
 
            return name
1418
 
        return address
 
1508
        return self.authors(rev, 'first', short=True, sep=', ')
 
1509
 
 
1510
    def authors(self, rev, who, short=False, sep=None):
 
1511
        """Generate list of authors, taking --authors option into account.
 
1512
 
 
1513
        The caller has to specify the name of a author list handler,
 
1514
        as provided by the author list registry, using the ``who``
 
1515
        argument.  That name only sets a default, though: when the
 
1516
        user selected a different author list generation using the
 
1517
        ``--authors`` command line switch, as represented by the
 
1518
        ``author_list_handler`` constructor argument, that value takes
 
1519
        precedence.
 
1520
 
 
1521
        :param rev: The revision for which to generate the list of authors.
 
1522
        :param who: Name of the default handler.
 
1523
        :param short: Whether to shorten names to either name or address.
 
1524
        :param sep: What separator to use for automatic concatenation.
 
1525
        """
 
1526
        if self._author_list_handler is not None:
 
1527
            # The user did specify --authors, which overrides the default
 
1528
            author_list_handler = self._author_list_handler
 
1529
        else:
 
1530
            # The user didn't specify --authors, so we use the caller's default
 
1531
            author_list_handler = author_list_registry.get(who)
 
1532
        names = author_list_handler(rev)
 
1533
        if short:
 
1534
            for i in range(len(names)):
 
1535
                name, address = config.parse_username(names[i])
 
1536
                if name:
 
1537
                    names[i] = name
 
1538
                else:
 
1539
                    names[i] = address
 
1540
        if sep is not None:
 
1541
            names = sep.join(names)
 
1542
        return names
1419
1543
 
1420
1544
    def merge_marker(self, revision):
1421
1545
        """Get the merge marker to include in the output or '' if none."""
1442
1566
        """
1443
1567
        lines = self._foreign_info_properties(revision)
1444
1568
        for key, handler in properties_handler_registry.iteritems():
1445
 
            lines.extend(self._format_properties(handler(revision)))
 
1569
            try:
 
1570
                lines.extend(self._format_properties(handler(revision)))
 
1571
            except Exception:
 
1572
                trace.log_exception_quietly()
 
1573
                trace.print_exception(sys.exc_info(), self.to_file)
1446
1574
        return lines
1447
1575
 
1448
1576
    def _foreign_info_properties(self, rev):
1456
1584
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
1457
1585
 
1458
1586
        # Imported foreign revision revision ids always contain :
1459
 
        if not ":" in rev.revision_id:
 
1587
        if b":" not in rev.revision_id:
1460
1588
            return []
1461
1589
 
1462
1590
        # Revision was once imported from a foreign repository
1476
1604
        return lines
1477
1605
 
1478
1606
    def show_diff(self, to_file, diff, indent):
1479
 
        for l in diff.rstrip().split('\n'):
1480
 
            to_file.write(indent + '%s\n' % (l,))
 
1607
        encoding = get_terminal_encoding()
 
1608
        for l in diff.rstrip().split(b'\n'):
 
1609
            to_file.write(indent + l.decode(encoding, 'ignore') + '\n')
1481
1610
 
1482
1611
 
1483
1612
# Separator between revisions in long format
1491
1620
    supports_delta = True
1492
1621
    supports_tags = True
1493
1622
    supports_diff = True
 
1623
    supports_signatures = True
1494
1624
 
1495
1625
    def __init__(self, *args, **kwargs):
1496
1626
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1505
1635
 
1506
1636
    def _date_string_original_timezone(self, rev):
1507
1637
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1508
 
            rev.timezone or 0)
 
1638
                                                            rev.timezone or 0)
1509
1639
 
1510
1640
    def log_revision(self, revision):
1511
1641
        """Log a revision, either merged or not."""
1513
1643
        lines = [_LONG_SEP]
1514
1644
        if revision.revno is not None:
1515
1645
            lines.append('revno: %s%s' % (revision.revno,
1516
 
                self.merge_marker(revision)))
 
1646
                                          self.merge_marker(revision)))
1517
1647
        if revision.tags:
1518
 
            lines.append('tags: %s' % (', '.join(revision.tags)))
 
1648
            lines.append('tags: %s' % (', '.join(sorted(revision.tags))))
 
1649
        if self.show_ids or revision.revno is None:
 
1650
            lines.append('revision-id: %s' %
 
1651
                         (revision.rev.revision_id.decode('utf-8'),))
1519
1652
        if self.show_ids:
1520
 
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
1521
1653
            for parent_id in revision.rev.parent_ids:
1522
 
                lines.append('parent: %s' % (parent_id,))
 
1654
                lines.append('parent: %s' % (parent_id.decode('utf-8'),))
1523
1655
        lines.extend(self.custom_properties(revision.rev))
1524
1656
 
1525
1657
        committer = revision.rev.committer
1526
 
        authors = revision.rev.get_apparent_authors()
 
1658
        authors = self.authors(revision.rev, 'all')
1527
1659
        if authors != [committer]:
1528
1660
            lines.append('author: %s' % (", ".join(authors),))
1529
1661
        lines.append('committer: %s' % (committer,))
1534
1666
 
1535
1667
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1536
1668
 
 
1669
        if revision.signature is not None:
 
1670
            lines.append('signature: ' + revision.signature)
 
1671
 
1537
1672
        lines.append('message:')
1538
1673
        if not revision.rev.message:
1539
1674
            lines.append('  (no message)')
1547
1682
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
1548
1683
        if revision.delta is not None:
1549
1684
            # Use the standard status output to display changes
1550
 
            from bzrlib.delta import report_delta
1551
 
            report_delta(to_file, revision.delta, short_status=False, 
 
1685
            from breezy.delta import report_delta
 
1686
            report_delta(to_file, revision.delta, short_status=False,
1552
1687
                         show_ids=self.show_ids, indent=indent)
1553
1688
        if revision.diff is not None:
1554
1689
            to_file.write(indent + 'diff:\n')
1586
1721
        indent = '    ' * depth
1587
1722
        revno_width = self.revno_width_by_depth.get(depth)
1588
1723
        if revno_width is None:
1589
 
            if revision.revno.find('.') == -1:
 
1724
            if revision.revno is None or revision.revno.find('.') == -1:
1590
1725
                # mainline revno, e.g. 12345
1591
1726
                revno_width = 5
1592
1727
            else:
1598
1733
        to_file = self.to_file
1599
1734
        tags = ''
1600
1735
        if revision.tags:
1601
 
            tags = ' {%s}' % (', '.join(revision.tags))
 
1736
            tags = ' {%s}' % (', '.join(sorted(revision.tags)))
1602
1737
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1603
 
                revision.revno, self.short_author(revision.rev),
1604
 
                format_date(revision.rev.timestamp,
1605
 
                            revision.rev.timezone or 0,
1606
 
                            self.show_timezone, date_fmt="%Y-%m-%d",
1607
 
                            show_offset=False),
1608
 
                tags, self.merge_marker(revision)))
1609
 
        self.show_properties(revision.rev, indent+offset)
1610
 
        if self.show_ids:
 
1738
                                                     revision.revno or "", self.short_author(
 
1739
                                                         revision.rev),
 
1740
                                                     format_date(revision.rev.timestamp,
 
1741
                                                                 revision.rev.timezone or 0,
 
1742
                                                                 self.show_timezone, date_fmt="%Y-%m-%d",
 
1743
                                                                 show_offset=False),
 
1744
                                                     tags, self.merge_marker(revision)))
 
1745
        self.show_properties(revision.rev, indent + offset)
 
1746
        if self.show_ids or revision.revno is None:
1611
1747
            to_file.write(indent + offset + 'revision-id:%s\n'
1612
 
                          % (revision.rev.revision_id,))
 
1748
                          % (revision.rev.revision_id.decode('utf-8'),))
1613
1749
        if not revision.rev.message:
1614
1750
            to_file.write(indent + offset + '(no message)\n')
1615
1751
        else:
1619
1755
 
1620
1756
        if revision.delta is not None:
1621
1757
            # Use the standard status output to display changes
1622
 
            from bzrlib.delta import report_delta
1623
 
            report_delta(to_file, revision.delta, 
1624
 
                         short_status=self.delta_format==1, 
 
1758
            from breezy.delta import report_delta
 
1759
            report_delta(to_file, revision.delta,
 
1760
                         short_status=self.delta_format == 1,
1625
1761
                         show_ids=self.show_ids, indent=indent + offset)
1626
1762
        if revision.diff is not None:
1627
1763
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1645
1781
    def truncate(self, str, max_len):
1646
1782
        if max_len is None or len(str) <= max_len:
1647
1783
            return str
1648
 
        return str[:max_len-3] + '...'
 
1784
        return str[:max_len - 3] + '...'
1649
1785
 
1650
1786
    def date_string(self, rev):
1651
1787
        return format_date(rev.timestamp, rev.timezone or 0,
1661
1797
    def log_revision(self, revision):
1662
1798
        indent = '  ' * revision.merge_depth
1663
1799
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1664
 
            self._max_chars, revision.tags, indent))
 
1800
                                           self._max_chars, revision.tags, indent))
1665
1801
        self.to_file.write('\n')
1666
1802
 
1667
1803
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
1668
1804
        """Format log info into one string. Truncate tail of string
1669
 
        :param  revno:      revision number or None.
1670
 
                            Revision numbers counts from 1.
1671
 
        :param  rev:        revision object
1672
 
        :param  max_chars:  maximum length of resulting string
1673
 
        :param  tags:       list of tags or None
1674
 
        :param  prefix:     string to prefix each line
1675
 
        :return:            formatted truncated string
 
1805
 
 
1806
        :param revno:      revision number or None.
 
1807
                           Revision numbers counts from 1.
 
1808
        :param rev:        revision object
 
1809
        :param max_chars:  maximum length of resulting string
 
1810
        :param tags:       list of tags or None
 
1811
        :param prefix:     string to prefix each line
 
1812
        :return:           formatted truncated string
1676
1813
        """
1677
1814
        out = []
1678
1815
        if revno:
1679
1816
            # show revno only when is not None
1680
1817
            out.append("%s:" % revno)
1681
 
        out.append(self.truncate(self.short_author(rev), 20))
 
1818
        if max_chars is not None:
 
1819
            out.append(self.truncate(
 
1820
                self.short_author(rev), (max_chars + 3) // 4))
 
1821
        else:
 
1822
            out.append(self.short_author(rev))
1682
1823
        out.append(self.date_string(rev))
1683
1824
        if len(rev.parent_ids) > 1:
1684
1825
            out.append('[merge]')
1685
1826
        if tags:
1686
 
            tag_str = '{%s}' % (', '.join(tags))
 
1827
            tag_str = '{%s}' % (', '.join(sorted(tags)))
1687
1828
            out.append(tag_str)
1688
1829
        out.append(rev.get_summary())
1689
1830
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1703
1844
                               self.show_timezone,
1704
1845
                               date_fmt='%Y-%m-%d',
1705
1846
                               show_offset=False)
1706
 
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
1707
 
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
 
1847
        committer_str = self.authors(revision.rev, 'first', sep=', ')
 
1848
        committer_str = committer_str.replace(' <', '  <')
 
1849
        to_file.write('%s  %s\n\n' % (date_str, committer_str))
1708
1850
 
1709
1851
        if revision.delta is not None and revision.delta.has_changed():
1710
1852
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1711
 
                path, = c[:1]
 
1853
                if c.path[0] is None:
 
1854
                    path = c.path[1]
 
1855
                else:
 
1856
                    path = c.path[0]
1712
1857
                to_file.write('\t* %s:\n' % (path,))
1713
 
            for c in revision.delta.renamed:
1714
 
                oldpath,newpath = c[:2]
 
1858
            for c in revision.delta.renamed + revision.delta.copied:
1715
1859
                # For renamed files, show both the old and the new path
1716
 
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
 
1860
                to_file.write('\t* %s:\n\t* %s:\n' % (c.path[0], c.path[1]))
1717
1861
            to_file.write('\n')
1718
1862
 
1719
1863
        if not revision.rev.message:
1742
1886
        return self.get(name)(*args, **kwargs)
1743
1887
 
1744
1888
    def get_default(self, branch):
1745
 
        return self.get(branch.get_config().log_format())
 
1889
        c = branch.get_config_stack()
 
1890
        return self.get(c.get('log_format'))
1746
1891
 
1747
1892
 
1748
1893
log_formatter_registry = LogFormatterRegistry()
1749
1894
 
1750
1895
 
1751
1896
log_formatter_registry.register('short', ShortLogFormatter,
1752
 
                                'Moderately short log format')
 
1897
                                'Moderately short log format.')
1753
1898
log_formatter_registry.register('long', LongLogFormatter,
1754
 
                                'Detailed log format')
 
1899
                                'Detailed log format.')
1755
1900
log_formatter_registry.register('line', LineLogFormatter,
1756
 
                                'Log format with one line per revision')
 
1901
                                'Log format with one line per revision.')
1757
1902
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1758
 
                                'Format used by GNU ChangeLog files')
 
1903
                                'Format used by GNU ChangeLog files.')
1759
1904
 
1760
1905
 
1761
1906
def register_formatter(name, formatter):
1771
1916
    try:
1772
1917
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
1773
1918
    except KeyError:
1774
 
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
1775
 
 
1776
 
 
1777
 
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
1778
 
    # deprecated; for compatibility
1779
 
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
1780
 
    lf.show(revno, rev, delta)
 
1919
        raise errors.CommandError(
 
1920
            gettext("unknown log formatter: %r") % name)
 
1921
 
 
1922
 
 
1923
def author_list_all(rev):
 
1924
    return rev.get_apparent_authors()[:]
 
1925
 
 
1926
 
 
1927
def author_list_first(rev):
 
1928
    lst = rev.get_apparent_authors()
 
1929
    try:
 
1930
        return [lst[0]]
 
1931
    except IndexError:
 
1932
        return []
 
1933
 
 
1934
 
 
1935
def author_list_committer(rev):
 
1936
    return [rev.committer]
 
1937
 
 
1938
 
 
1939
author_list_registry = registry.Registry()
 
1940
 
 
1941
author_list_registry.register('all', author_list_all,
 
1942
                              'All authors')
 
1943
 
 
1944
author_list_registry.register('first', author_list_first,
 
1945
                              'The first author')
 
1946
 
 
1947
author_list_registry.register('committer', author_list_committer,
 
1948
                              'The committer')
1781
1949
 
1782
1950
 
1783
1951
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1791
1959
    """
1792
1960
    if to_file is None:
1793
1961
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1794
 
            errors='replace')
 
1962
                                                            errors='replace')
1795
1963
    lf = log_formatter(log_format,
1796
1964
                       show_ids=False,
1797
1965
                       to_file=to_file,
1800
1968
    # This is the first index which is different between
1801
1969
    # old and new
1802
1970
    base_idx = None
1803
 
    for i in xrange(max(len(new_rh),
1804
 
                        len(old_rh))):
 
1971
    for i in range(max(len(new_rh), len(old_rh))):
1805
1972
        if (len(new_rh) <= i
1806
1973
            or len(old_rh) <= i
1807
 
            or new_rh[i] != old_rh[i]):
 
1974
                or new_rh[i] != old_rh[i]):
1808
1975
            base_idx = i
1809
1976
            break
1810
1977
 
1811
1978
    if base_idx is None:
1812
1979
        to_file.write('Nothing seems to have changed\n')
1813
1980
        return
1814
 
    ## TODO: It might be nice to do something like show_log
1815
 
    ##       and show the merged entries. But since this is the
1816
 
    ##       removed revisions, it shouldn't be as important
 
1981
    # TODO: It might be nice to do something like show_log
 
1982
    # and show the merged entries. But since this is the
 
1983
    # removed revisions, it shouldn't be as important
1817
1984
    if base_idx < len(old_rh):
1818
 
        to_file.write('*'*60)
 
1985
        to_file.write('*' * 60)
1819
1986
        to_file.write('\nRemoved Revisions:\n')
1820
1987
        for i in range(base_idx, len(old_rh)):
1821
1988
            rev = branch.repository.get_revision(old_rh[i])
1822
 
            lr = LogRevision(rev, i+1, 0, None)
 
1989
            lr = LogRevision(rev, i + 1, 0, None)
1823
1990
            lf.log_revision(lr)
1824
 
        to_file.write('*'*60)
 
1991
        to_file.write('*' * 60)
1825
1992
        to_file.write('\n\n')
1826
1993
    if base_idx < len(new_rh):
1827
1994
        to_file.write('Added Revisions:\n')
1828
1995
        show_log(branch,
1829
1996
                 lf,
1830
 
                 None,
1831
1997
                 verbose=False,
1832
1998
                 direction='forward',
1833
 
                 start_revision=base_idx+1,
1834
 
                 end_revision=len(new_rh),
1835
 
                 search=None)
 
1999
                 start_revision=base_idx + 1,
 
2000
                 end_revision=len(new_rh))
1836
2001
 
1837
2002
 
1838
2003
def get_history_change(old_revision_id, new_revision_id, repository):
1848
2013
    old_revisions = set()
1849
2014
    new_history = []
1850
2015
    new_revisions = set()
1851
 
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
1852
 
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
 
2016
    graph = repository.get_graph()
 
2017
    new_iter = graph.iter_lefthand_ancestry(new_revision_id)
 
2018
    old_iter = graph.iter_lefthand_ancestry(old_revision_id)
1853
2019
    stop_revision = None
1854
2020
    do_old = True
1855
2021
    do_new = True
1856
2022
    while do_new or do_old:
1857
2023
        if do_new:
1858
2024
            try:
1859
 
                new_revision = new_iter.next()
 
2025
                new_revision = next(new_iter)
1860
2026
            except StopIteration:
1861
2027
                do_new = False
1862
2028
            else:
1867
2033
                    break
1868
2034
        if do_old:
1869
2035
            try:
1870
 
                old_revision = old_iter.next()
 
2036
                old_revision = next(old_iter)
1871
2037
            except StopIteration:
1872
2038
                do_old = False
1873
2039
            else:
1903
2069
    log_format = log_formatter_registry.get_default(branch)
1904
2070
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
1905
2071
    if old_history != []:
1906
 
        output.write('*'*60)
 
2072
        output.write('*' * 60)
1907
2073
        output.write('\nRemoved Revisions:\n')
1908
2074
        show_flat_log(branch.repository, old_history, old_revno, lf)
1909
 
        output.write('*'*60)
 
2075
        output.write('*' * 60)
1910
2076
        output.write('\n\n')
1911
2077
    if new_history != []:
1912
2078
        output.write('Added Revisions:\n')
1913
2079
        start_revno = new_revno - len(new_history) + 1
1914
 
        show_log(branch, lf, None, verbose=False, direction='forward',
1915
 
                 start_revision=start_revno,)
 
2080
        show_log(branch, lf, verbose=False, direction='forward',
 
2081
                 start_revision=start_revno)
1916
2082
 
1917
2083
 
1918
2084
def show_flat_log(repository, history, last_revno, lf):
1923
2089
    :param last_revno: The revno of the last revision_id in the history.
1924
2090
    :param lf: The log formatter to use.
1925
2091
    """
1926
 
    start_revno = last_revno - len(history) + 1
1927
2092
    revisions = repository.get_revisions(history)
1928
2093
    for i, rev in enumerate(revisions):
1929
2094
        lr = LogRevision(rev, i + last_revno, 0, None)
1930
2095
        lf.log_revision(lr)
1931
2096
 
1932
2097
 
1933
 
def _get_info_for_log_files(revisionspec_list, file_list, add_cleanup):
1934
 
    """Find file-ids and kinds given a list of files and a revision range.
 
2098
def _get_info_for_log_files(revisionspec_list, file_list, exit_stack):
 
2099
    """Find files and kinds given a list of files and a revision range.
1935
2100
 
1936
2101
    We search for files at the end of the range. If not found there,
1937
2102
    we try the start of the range.
1940
2105
    :param file_list: the list of paths given on the command line;
1941
2106
      the first of these can be a branch location or a file path,
1942
2107
      the remainder must be file paths
1943
 
    :param add_cleanup: When the branch returned is read locked,
1944
 
      an unlock call will be queued to the cleanup.
 
2108
    :param exit_stack: When the branch returned is read locked,
 
2109
      an unlock call will be queued to the exit stack.
1945
2110
    :return: (branch, info_list, start_rev_info, end_rev_info) where
1946
 
      info_list is a list of (relative_path, file_id, kind) tuples where
 
2111
      info_list is a list of (relative_path, found, kind) tuples where
1947
2112
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
1948
2113
      branch will be read-locked.
1949
2114
    """
1950
 
    from builtins import _get_revision_range, safe_relpath_files
1951
 
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
1952
 
    add_cleanup(b.lock_read().unlock)
 
2115
    from breezy.builtins import _get_revision_range
 
2116
    tree, b, path = controldir.ControlDir.open_containing_tree_or_branch(
 
2117
        file_list[0])
 
2118
    exit_stack.enter_context(b.lock_read())
1953
2119
    # XXX: It's damn messy converting a list of paths to relative paths when
1954
2120
    # those paths might be deleted ones, they might be on a case-insensitive
1955
2121
    # filesystem and/or they might be in silly locations (like another branch).
1959
2125
    # case of running log in a nested directory, assuming paths beyond the
1960
2126
    # first one haven't been deleted ...
1961
2127
    if tree:
1962
 
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
 
2128
        relpaths = [path] + tree.safe_relpath_files(file_list[1:])
1963
2129
    else:
1964
2130
        relpaths = [path] + file_list[1:]
1965
2131
    info_list = []
1966
2132
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
1967
 
        "log")
 
2133
                                                       "log")
1968
2134
    if relpaths in ([], [u'']):
1969
2135
        return b, [], start_rev_info, end_rev_info
1970
2136
    if start_rev_info is None and end_rev_info is None:
1972
2138
            tree = b.basis_tree()
1973
2139
        tree1 = None
1974
2140
        for fp in relpaths:
1975
 
            file_id = tree.path2id(fp)
1976
 
            kind = _get_kind_for_file_id(tree, file_id)
1977
 
            if file_id is None:
 
2141
            kind = _get_kind_for_file(tree, fp)
 
2142
            if not kind:
1978
2143
                # go back to when time began
1979
2144
                if tree1 is None:
1980
2145
                    try:
1981
2146
                        rev1 = b.get_rev_id(1)
1982
2147
                    except errors.NoSuchRevision:
1983
2148
                        # No history at all
1984
 
                        file_id = None
1985
2149
                        kind = None
1986
2150
                    else:
1987
2151
                        tree1 = b.repository.revision_tree(rev1)
1988
2152
                if tree1:
1989
 
                    file_id = tree1.path2id(fp)
1990
 
                    kind = _get_kind_for_file_id(tree1, file_id)
1991
 
            info_list.append((fp, file_id, kind))
 
2153
                    kind = _get_kind_for_file(tree1, fp)
 
2154
            info_list.append((fp, kind))
1992
2155
 
1993
2156
    elif start_rev_info == end_rev_info:
1994
2157
        # One revision given - file must exist in it
1995
2158
        tree = b.repository.revision_tree(end_rev_info.rev_id)
1996
2159
        for fp in relpaths:
1997
 
            file_id = tree.path2id(fp)
1998
 
            kind = _get_kind_for_file_id(tree, file_id)
1999
 
            info_list.append((fp, file_id, kind))
 
2160
            kind = _get_kind_for_file(tree, fp)
 
2161
            info_list.append((fp, kind))
2000
2162
 
2001
2163
    else:
2002
2164
        # Revision range given. Get the file-id from the end tree.
2008
2170
            tree = b.repository.revision_tree(rev_id)
2009
2171
        tree1 = None
2010
2172
        for fp in relpaths:
2011
 
            file_id = tree.path2id(fp)
2012
 
            kind = _get_kind_for_file_id(tree, file_id)
2013
 
            if file_id is None:
 
2173
            kind = _get_kind_for_file(tree, fp)
 
2174
            if not kind:
2014
2175
                if tree1 is None:
2015
2176
                    rev_id = start_rev_info.rev_id
2016
2177
                    if rev_id is None:
2018
2179
                        tree1 = b.repository.revision_tree(rev1)
2019
2180
                    else:
2020
2181
                        tree1 = b.repository.revision_tree(rev_id)
2021
 
                file_id = tree1.path2id(fp)
2022
 
                kind = _get_kind_for_file_id(tree1, file_id)
2023
 
            info_list.append((fp, file_id, kind))
 
2182
                kind = _get_kind_for_file(tree1, fp)
 
2183
            info_list.append((fp, kind))
2024
2184
    return b, info_list, start_rev_info, end_rev_info
2025
2185
 
2026
2186
 
2027
 
def _get_kind_for_file_id(tree, file_id):
2028
 
    """Return the kind of a file-id or None if it doesn't exist."""
2029
 
    if file_id is not None:
2030
 
        return tree.kind(file_id)
2031
 
    else:
2032
 
        return None
 
2187
def _get_kind_for_file(tree, path):
 
2188
    """Return the kind of a path or None if it doesn't exist."""
 
2189
    with tree.lock_read():
 
2190
        try:
 
2191
            return tree.stored_kind(path)
 
2192
        except errors.NoSuchFile:
 
2193
            return None
2033
2194
 
2034
2195
 
2035
2196
properties_handler_registry = registry.Registry()
2036
2197
 
2037
2198
# Use the properties handlers to print out bug information if available
 
2199
 
 
2200
 
2038
2201
def _bugs_properties_handler(revision):
2039
 
    if revision.properties.has_key('bugs'):
2040
 
        bug_lines = revision.properties['bugs'].split('\n')
2041
 
        bug_rows = [line.split(' ', 1) for line in bug_lines]
2042
 
        fixed_bug_urls = [row[0] for row in bug_rows if
2043
 
                          len(row) > 1 and row[1] == 'fixed']
 
2202
    fixed_bug_urls = []
 
2203
    related_bug_urls = []
 
2204
    for bug_url, status in revision.iter_bugs():
 
2205
        if status == 'fixed':
 
2206
            fixed_bug_urls.append(bug_url)
 
2207
        elif status == 'related':
 
2208
            related_bug_urls.append(bug_url)
 
2209
    ret = {}
 
2210
    if fixed_bug_urls:
 
2211
        text = ngettext('fixes bug', 'fixes bugs', len(fixed_bug_urls))
 
2212
        ret[text] = ' '.join(fixed_bug_urls)
 
2213
    if related_bug_urls:
 
2214
        text = ngettext('related bug', 'related bugs',
 
2215
                        len(related_bug_urls))
 
2216
        ret[text] = ' '.join(related_bug_urls)
 
2217
    return ret
2044
2218
 
2045
 
        if fixed_bug_urls:
2046
 
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
2047
 
    return {}
2048
2219
 
2049
2220
properties_handler_registry.register('bugs_properties_handler',
2050
2221
                                     _bugs_properties_handler)