/brz/remove-bazaar

To get this branch, use:
bzr branch http://gegoxaren.bato24.eu/bzr/brz/remove-bazaar

« back to all changes in this revision

Viewing changes to bzrlib/log.py

  • Committer: Robert Collins
  • Date: 2010-05-11 08:36:16 UTC
  • mto: This revision was merged to the branch mainline in revision 5223.
  • Revision ID: robertc@robertcollins.net-20100511083616-b8fjb19zomwupid0
Make all lock methods return Result objects, rather than lock_read returning self, as per John's review.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2005-2011 Canonical Ltd
 
1
# Copyright (C) 2005-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
14
14
# along with this program; if not, write to the Free Software
15
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
 
17
 
 
18
 
17
19
"""Code to show logs of changes.
18
20
 
19
21
Various flavors of log can be produced:
24
26
* in "verbose" mode with a description of what changed from one
25
27
  version to the next
26
28
 
27
 
* with files and revision-ids shown
 
29
* with file-ids and revision-ids shown
28
30
 
29
31
Logs are actually written out through an abstract LogFormatter
30
32
interface, which allows for different preferred formats.  Plugins can
47
49
all the changes since the previous revision that touched hello.c.
48
50
"""
49
51
 
50
 
from __future__ import absolute_import
51
 
 
52
52
import codecs
53
 
import itertools
 
53
from cStringIO import StringIO
 
54
from itertools import (
 
55
    chain,
 
56
    izip,
 
57
    )
54
58
import re
55
59
import sys
56
60
from warnings import (
57
61
    warn,
58
62
    )
59
63
 
60
 
from .lazy_import import lazy_import
 
64
from bzrlib.lazy_import import lazy_import
61
65
lazy_import(globals(), """
62
66
 
63
 
from breezy import (
 
67
from bzrlib import (
 
68
    bzrdir,
64
69
    config,
65
 
    controldir,
66
70
    diff,
 
71
    errors,
67
72
    foreign,
68
 
    lazy_regex,
 
73
    repository as _mod_repository,
69
74
    revision as _mod_revision,
 
75
    revisionspec,
 
76
    trace,
 
77
    tsort,
70
78
    )
71
 
from breezy.i18n import gettext, ngettext
72
79
""")
73
80
 
74
 
from . import (
75
 
    errors,
 
81
from bzrlib import (
76
82
    registry,
77
 
    revisionspec,
78
 
    trace,
79
83
    )
80
 
from .osutils import (
 
84
from bzrlib.osutils import (
81
85
    format_date,
82
86
    format_date_with_offset_in_original_timezone,
83
 
    get_diff_header_encoding,
84
87
    get_terminal_encoding,
85
 
    is_inside,
 
88
    re_compile_checked,
86
89
    terminal_width,
87
90
    )
88
 
from .sixish import (
89
 
    BytesIO,
90
 
    range,
91
 
    zip,
 
91
from bzrlib.symbol_versioning import (
 
92
    deprecated_function,
 
93
    deprecated_in,
92
94
    )
93
 
from .tree import InterTree
94
 
 
95
 
 
96
 
def find_touching_revisions(repository, last_revision, last_tree, last_path):
97
 
    """Yield a description of revisions which affect the file.
 
95
 
 
96
 
 
97
def find_touching_revisions(branch, file_id):
 
98
    """Yield a description of revisions which affect the file_id.
98
99
 
99
100
    Each returned element is (revno, revision_id, description)
100
101
 
104
105
    TODO: Perhaps some way to limit this to only particular revisions,
105
106
    or to traverse a non-mainline set of revisions?
106
107
    """
107
 
    last_verifier = last_tree.get_file_verifier(last_path)
108
 
    graph = repository.get_graph()
109
 
    history = list(graph.iter_lefthand_ancestry(last_revision, []))
110
 
    revno = len(history)
111
 
    for revision_id in history:
112
 
        this_tree = repository.revision_tree(revision_id)
113
 
        this_intertree = InterTree.get(this_tree, last_tree)
114
 
        this_path = this_intertree.find_source_path(last_path)
 
108
    last_ie = None
 
109
    last_path = None
 
110
    revno = 1
 
111
    for revision_id in branch.revision_history():
 
112
        this_inv = branch.repository.get_inventory(revision_id)
 
113
        if file_id in this_inv:
 
114
            this_ie = this_inv[file_id]
 
115
            this_path = this_inv.id2path(file_id)
 
116
        else:
 
117
            this_ie = this_path = None
115
118
 
116
119
        # now we know how it was last time, and how it is in this revision.
117
120
        # are those two states effectively the same or not?
118
 
        if this_path is not None and last_path is None:
119
 
            yield revno, revision_id, "deleted " + this_path
120
 
            this_verifier = this_tree.get_file_verifier(this_path)
121
 
        elif this_path is None and last_path is not None:
122
 
            yield revno, revision_id, "added " + last_path
 
121
 
 
122
        if not this_ie and not last_ie:
 
123
            # not present in either
 
124
            pass
 
125
        elif this_ie and not last_ie:
 
126
            yield revno, revision_id, "added " + this_path
 
127
        elif not this_ie and last_ie:
 
128
            # deleted here
 
129
            yield revno, revision_id, "deleted " + last_path
123
130
        elif this_path != last_path:
124
 
            yield revno, revision_id, ("renamed %s => %s" % (this_path, last_path))
125
 
            this_verifier = this_tree.get_file_verifier(this_path)
126
 
        else:
127
 
            this_verifier = this_tree.get_file_verifier(this_path)
128
 
            if (this_verifier != last_verifier):
129
 
                yield revno, revision_id, "modified " + this_path
 
131
            yield revno, revision_id, ("renamed %s => %s" % (last_path, this_path))
 
132
        elif (this_ie.text_size != last_ie.text_size
 
133
              or this_ie.text_sha1 != last_ie.text_sha1):
 
134
            yield revno, revision_id, "modified " + this_path
130
135
 
131
 
        last_verifier = this_verifier
 
136
        last_ie = this_ie
132
137
        last_path = this_path
133
 
        last_tree = this_tree
134
 
        if last_path is None:
135
 
            return
136
 
        revno -= 1
 
138
        revno += 1
 
139
 
 
140
 
 
141
def _enumerate_history(branch):
 
142
    rh = []
 
143
    revno = 1
 
144
    for rev_id in branch.revision_history():
 
145
        rh.append((revno, rev_id))
 
146
        revno += 1
 
147
    return rh
137
148
 
138
149
 
139
150
def show_log(branch,
140
151
             lf,
 
152
             specific_fileid=None,
141
153
             verbose=False,
142
154
             direction='reverse',
143
155
             start_revision=None,
144
156
             end_revision=None,
 
157
             search=None,
145
158
             limit=None,
146
 
             show_diff=False,
147
 
             match=None):
 
159
             show_diff=False):
148
160
    """Write out human-readable log of commits to this branch.
149
161
 
150
162
    This function is being retained for backwards compatibility but
154
166
 
155
167
    :param lf: The LogFormatter object showing the output.
156
168
 
 
169
    :param specific_fileid: If not None, list only the commits affecting the
 
170
        specified file, rather than all commits.
 
171
 
157
172
    :param verbose: If True show added/changed/deleted/renamed files.
158
173
 
159
174
    :param direction: 'reverse' (default) is latest to earliest; 'forward' is
163
178
 
164
179
    :param end_revision: If not None, only show revisions <= end_revision
165
180
 
 
181
    :param search: If not None, only show revisions with matching commit
 
182
        messages
 
183
 
166
184
    :param limit: If set, shows only 'limit' revisions, all revisions are shown
167
185
        if None or 0.
168
186
 
169
187
    :param show_diff: If True, output a diff after each revision.
170
 
 
171
 
    :param match: Dictionary of search lists to use when matching revision
172
 
      properties.
173
188
    """
 
189
    # Convert old-style parameters to new-style parameters
 
190
    if specific_fileid is not None:
 
191
        file_ids = [specific_fileid]
 
192
    else:
 
193
        file_ids = None
174
194
    if verbose:
175
 
        delta_type = 'full'
 
195
        if file_ids:
 
196
            delta_type = 'partial'
 
197
        else:
 
198
            delta_type = 'full'
176
199
    else:
177
200
        delta_type = None
178
201
    if show_diff:
179
 
        diff_type = 'full'
 
202
        if file_ids:
 
203
            diff_type = 'partial'
 
204
        else:
 
205
            diff_type = 'full'
180
206
    else:
181
207
        diff_type = None
182
208
 
183
 
    if isinstance(start_revision, int):
184
 
        try:
185
 
            start_revision = revisionspec.RevisionInfo(branch, start_revision)
186
 
        except (errors.NoSuchRevision, errors.RevnoOutOfBounds):
187
 
            raise errors.InvalidRevisionNumber(start_revision)
188
 
 
189
 
    if isinstance(end_revision, int):
190
 
        try:
191
 
            end_revision = revisionspec.RevisionInfo(branch, end_revision)
192
 
        except (errors.NoSuchRevision, errors.RevnoOutOfBounds):
193
 
            raise errors.InvalidRevisionNumber(end_revision)
194
 
 
195
 
    if end_revision is not None and end_revision.revno == 0:
196
 
        raise errors.InvalidRevisionNumber(end_revision.revno)
197
 
 
198
209
    # Build the request and execute it
199
 
    rqst = make_log_request_dict(
200
 
        direction=direction,
 
210
    rqst = make_log_request_dict(direction=direction, specific_fileids=file_ids,
201
211
        start_revision=start_revision, end_revision=end_revision,
202
 
        limit=limit, delta_type=delta_type, diff_type=diff_type)
 
212
        limit=limit, message_search=search,
 
213
        delta_type=delta_type, diff_type=diff_type)
203
214
    Logger(branch, rqst).show(lf)
204
215
 
205
216
 
206
 
# Note: This needs to be kept in sync with the defaults in
 
217
# Note: This needs to be kept this in sync with the defaults in
207
218
# make_log_request_dict() below
208
219
_DEFAULT_REQUEST_PARAMS = {
209
220
    'direction': 'reverse',
210
 
    'levels': None,
 
221
    'levels': 1,
211
222
    'generate_tags': True,
212
223
    'exclude_common_ancestry': False,
213
224
    '_match_using_deltas': True,
214
225
    }
215
226
 
216
227
 
217
 
def make_log_request_dict(direction='reverse', specific_files=None,
 
228
def make_log_request_dict(direction='reverse', specific_fileids=None,
218
229
                          start_revision=None, end_revision=None, limit=None,
219
 
                          message_search=None, levels=None, generate_tags=True,
 
230
                          message_search=None, levels=1, generate_tags=True,
220
231
                          delta_type=None,
221
232
                          diff_type=None, _match_using_deltas=True,
222
 
                          exclude_common_ancestry=False, match=None,
223
 
                          signature=False, omit_merges=False,
 
233
                          exclude_common_ancestry=False,
224
234
                          ):
225
235
    """Convenience function for making a logging request dictionary.
226
236
 
231
241
    :param direction: 'reverse' (default) is latest to earliest;
232
242
      'forward' is earliest to latest.
233
243
 
234
 
    :param specific_files: If not None, only include revisions
 
244
    :param specific_fileids: If not None, only include revisions
235
245
      affecting the specified files, rather than all revisions.
236
246
 
237
247
    :param start_revision: If not None, only generate
247
257
      matching commit messages
248
258
 
249
259
    :param levels: the number of levels of revisions to
250
 
      generate; 1 for just the mainline; 0 for all levels, or None for
251
 
      a sensible default.
 
260
      generate; 1 for just the mainline; 0 for all levels.
252
261
 
253
262
    :param generate_tags: If True, include tags for matched revisions.
254
 
`
 
263
 
255
264
    :param delta_type: Either 'full', 'partial' or None.
256
265
      'full' means generate the complete delta - adds/deletes/modifies/etc;
257
 
      'partial' means filter the delta using specific_files;
 
266
      'partial' means filter the delta using specific_fileids;
258
267
      None means do not generate any delta.
259
268
 
260
269
    :param diff_type: Either 'full', 'partial' or None.
261
270
      'full' means generate the complete diff - adds/deletes/modifies/etc;
262
 
      'partial' means filter the diff using specific_files;
 
271
      'partial' means filter the diff using specific_fileids;
263
272
      None means do not generate any diff.
264
273
 
265
274
    :param _match_using_deltas: a private parameter controlling the
266
 
      algorithm used for matching specific_files. This parameter
267
 
      may be removed in the future so breezy client code should NOT
 
275
      algorithm used for matching specific_fileids. This parameter
 
276
      may be removed in the future so bzrlib client code should NOT
268
277
      use it.
269
278
 
270
279
    :param exclude_common_ancestry: Whether -rX..Y should be interpreted as a
271
280
      range operator or as a graph difference.
272
 
 
273
 
    :param signature: show digital signature information
274
 
 
275
 
    :param match: Dictionary of list of search strings to use when filtering
276
 
      revisions. Keys can be 'message', 'author', 'committer', 'bugs' or
277
 
      the empty string to match any of the preceding properties.
278
 
 
279
 
    :param omit_merges: If True, commits with more than one parent are
280
 
      omitted.
281
 
 
282
281
    """
283
 
    # Take care of old style message_search parameter
284
 
    if message_search:
285
 
        if match:
286
 
            if 'message' in match:
287
 
                match['message'].append(message_search)
288
 
            else:
289
 
                match['message'] = [message_search]
290
 
        else:
291
 
            match = {'message': [message_search]}
292
282
    return {
293
283
        'direction': direction,
294
 
        'specific_files': specific_files,
 
284
        'specific_fileids': specific_fileids,
295
285
        'start_revision': start_revision,
296
286
        'end_revision': end_revision,
297
287
        'limit': limit,
 
288
        'message_search': message_search,
298
289
        'levels': levels,
299
290
        'generate_tags': generate_tags,
300
291
        'delta_type': delta_type,
301
292
        'diff_type': diff_type,
302
293
        'exclude_common_ancestry': exclude_common_ancestry,
303
 
        'signature': signature,
304
 
        'match': match,
305
 
        'omit_merges': omit_merges,
306
294
        # Add 'private' attributes for features that may be deprecated
307
295
        '_match_using_deltas': _match_using_deltas,
308
296
    }
310
298
 
311
299
def _apply_log_request_defaults(rqst):
312
300
    """Apply default values to a request dictionary."""
313
 
    result = _DEFAULT_REQUEST_PARAMS.copy()
 
301
    result = _DEFAULT_REQUEST_PARAMS
314
302
    if rqst:
315
303
        result.update(rqst)
316
304
    return result
317
305
 
318
306
 
319
 
def format_signature_validity(rev_id, branch):
320
 
    """get the signature validity
321
 
 
322
 
    :param rev_id: revision id to validate
323
 
    :param branch: branch of revision
324
 
    :return: human readable string to print to log
325
 
    """
326
 
    from breezy import gpg
327
 
 
328
 
    gpg_strategy = gpg.GPGStrategy(branch.get_config_stack())
329
 
    result = branch.repository.verify_revision_signature(rev_id, gpg_strategy)
330
 
    if result[0] == gpg.SIGNATURE_VALID:
331
 
        return u"valid signature from {0}".format(result[1])
332
 
    if result[0] == gpg.SIGNATURE_KEY_MISSING:
333
 
        return "unknown key {0}".format(result[1])
334
 
    if result[0] == gpg.SIGNATURE_NOT_VALID:
335
 
        return "invalid signature!"
336
 
    if result[0] == gpg.SIGNATURE_NOT_SIGNED:
337
 
        return "no signature"
338
 
 
339
 
 
340
307
class LogGenerator(object):
341
308
    """A generator of log revisions."""
342
309
 
369
336
        if not isinstance(lf, LogFormatter):
370
337
            warn("not a LogFormatter instance: %r" % lf)
371
338
 
372
 
        with self.branch.lock_read():
 
339
        self.branch.lock_read()
 
340
        try:
373
341
            if getattr(lf, 'begin_log', None):
374
342
                lf.begin_log()
375
343
            self._show_body(lf)
376
344
            if getattr(lf, 'end_log', None):
377
345
                lf.end_log()
 
346
        finally:
 
347
            self.branch.unlock()
378
348
 
379
349
    def _show_body(self, lf):
380
350
        """Show the main log output.
384
354
        # Tweak the LogRequest based on what the LogFormatter can handle.
385
355
        # (There's no point generating stuff if the formatter can't display it.)
386
356
        rqst = self.rqst
387
 
        if rqst['levels'] is None or lf.get_levels() > rqst['levels']:
388
 
            # user didn't specify levels, use whatever the LF can handle:
389
 
            rqst['levels'] = lf.get_levels()
390
 
 
 
357
        rqst['levels'] = lf.get_levels()
391
358
        if not getattr(lf, 'supports_tags', False):
392
359
            rqst['generate_tags'] = False
393
360
        if not getattr(lf, 'supports_delta', False):
394
361
            rqst['delta_type'] = None
395
362
        if not getattr(lf, 'supports_diff', False):
396
363
            rqst['diff_type'] = None
397
 
        if not getattr(lf, 'supports_signatures', False):
398
 
            rqst['signature'] = False
399
364
 
400
365
        # Find and print the interesting revisions
401
366
        generator = self._generator_factory(self.branch, rqst)
402
 
        try:
403
 
            for lr in generator.iter_log_revisions():
404
 
                lf.log_revision(lr)
405
 
        except errors.GhostRevisionUnusableHere:
406
 
            raise errors.CommandError(
407
 
                gettext('Further revision history missing.'))
 
367
        for lr in generator.iter_log_revisions():
 
368
            lf.log_revision(lr)
408
369
        lf.show_advice()
409
370
 
410
371
    def _generator_factory(self, branch, rqst):
411
372
        """Make the LogGenerator object to use.
412
 
 
 
373
        
413
374
        Subclasses may wish to override this.
414
375
        """
415
 
        return _DefaultLogGenerator(branch, **rqst)
416
 
 
417
 
 
418
 
def _log_revision_iterator_using_per_file_graph(
419
 
        branch, delta_type, match, levels, path, start_rev_id, end_rev_id,
420
 
        direction, exclude_common_ancestry):
421
 
    # Get the base revisions, filtering by the revision range.
422
 
    # Note that we always generate the merge revisions because
423
 
    # filter_revisions_touching_path() requires them ...
424
 
    view_revisions = _calc_view_revisions(
425
 
        branch, start_rev_id, end_rev_id,
426
 
        direction, generate_merge_revisions=True,
427
 
        exclude_common_ancestry=exclude_common_ancestry)
428
 
    if not isinstance(view_revisions, list):
429
 
        view_revisions = list(view_revisions)
430
 
    view_revisions = _filter_revisions_touching_path(
431
 
        branch, path, view_revisions,
432
 
        include_merges=levels != 1)
433
 
    return make_log_rev_iterator(
434
 
        branch, view_revisions, delta_type, match)
435
 
 
436
 
 
437
 
def _log_revision_iterator_using_delta_matching(
438
 
        branch, delta_type, match, levels, specific_files, start_rev_id, end_rev_id,
439
 
        direction, exclude_common_ancestry, limit):
440
 
    # Get the base revisions, filtering by the revision range
441
 
    generate_merge_revisions = levels != 1
442
 
    delayed_graph_generation = not specific_files and (
443
 
        limit or start_rev_id or end_rev_id)
444
 
    view_revisions = _calc_view_revisions(
445
 
        branch, start_rev_id, end_rev_id,
446
 
        direction,
447
 
        generate_merge_revisions=generate_merge_revisions,
448
 
        delayed_graph_generation=delayed_graph_generation,
449
 
        exclude_common_ancestry=exclude_common_ancestry)
450
 
 
451
 
    # Apply the other filters
452
 
    return make_log_rev_iterator(branch, view_revisions,
453
 
                                 delta_type, match,
454
 
                                 files=specific_files,
455
 
                                 direction=direction)
456
 
 
457
 
 
458
 
def _format_diff(branch, rev, diff_type, files=None):
459
 
    """Format a diff.
460
 
 
461
 
    :param branch: Branch object
462
 
    :param rev: Revision object
463
 
    :param diff_type: Type of diff to generate
464
 
    :param files: List of files to generate diff for (or None for all)
465
 
    """
466
 
    repo = branch.repository
467
 
    if len(rev.parent_ids) == 0:
468
 
        ancestor_id = _mod_revision.NULL_REVISION
469
 
    else:
470
 
        ancestor_id = rev.parent_ids[0]
471
 
    tree_1 = repo.revision_tree(ancestor_id)
472
 
    tree_2 = repo.revision_tree(rev.revision_id)
473
 
    if diff_type == 'partial' and files is not None:
474
 
        specific_files = files
475
 
    else:
476
 
        specific_files = None
477
 
    s = BytesIO()
478
 
    path_encoding = get_diff_header_encoding()
479
 
    diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
480
 
                         new_label='', path_encoding=path_encoding)
481
 
    return s.getvalue()
 
376
        return _DefaultLogGenerator(branch, rqst)
482
377
 
483
378
 
484
379
class _StartNotLinearAncestor(Exception):
488
383
class _DefaultLogGenerator(LogGenerator):
489
384
    """The default generator of log revisions."""
490
385
 
491
 
    def __init__(
492
 
            self, branch, levels=None, limit=None, diff_type=None,
493
 
            delta_type=None, show_signature=None, omit_merges=None,
494
 
            generate_tags=None, specific_files=None, match=None,
495
 
            start_revision=None, end_revision=None, direction=None,
496
 
            exclude_common_ancestry=None, _match_using_deltas=None,
497
 
            signature=None):
 
386
    def __init__(self, branch, rqst):
498
387
        self.branch = branch
499
 
        self.levels = levels
500
 
        self.limit = limit
501
 
        self.diff_type = diff_type
502
 
        self.delta_type = delta_type
503
 
        self.show_signature = signature
504
 
        self.omit_merges = omit_merges
505
 
        self.specific_files = specific_files
506
 
        self.match = match
507
 
        self.start_revision = start_revision
508
 
        self.end_revision = end_revision
509
 
        self.direction = direction
510
 
        self.exclude_common_ancestry = exclude_common_ancestry
511
 
        self._match_using_deltas = _match_using_deltas
512
 
        if generate_tags and branch.supports_tags():
 
388
        self.rqst = rqst
 
389
        if rqst.get('generate_tags') and branch.supports_tags():
513
390
            self.rev_tag_dict = branch.tags.get_reverse_tag_dict()
514
391
        else:
515
392
            self.rev_tag_dict = {}
519
396
 
520
397
        :return: An iterator yielding LogRevision objects.
521
398
        """
 
399
        rqst = self.rqst
 
400
        levels = rqst.get('levels')
 
401
        limit = rqst.get('limit')
 
402
        diff_type = rqst.get('diff_type')
522
403
        log_count = 0
523
404
        revision_iterator = self._create_log_revision_iterator()
524
405
        for revs in revision_iterator:
525
406
            for (rev_id, revno, merge_depth), rev, delta in revs:
526
407
                # 0 levels means show everything; merge_depth counts from 0
527
 
                if (self.levels != 0 and merge_depth is not None and
528
 
                        merge_depth >= self.levels):
529
 
                    continue
530
 
                if self.omit_merges and len(rev.parent_ids) > 1:
531
 
                    continue
532
 
                if rev is None:
533
 
                    raise errors.GhostRevisionUnusableHere(rev_id)
534
 
                if self.diff_type is None:
 
408
                if levels != 0 and merge_depth >= levels:
 
409
                    continue
 
410
                if diff_type is None:
535
411
                    diff = None
536
412
                else:
537
 
                    diff = _format_diff(
538
 
                        self.branch, rev, self.diff_type,
539
 
                        self.specific_files)
540
 
                if self.show_signature:
541
 
                    signature = format_signature_validity(rev_id, self.branch)
542
 
                else:
543
 
                    signature = None
544
 
                yield LogRevision(
545
 
                    rev, revno, merge_depth, delta,
546
 
                    self.rev_tag_dict.get(rev_id), diff, signature)
547
 
                if self.limit:
 
413
                    diff = self._format_diff(rev, rev_id, diff_type)
 
414
                yield LogRevision(rev, revno, merge_depth, delta,
 
415
                    self.rev_tag_dict.get(rev_id), diff)
 
416
                if limit:
548
417
                    log_count += 1
549
 
                    if log_count >= self.limit:
 
418
                    if log_count >= limit:
550
419
                        return
551
420
 
 
421
    def _format_diff(self, rev, rev_id, diff_type):
 
422
        repo = self.branch.repository
 
423
        if len(rev.parent_ids) == 0:
 
424
            ancestor_id = _mod_revision.NULL_REVISION
 
425
        else:
 
426
            ancestor_id = rev.parent_ids[0]
 
427
        tree_1 = repo.revision_tree(ancestor_id)
 
428
        tree_2 = repo.revision_tree(rev_id)
 
429
        file_ids = self.rqst.get('specific_fileids')
 
430
        if diff_type == 'partial' and file_ids is not None:
 
431
            specific_files = [tree_2.id2path(id) for id in file_ids]
 
432
        else:
 
433
            specific_files = None
 
434
        s = StringIO()
 
435
        diff.show_diff_trees(tree_1, tree_2, s, specific_files, old_label='',
 
436
            new_label='')
 
437
        return s.getvalue()
 
438
 
552
439
    def _create_log_revision_iterator(self):
553
440
        """Create a revision iterator for log.
554
441
 
555
442
        :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
556
443
            delta).
557
444
        """
558
 
        start_rev_id, end_rev_id = _get_revision_limits(
559
 
            self.branch, self.start_revision, self.end_revision)
560
 
        if self._match_using_deltas:
561
 
            return _log_revision_iterator_using_delta_matching(
562
 
                self.branch,
563
 
                delta_type=self.delta_type,
564
 
                match=self.match,
565
 
                levels=self.levels,
566
 
                specific_files=self.specific_files,
567
 
                start_rev_id=start_rev_id, end_rev_id=end_rev_id,
568
 
                direction=self.direction,
569
 
                exclude_common_ancestry=self.exclude_common_ancestry,
570
 
                limit=self.limit)
 
445
        self.start_rev_id, self.end_rev_id = _get_revision_limits(
 
446
            self.branch, self.rqst.get('start_revision'),
 
447
            self.rqst.get('end_revision'))
 
448
        if self.rqst.get('_match_using_deltas'):
 
449
            return self._log_revision_iterator_using_delta_matching()
571
450
        else:
572
451
            # We're using the per-file-graph algorithm. This scales really
573
452
            # well but only makes sense if there is a single file and it's
574
453
            # not a directory
575
 
            file_count = len(self.specific_files)
 
454
            file_count = len(self.rqst.get('specific_fileids'))
576
455
            if file_count != 1:
577
 
                raise errors.BzrError(
578
 
                    "illegal LogRequest: must match-using-deltas "
 
456
                raise BzrError("illegal LogRequest: must match-using-deltas "
579
457
                    "when logging %d files" % file_count)
580
 
            return _log_revision_iterator_using_per_file_graph(
581
 
                self.branch,
582
 
                delta_type=self.delta_type,
583
 
                match=self.match,
584
 
                levels=self.levels,
585
 
                path=self.specific_files[0],
586
 
                start_rev_id=start_rev_id, end_rev_id=end_rev_id,
587
 
                direction=self.direction,
588
 
                exclude_common_ancestry=self.exclude_common_ancestry
589
 
                )
 
458
            return self._log_revision_iterator_using_per_file_graph()
 
459
 
 
460
    def _log_revision_iterator_using_delta_matching(self):
 
461
        # Get the base revisions, filtering by the revision range
 
462
        rqst = self.rqst
 
463
        generate_merge_revisions = rqst.get('levels') != 1
 
464
        delayed_graph_generation = not rqst.get('specific_fileids') and (
 
465
                rqst.get('limit') or self.start_rev_id or self.end_rev_id)
 
466
        view_revisions = _calc_view_revisions(
 
467
            self.branch, self.start_rev_id, self.end_rev_id,
 
468
            rqst.get('direction'),
 
469
            generate_merge_revisions=generate_merge_revisions,
 
470
            delayed_graph_generation=delayed_graph_generation,
 
471
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
472
 
 
473
        # Apply the other filters
 
474
        return make_log_rev_iterator(self.branch, view_revisions,
 
475
            rqst.get('delta_type'), rqst.get('message_search'),
 
476
            file_ids=rqst.get('specific_fileids'),
 
477
            direction=rqst.get('direction'))
 
478
 
 
479
    def _log_revision_iterator_using_per_file_graph(self):
 
480
        # Get the base revisions, filtering by the revision range.
 
481
        # Note that we always generate the merge revisions because
 
482
        # filter_revisions_touching_file_id() requires them ...
 
483
        rqst = self.rqst
 
484
        view_revisions = _calc_view_revisions(
 
485
            self.branch, self.start_rev_id, self.end_rev_id,
 
486
            rqst.get('direction'), generate_merge_revisions=True,
 
487
            exclude_common_ancestry=rqst.get('exclude_common_ancestry'))
 
488
        if not isinstance(view_revisions, list):
 
489
            view_revisions = list(view_revisions)
 
490
        view_revisions = _filter_revisions_touching_file_id(self.branch,
 
491
            rqst.get('specific_fileids')[0], view_revisions,
 
492
            include_merges=rqst.get('levels') != 1)
 
493
        return make_log_rev_iterator(self.branch, view_revisions,
 
494
            rqst.get('delta_type'), rqst.get('message_search'))
590
495
 
591
496
 
592
497
def _calc_view_revisions(branch, start_rev_id, end_rev_id, direction,
600
505
             a list of the same tuples.
601
506
    """
602
507
    if (exclude_common_ancestry and start_rev_id == end_rev_id):
603
 
        raise errors.CommandError(gettext(
604
 
            '--exclude-common-ancestry requires two different revisions'))
 
508
        raise errors.BzrCommandError(
 
509
            '--exclude-common-ancestry requires two different revisions')
605
510
    if direction not in ('reverse', 'forward'):
606
 
        raise ValueError(gettext('invalid direction %r') % direction)
607
 
    br_rev_id = branch.last_revision()
608
 
    if br_rev_id == _mod_revision.NULL_REVISION:
 
511
        raise ValueError('invalid direction %r' % direction)
 
512
    br_revno, br_rev_id = branch.last_revision_info()
 
513
    if br_revno == 0:
609
514
        return []
610
515
 
611
516
    if (end_rev_id and start_rev_id == end_rev_id
612
517
        and (not generate_merge_revisions
613
518
             or not _has_merges(branch, end_rev_id))):
614
519
        # If a single revision is requested, check we can handle it
615
 
        return _generate_one_revision(branch, end_rev_id, br_rev_id,
616
 
                                      branch.revno())
617
 
    if not generate_merge_revisions:
618
 
        try:
619
 
            # If we only want to see linear revisions, we can iterate ...
620
 
            iter_revs = _linear_view_revisions(
621
 
                branch, start_rev_id, end_rev_id,
622
 
                exclude_common_ancestry=exclude_common_ancestry)
623
 
            # If a start limit was given and it's not obviously an
624
 
            # ancestor of the end limit, check it before outputting anything
625
 
            if (direction == 'forward'
626
 
                or (start_rev_id and not _is_obvious_ancestor(
627
 
                    branch, start_rev_id, end_rev_id))):
628
 
                iter_revs = list(iter_revs)
629
 
            if direction == 'forward':
630
 
                iter_revs = reversed(iter_revs)
631
 
            return iter_revs
632
 
        except _StartNotLinearAncestor:
633
 
            # Switch to the slower implementation that may be able to find a
634
 
            # non-obvious ancestor out of the left-hand history.
635
 
            pass
636
 
    iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
637
 
                                        direction, delayed_graph_generation,
638
 
                                        exclude_common_ancestry)
639
 
    if direction == 'forward':
640
 
        iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
 
520
        iter_revs = _generate_one_revision(branch, end_rev_id, br_rev_id,
 
521
                                           br_revno)
 
522
    elif not generate_merge_revisions:
 
523
        # If we only want to see linear revisions, we can iterate ...
 
524
        iter_revs = _generate_flat_revisions(branch, start_rev_id, end_rev_id,
 
525
                                             direction)
 
526
        if direction == 'forward':
 
527
            iter_revs = reversed(iter_revs)
 
528
    else:
 
529
        iter_revs = _generate_all_revisions(branch, start_rev_id, end_rev_id,
 
530
                                            direction, delayed_graph_generation,
 
531
                                            exclude_common_ancestry)
 
532
        if direction == 'forward':
 
533
            iter_revs = _rebase_merge_depth(reverse_by_depth(list(iter_revs)))
641
534
    return iter_revs
642
535
 
643
536
 
646
539
        # It's the tip
647
540
        return [(br_rev_id, br_revno, 0)]
648
541
    else:
649
 
        revno_str = _compute_revno_str(branch, rev_id)
 
542
        revno = branch.revision_id_to_dotted_revno(rev_id)
 
543
        revno_str = '.'.join(str(n) for n in revno)
650
544
        return [(rev_id, revno_str, 0)]
651
545
 
652
546
 
 
547
def _generate_flat_revisions(branch, start_rev_id, end_rev_id, direction):
 
548
    result = _linear_view_revisions(branch, start_rev_id, end_rev_id)
 
549
    # If a start limit was given and it's not obviously an
 
550
    # ancestor of the end limit, check it before outputting anything
 
551
    if direction == 'forward' or (start_rev_id
 
552
        and not _is_obvious_ancestor(branch, start_rev_id, end_rev_id)):
 
553
        try:
 
554
            result = list(result)
 
555
        except _StartNotLinearAncestor:
 
556
            raise errors.BzrCommandError('Start revision not found in'
 
557
                ' left-hand history of end revision.')
 
558
    return result
 
559
 
 
560
 
653
561
def _generate_all_revisions(branch, start_rev_id, end_rev_id, direction,
654
562
                            delayed_graph_generation,
655
563
                            exclude_common_ancestry=False):
663
571
    initial_revisions = []
664
572
    if delayed_graph_generation:
665
573
        try:
666
 
            for rev_id, revno, depth in _linear_view_revisions(
667
 
                    branch, start_rev_id, end_rev_id, exclude_common_ancestry):
 
574
            for rev_id, revno, depth in  _linear_view_revisions(
 
575
                branch, start_rev_id, end_rev_id):
668
576
                if _has_merges(branch, rev_id):
669
577
                    # The end_rev_id can be nested down somewhere. We need an
670
578
                    # explicit ancestry check. There is an ambiguity here as we
677
585
                    # -- vila 20100319
678
586
                    graph = branch.repository.get_graph()
679
587
                    if (start_rev_id is not None
680
 
                            and not graph.is_ancestor(start_rev_id, end_rev_id)):
 
588
                        and not graph.is_ancestor(start_rev_id, end_rev_id)):
681
589
                        raise _StartNotLinearAncestor()
682
590
                    # Since we collected the revisions so far, we need to
683
591
                    # adjust end_rev_id.
691
599
        except _StartNotLinearAncestor:
692
600
            # A merge was never detected so the lower revision limit can't
693
601
            # be nested down somewhere
694
 
            raise errors.CommandError(gettext('Start revision not found in'
695
 
                                                 ' history of end revision.'))
 
602
            raise errors.BzrCommandError('Start revision not found in'
 
603
                ' history of end revision.')
696
604
 
697
605
    # We exit the loop above because we encounter a revision with merges, from
698
606
    # this revision, we need to switch to _graph_view_revisions.
702
610
    # shown naturally, i.e. just like it is for linear logging. We can easily
703
611
    # make forward the exact opposite display, but showing the merge revisions
704
612
    # indented at the end seems slightly nicer in that case.
705
 
    view_revisions = itertools.chain(iter(initial_revisions),
706
 
                                     _graph_view_revisions(branch, start_rev_id, end_rev_id,
707
 
                                                           rebase_initial_depths=(
708
 
                                                               direction == 'reverse'),
709
 
                                                           exclude_common_ancestry=exclude_common_ancestry))
 
613
    view_revisions = chain(iter(initial_revisions),
 
614
        _graph_view_revisions(branch, start_rev_id, end_rev_id,
 
615
                              rebase_initial_depths=(direction == 'reverse'),
 
616
                              exclude_common_ancestry=exclude_common_ancestry))
710
617
    return view_revisions
711
618
 
712
619
 
716
623
    return len(parents) > 1
717
624
 
718
625
 
719
 
def _compute_revno_str(branch, rev_id):
720
 
    """Compute the revno string from a rev_id.
721
 
 
722
 
    :return: The revno string, or None if the revision is not in the supplied
723
 
        branch.
724
 
    """
725
 
    try:
726
 
        revno = branch.revision_id_to_dotted_revno(rev_id)
727
 
    except errors.NoSuchRevision:
728
 
        # The revision must be outside of this branch
729
 
        return None
730
 
    else:
731
 
        return '.'.join(str(n) for n in revno)
732
 
 
733
 
 
734
626
def _is_obvious_ancestor(branch, start_rev_id, end_rev_id):
735
627
    """Is start_rev_id an obvious ancestor of end_rev_id?"""
736
628
    if start_rev_id and end_rev_id:
737
 
        try:
738
 
            start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
739
 
            end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
740
 
        except errors.NoSuchRevision:
741
 
            # one or both is not in the branch; not obvious
742
 
            return False
 
629
        start_dotted = branch.revision_id_to_dotted_revno(start_rev_id)
 
630
        end_dotted = branch.revision_id_to_dotted_revno(end_rev_id)
743
631
        if len(start_dotted) == 1 and len(end_dotted) == 1:
744
632
            # both on mainline
745
633
            return start_dotted[0] <= end_dotted[0]
746
634
        elif (len(start_dotted) == 3 and len(end_dotted) == 3 and
747
 
              start_dotted[0:1] == end_dotted[0:1]):
 
635
            start_dotted[0:1] == end_dotted[0:1]):
748
636
            # both on same development line
749
637
            return start_dotted[2] <= end_dotted[2]
750
638
        else:
755
643
    return True
756
644
 
757
645
 
758
 
def _linear_view_revisions(branch, start_rev_id, end_rev_id,
759
 
                           exclude_common_ancestry=False):
 
646
def _linear_view_revisions(branch, start_rev_id, end_rev_id):
760
647
    """Calculate a sequence of revisions to view, newest to oldest.
761
648
 
762
649
    :param start_rev_id: the lower revision-id
763
650
    :param end_rev_id: the upper revision-id
764
 
    :param exclude_common_ancestry: Whether the start_rev_id should be part of
765
 
        the iterated revisions.
766
651
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples.
767
 
        dotted_revno will be None for ghosts
768
652
    :raises _StartNotLinearAncestor: if a start_rev_id is specified but
769
 
        is not found walking the left-hand history
 
653
      is not found walking the left-hand history
770
654
    """
 
655
    br_revno, br_rev_id = branch.last_revision_info()
771
656
    repo = branch.repository
772
 
    graph = repo.get_graph()
773
657
    if start_rev_id is None and end_rev_id is None:
774
 
        if branch._format.stores_revno() or \
775
 
                config.GlobalStack().get('calculate_revnos'):
776
 
            try:
777
 
                br_revno, br_rev_id = branch.last_revision_info()
778
 
            except errors.GhostRevisionsHaveNoRevno:
779
 
                br_rev_id = branch.last_revision()
780
 
                cur_revno = None
781
 
            else:
782
 
                cur_revno = br_revno
783
 
        else:
784
 
            br_rev_id = branch.last_revision()
785
 
            cur_revno = None
786
 
 
787
 
        graph_iter = graph.iter_lefthand_ancestry(br_rev_id,
788
 
                                                  (_mod_revision.NULL_REVISION,))
789
 
        while True:
790
 
            try:
791
 
                revision_id = next(graph_iter)
792
 
            except errors.RevisionNotPresent as e:
793
 
                # Oops, a ghost.
794
 
                yield e.revision_id, None, None
795
 
                break
796
 
            except StopIteration:
797
 
                break
798
 
            else:
799
 
                yield revision_id, str(cur_revno) if cur_revno is not None else None, 0
800
 
                if cur_revno is not None:
801
 
                    cur_revno -= 1
 
658
        cur_revno = br_revno
 
659
        for revision_id in repo.iter_reverse_revision_history(br_rev_id):
 
660
            yield revision_id, str(cur_revno), 0
 
661
            cur_revno -= 1
802
662
    else:
803
 
        br_rev_id = branch.last_revision()
804
663
        if end_rev_id is None:
805
664
            end_rev_id = br_rev_id
806
665
        found_start = start_rev_id is None
807
 
        graph_iter = graph.iter_lefthand_ancestry(end_rev_id,
808
 
                                                  (_mod_revision.NULL_REVISION,))
809
 
        while True:
810
 
            try:
811
 
                revision_id = next(graph_iter)
812
 
            except StopIteration:
813
 
                break
814
 
            except errors.RevisionNotPresent as e:
815
 
                # Oops, a ghost.
816
 
                yield e.revision_id, None, None
 
666
        for revision_id in repo.iter_reverse_revision_history(end_rev_id):
 
667
            revno = branch.revision_id_to_dotted_revno(revision_id)
 
668
            revno_str = '.'.join(str(n) for n in revno)
 
669
            if not found_start and revision_id == start_rev_id:
 
670
                yield revision_id, revno_str, 0
 
671
                found_start = True
817
672
                break
818
673
            else:
819
 
                revno_str = _compute_revno_str(branch, revision_id)
820
 
                if not found_start and revision_id == start_rev_id:
821
 
                    if not exclude_common_ancestry:
822
 
                        yield revision_id, revno_str, 0
823
 
                    found_start = True
824
 
                    break
825
 
                else:
826
 
                    yield revision_id, revno_str, 0
827
 
        if not found_start:
828
 
            raise _StartNotLinearAncestor()
 
674
                yield revision_id, revno_str, 0
 
675
        else:
 
676
            if not found_start:
 
677
                raise _StartNotLinearAncestor()
829
678
 
830
679
 
831
680
def _graph_view_revisions(branch, start_rev_id, end_rev_id,
872
721
            yield rev_id, '.'.join(map(str, revno)), merge_depth
873
722
 
874
723
 
 
724
@deprecated_function(deprecated_in((2, 2, 0)))
 
725
def calculate_view_revisions(branch, start_revision, end_revision, direction,
 
726
        specific_fileid, generate_merge_revisions):
 
727
    """Calculate the revisions to view.
 
728
 
 
729
    :return: An iterator of (revision_id, dotted_revno, merge_depth) tuples OR
 
730
             a list of the same tuples.
 
731
    """
 
732
    start_rev_id, end_rev_id = _get_revision_limits(branch, start_revision,
 
733
        end_revision)
 
734
    view_revisions = list(_calc_view_revisions(branch, start_rev_id, end_rev_id,
 
735
        direction, generate_merge_revisions or specific_fileid))
 
736
    if specific_fileid:
 
737
        view_revisions = _filter_revisions_touching_file_id(branch,
 
738
            specific_fileid, view_revisions,
 
739
            include_merges=generate_merge_revisions)
 
740
    return _rebase_merge_depth(view_revisions)
 
741
 
 
742
 
875
743
def _rebase_merge_depth(view_revisions):
876
744
    """Adjust depths upwards so the top level is 0."""
877
745
    # If either the first or last revision have a merge_depth of 0, we're done
878
746
    if view_revisions and view_revisions[0][2] and view_revisions[-1][2]:
879
 
        min_depth = min([d for r, n, d in view_revisions])
 
747
        min_depth = min([d for r,n,d in view_revisions])
880
748
        if min_depth != 0:
881
 
            view_revisions = [(r, n, d - min_depth)
882
 
                              for r, n, d in view_revisions]
 
749
            view_revisions = [(r,n,d-min_depth) for r,n,d in view_revisions]
883
750
    return view_revisions
884
751
 
885
752
 
886
753
def make_log_rev_iterator(branch, view_revisions, generate_delta, search,
887
 
                          files=None, direction='reverse'):
 
754
        file_ids=None, direction='reverse'):
888
755
    """Create a revision iterator for log.
889
756
 
890
757
    :param branch: The branch being logged.
892
759
    :param generate_delta: Whether to generate a delta for each revision.
893
760
      Permitted values are None, 'full' and 'partial'.
894
761
    :param search: A user text search string.
895
 
    :param files: If non empty, only revisions matching one or more of
896
 
      the files are to be kept.
 
762
    :param file_ids: If non empty, only revisions matching one or more of
 
763
      the file-ids are to be kept.
897
764
    :param direction: the direction in which view_revisions is sorted
898
765
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
899
766
        delta).
900
767
    """
901
768
    # Convert view_revisions into (view, None, None) groups to fit with
902
769
    # the standard interface here.
903
 
    if isinstance(view_revisions, list):
 
770
    if type(view_revisions) == list:
904
771
        # A single batch conversion is faster than many incremental ones.
905
772
        # As we have all the data, do a batch conversion.
906
773
        nones = [None] * len(view_revisions)
907
 
        log_rev_iterator = iter([list(zip(view_revisions, nones, nones))])
 
774
        log_rev_iterator = iter([zip(view_revisions, nones, nones)])
908
775
    else:
909
776
        def _convert():
910
777
            for view in view_revisions:
914
781
        # It would be nicer if log adapters were first class objects
915
782
        # with custom parameters. This will do for now. IGC 20090127
916
783
        if adapter == _make_delta_filter:
917
 
            log_rev_iterator = adapter(
918
 
                branch, generate_delta, search, log_rev_iterator, files,
919
 
                direction)
 
784
            log_rev_iterator = adapter(branch, generate_delta,
 
785
                search, log_rev_iterator, file_ids, direction)
920
786
        else:
921
 
            log_rev_iterator = adapter(
922
 
                branch, generate_delta, search, log_rev_iterator)
 
787
            log_rev_iterator = adapter(branch, generate_delta,
 
788
                search, log_rev_iterator)
923
789
    return log_rev_iterator
924
790
 
925
791
 
926
 
def _make_search_filter(branch, generate_delta, match, log_rev_iterator):
 
792
def _make_search_filter(branch, generate_delta, search, log_rev_iterator):
927
793
    """Create a filtered iterator of log_rev_iterator matching on a regex.
928
794
 
929
795
    :param branch: The branch being logged.
930
796
    :param generate_delta: Whether to generate a delta for each revision.
931
 
    :param match: A dictionary with properties as keys and lists of strings
932
 
        as values. To match, a revision may match any of the supplied strings
933
 
        within a single property but must match at least one string for each
934
 
        property.
 
797
    :param search: A user text search string.
935
798
    :param log_rev_iterator: An input iterator containing all revisions that
936
799
        could be displayed, in lists.
937
800
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
938
801
        delta).
939
802
    """
940
 
    if not match:
 
803
    if search is None:
941
804
        return log_rev_iterator
942
 
    # Use lazy_compile so mapping to InvalidPattern error occurs.
943
 
    searchRE = [(k, [lazy_regex.lazy_compile(x, re.IGNORECASE) for x in v])
944
 
                for k, v in match.items()]
945
 
    return _filter_re(searchRE, log_rev_iterator)
946
 
 
947
 
 
948
 
def _filter_re(searchRE, log_rev_iterator):
 
805
    searchRE = re_compile_checked(search, re.IGNORECASE,
 
806
            'log message filter')
 
807
    return _filter_message_re(searchRE, log_rev_iterator)
 
808
 
 
809
 
 
810
def _filter_message_re(searchRE, log_rev_iterator):
949
811
    for revs in log_rev_iterator:
950
 
        new_revs = [rev for rev in revs if _match_filter(searchRE, rev[1])]
951
 
        if new_revs:
952
 
            yield new_revs
953
 
 
954
 
 
955
 
def _match_filter(searchRE, rev):
956
 
    strings = {
957
 
        'message': (rev.message,),
958
 
        'committer': (rev.committer,),
959
 
        'author': (rev.get_apparent_authors()),
960
 
        'bugs': list(rev.iter_bugs())
961
 
        }
962
 
    strings[''] = [item for inner_list in strings.values()
963
 
                   for item in inner_list]
964
 
    for k, v in searchRE:
965
 
        if k in strings and not _match_any_filter(strings[k], v):
966
 
            return False
967
 
    return True
968
 
 
969
 
 
970
 
def _match_any_filter(strings, res):
971
 
    return any(r.search(s) for r in res for s in strings)
 
812
        new_revs = []
 
813
        for (rev_id, revno, merge_depth), rev, delta in revs:
 
814
            if searchRE.search(rev.message):
 
815
                new_revs.append(((rev_id, revno, merge_depth), rev, delta))
 
816
        yield new_revs
972
817
 
973
818
 
974
819
def _make_delta_filter(branch, generate_delta, search, log_rev_iterator,
975
 
                       files=None, direction='reverse'):
 
820
    fileids=None, direction='reverse'):
976
821
    """Add revision deltas to a log iterator if needed.
977
822
 
978
823
    :param branch: The branch being logged.
981
826
    :param search: A user text search string.
982
827
    :param log_rev_iterator: An input iterator containing all revisions that
983
828
        could be displayed, in lists.
984
 
    :param files: If non empty, only revisions matching one or more of
985
 
      the files are to be kept.
 
829
    :param fileids: If non empty, only revisions matching one or more of
 
830
      the file-ids are to be kept.
986
831
    :param direction: the direction in which view_revisions is sorted
987
832
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
988
833
        delta).
989
834
    """
990
 
    if not generate_delta and not files:
 
835
    if not generate_delta and not fileids:
991
836
        return log_rev_iterator
992
837
    return _generate_deltas(branch.repository, log_rev_iterator,
993
 
                            generate_delta, files, direction)
994
 
 
995
 
 
996
 
def _generate_deltas(repository, log_rev_iterator, delta_type, files,
997
 
                     direction):
 
838
        generate_delta, fileids, direction)
 
839
 
 
840
 
 
841
def _generate_deltas(repository, log_rev_iterator, delta_type, fileids,
 
842
    direction):
998
843
    """Create deltas for each batch of revisions in log_rev_iterator.
999
844
 
1000
845
    If we're only generating deltas for the sake of filtering against
1001
 
    files, we stop generating deltas once all files reach the
 
846
    file-ids, we stop generating deltas once all file-ids reach the
1002
847
    appropriate life-cycle point. If we're receiving data newest to
1003
848
    oldest, then that life-cycle point is 'add', otherwise it's 'remove'.
1004
849
    """
1005
 
    check_files = files is not None and len(files) > 0
1006
 
    if check_files:
1007
 
        file_set = set(files)
 
850
    check_fileids = fileids is not None and len(fileids) > 0
 
851
    if check_fileids:
 
852
        fileid_set = set(fileids)
1008
853
        if direction == 'reverse':
1009
854
            stop_on = 'add'
1010
855
        else:
1011
856
            stop_on = 'remove'
1012
857
    else:
1013
 
        file_set = None
 
858
        fileid_set = None
1014
859
    for revs in log_rev_iterator:
1015
 
        # If we were matching against files and we've run out,
 
860
        # If we were matching against fileids and we've run out,
1016
861
        # there's nothing left to do
1017
 
        if check_files and not file_set:
 
862
        if check_fileids and not fileid_set:
1018
863
            return
1019
864
        revisions = [rev[1] for rev in revs]
1020
865
        new_revs = []
1021
 
        if delta_type == 'full' and not check_files:
1022
 
            deltas = repository.get_revision_deltas(revisions)
1023
 
            for rev, delta in zip(revs, deltas):
 
866
        if delta_type == 'full' and not check_fileids:
 
867
            deltas = repository.get_deltas_for_revisions(revisions)
 
868
            for rev, delta in izip(revs, deltas):
1024
869
                new_revs.append((rev[0], rev[1], delta))
1025
870
        else:
1026
 
            deltas = repository.get_revision_deltas(
1027
 
                revisions, specific_files=file_set)
1028
 
            for rev, delta in zip(revs, deltas):
1029
 
                if check_files:
 
871
            deltas = repository.get_deltas_for_revisions(revisions, fileid_set)
 
872
            for rev, delta in izip(revs, deltas):
 
873
                if check_fileids:
1030
874
                    if delta is None or not delta.has_changed():
1031
875
                        continue
1032
876
                    else:
1033
 
                        _update_files(delta, file_set, stop_on)
 
877
                        _update_fileids(delta, fileid_set, stop_on)
1034
878
                        if delta_type is None:
1035
879
                            delta = None
1036
880
                        elif delta_type == 'full':
1047
891
        yield new_revs
1048
892
 
1049
893
 
1050
 
def _update_files(delta, files, stop_on):
1051
 
    """Update the set of files to search based on file lifecycle events.
1052
 
 
1053
 
    :param files: a set of files to update
1054
 
    :param stop_on: either 'add' or 'remove' - take files out of the
1055
 
      files set once their add or remove entry is detected respectively
 
894
def _update_fileids(delta, fileids, stop_on):
 
895
    """Update the set of file-ids to search based on file lifecycle events.
 
896
    
 
897
    :param fileids: a set of fileids to update
 
898
    :param stop_on: either 'add' or 'remove' - take file-ids out of the
 
899
      fileids set once their add or remove entry is detected respectively
1056
900
    """
1057
901
    if stop_on == 'add':
1058
902
        for item in delta.added:
1059
 
            if item.path[1] in files:
1060
 
                files.remove(item.path[1])
1061
 
        for item in delta.copied + delta.renamed:
1062
 
            if item.path[1] in files:
1063
 
                files.remove(item.path[1])
1064
 
                files.add(item.path[0])
1065
 
            if item.kind[1] == 'directory':
1066
 
                for path in list(files):
1067
 
                    if is_inside(item.path[1], path):
1068
 
                        files.remove(path)
1069
 
                        files.add(item.path[0] + path[len(item.path[1]):])
 
903
            if item[1] in fileids:
 
904
                fileids.remove(item[1])
1070
905
    elif stop_on == 'delete':
1071
906
        for item in delta.removed:
1072
 
            if item.path[0] in files:
1073
 
                files.remove(item.path[0])
1074
 
        for item in delta.copied + delta.renamed:
1075
 
            if item.path[0] in files:
1076
 
                files.remove(item.path[0])
1077
 
                files.add(item.path[1])
1078
 
            if item.kind[0] == 'directory':
1079
 
                for path in list(files):
1080
 
                    if is_inside(item.path[0], path):
1081
 
                        files.remove(path)
1082
 
                        files.add(item.path[1] + path[len(item.path[0]):])
 
907
            if item[1] in fileids:
 
908
                fileids.remove(item[1])
1083
909
 
1084
910
 
1085
911
def _make_revision_objects(branch, generate_delta, search, log_rev_iterator):
1097
923
    for revs in log_rev_iterator:
1098
924
        # r = revision_id, n = revno, d = merge depth
1099
925
        revision_ids = [view[0] for view, _, _ in revs]
1100
 
        revisions = dict(repository.iter_revisions(revision_ids))
1101
 
        yield [(rev[0], revisions[rev[0][0]], rev[2]) for rev in revs]
 
926
        revisions = repository.get_revisions(revision_ids)
 
927
        revs = [(rev[0], revision, rev[2]) for rev, revision in
 
928
            izip(revs, revisions)]
 
929
        yield revs
1102
930
 
1103
931
 
1104
932
def _make_batch_filter(branch, generate_delta, search, log_rev_iterator):
1112
940
    :return: An iterator over lists of ((rev_id, revno, merge_depth), rev,
1113
941
        delta).
1114
942
    """
 
943
    repository = branch.repository
1115
944
    num = 9
1116
945
    for batch in log_rev_iterator:
1117
946
        batch = iter(batch)
1126
955
def _get_revision_limits(branch, start_revision, end_revision):
1127
956
    """Get and check revision limits.
1128
957
 
1129
 
    :param branch: The branch containing the revisions.
1130
 
 
1131
 
    :param start_revision: The first revision to be logged, as a RevisionInfo.
1132
 
 
1133
 
    :param end_revision: The last revision to be logged, as a RevisionInfo
 
958
    :param  branch: The branch containing the revisions.
 
959
 
 
960
    :param  start_revision: The first revision to be logged.
 
961
            For backwards compatibility this may be a mainline integer revno,
 
962
            but for merge revision support a RevisionInfo is expected.
 
963
 
 
964
    :param  end_revision: The last revision to be logged.
 
965
            For backwards compatibility this may be a mainline integer revno,
 
966
            but for merge revision support a RevisionInfo is expected.
1134
967
 
1135
968
    :return: (start_rev_id, end_rev_id) tuple.
1136
969
    """
 
970
    branch_revno, branch_rev_id = branch.last_revision_info()
1137
971
    start_rev_id = None
1138
 
    start_revno = None
1139
 
    if start_revision is not None:
1140
 
        if not isinstance(start_revision, revisionspec.RevisionInfo):
1141
 
            raise TypeError(start_revision)
1142
 
        start_rev_id = start_revision.rev_id
1143
 
        start_revno = start_revision.revno
1144
 
    if start_revno is None:
 
972
    if start_revision is None:
1145
973
        start_revno = 1
 
974
    else:
 
975
        if isinstance(start_revision, revisionspec.RevisionInfo):
 
976
            start_rev_id = start_revision.rev_id
 
977
            start_revno = start_revision.revno or 1
 
978
        else:
 
979
            branch.check_real_revno(start_revision)
 
980
            start_revno = start_revision
 
981
            start_rev_id = branch.get_rev_id(start_revno)
1146
982
 
1147
983
    end_rev_id = None
1148
 
    end_revno = None
1149
 
    if end_revision is not None:
1150
 
        if not isinstance(end_revision, revisionspec.RevisionInfo):
1151
 
            raise TypeError(start_revision)
1152
 
        end_rev_id = end_revision.rev_id
1153
 
        end_revno = end_revision.revno
 
984
    if end_revision is None:
 
985
        end_revno = branch_revno
 
986
    else:
 
987
        if isinstance(end_revision, revisionspec.RevisionInfo):
 
988
            end_rev_id = end_revision.rev_id
 
989
            end_revno = end_revision.revno or branch_revno
 
990
        else:
 
991
            branch.check_real_revno(end_revision)
 
992
            end_revno = end_revision
 
993
            end_rev_id = branch.get_rev_id(end_revno)
1154
994
 
1155
 
    if branch.last_revision() != _mod_revision.NULL_REVISION:
 
995
    if branch_revno != 0:
1156
996
        if (start_rev_id == _mod_revision.NULL_REVISION
1157
 
                or end_rev_id == _mod_revision.NULL_REVISION):
1158
 
            raise errors.CommandError(
1159
 
                gettext('Logging revision 0 is invalid.'))
1160
 
        if end_revno is not None and start_revno > end_revno:
1161
 
            raise errors.CommandError(
1162
 
                gettext("Start revision must be older than the end revision."))
 
997
            or end_rev_id == _mod_revision.NULL_REVISION):
 
998
            raise errors.BzrCommandError('Logging revision 0 is invalid.')
 
999
        if start_revno > end_revno:
 
1000
            raise errors.BzrCommandError("Start revision must be older than "
 
1001
                                         "the end revision.")
1163
1002
    return (start_rev_id, end_rev_id)
1164
1003
 
1165
1004
 
1213
1052
            end_revno = end_revision
1214
1053
 
1215
1054
    if ((start_rev_id == _mod_revision.NULL_REVISION)
1216
 
            or (end_rev_id == _mod_revision.NULL_REVISION)):
1217
 
        raise errors.CommandError(gettext('Logging revision 0 is invalid.'))
 
1055
        or (end_rev_id == _mod_revision.NULL_REVISION)):
 
1056
        raise errors.BzrCommandError('Logging revision 0 is invalid.')
1218
1057
    if start_revno > end_revno:
1219
 
        raise errors.CommandError(gettext("Start revision must be older "
1220
 
                                             "than the end revision."))
 
1058
        raise errors.BzrCommandError("Start revision must be older than "
 
1059
                                     "the end revision.")
1221
1060
 
1222
1061
    if end_revno < start_revno:
1223
1062
        return None, None, None, None
1224
1063
    cur_revno = branch_revno
1225
1064
    rev_nos = {}
1226
1065
    mainline_revs = []
1227
 
    graph = branch.repository.get_graph()
1228
 
    for revision_id in graph.iter_lefthand_ancestry(
1229
 
            branch_last_revision, (_mod_revision.NULL_REVISION,)):
 
1066
    for revision_id in branch.repository.iter_reverse_revision_history(
 
1067
                        branch_last_revision):
1230
1068
        if cur_revno < start_revno:
1231
1069
            # We have gone far enough, but we always add 1 more revision
1232
1070
            rev_nos[revision_id] = cur_revno
1246
1084
    return mainline_revs, rev_nos, start_rev_id, end_rev_id
1247
1085
 
1248
1086
 
1249
 
def _filter_revisions_touching_path(branch, path, view_revisions,
1250
 
                                    include_merges=True):
1251
 
    r"""Return the list of revision ids which touch a given path.
 
1087
@deprecated_function(deprecated_in((2, 2, 0)))
 
1088
def _filter_revision_range(view_revisions, start_rev_id, end_rev_id):
 
1089
    """Filter view_revisions based on revision ranges.
 
1090
 
 
1091
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
 
1092
            tuples to be filtered.
 
1093
 
 
1094
    :param start_rev_id: If not NONE specifies the first revision to be logged.
 
1095
            If NONE then all revisions up to the end_rev_id are logged.
 
1096
 
 
1097
    :param end_rev_id: If not NONE specifies the last revision to be logged.
 
1098
            If NONE then all revisions up to the end of the log are logged.
 
1099
 
 
1100
    :return: The filtered view_revisions.
 
1101
    """
 
1102
    if start_rev_id or end_rev_id:
 
1103
        revision_ids = [r for r, n, d in view_revisions]
 
1104
        if start_rev_id:
 
1105
            start_index = revision_ids.index(start_rev_id)
 
1106
        else:
 
1107
            start_index = 0
 
1108
        if start_rev_id == end_rev_id:
 
1109
            end_index = start_index
 
1110
        else:
 
1111
            if end_rev_id:
 
1112
                end_index = revision_ids.index(end_rev_id)
 
1113
            else:
 
1114
                end_index = len(view_revisions) - 1
 
1115
        # To include the revisions merged into the last revision,
 
1116
        # extend end_rev_id down to, but not including, the next rev
 
1117
        # with the same or lesser merge_depth
 
1118
        end_merge_depth = view_revisions[end_index][2]
 
1119
        try:
 
1120
            for index in xrange(end_index+1, len(view_revisions)+1):
 
1121
                if view_revisions[index][2] <= end_merge_depth:
 
1122
                    end_index = index - 1
 
1123
                    break
 
1124
        except IndexError:
 
1125
            # if the search falls off the end then log to the end as well
 
1126
            end_index = len(view_revisions) - 1
 
1127
        view_revisions = view_revisions[start_index:end_index+1]
 
1128
    return view_revisions
 
1129
 
 
1130
 
 
1131
def _filter_revisions_touching_file_id(branch, file_id, view_revisions,
 
1132
    include_merges=True):
 
1133
    r"""Return the list of revision ids which touch a given file id.
1252
1134
 
1253
1135
    The function filters view_revisions and returns a subset.
1254
 
    This includes the revisions which directly change the path,
 
1136
    This includes the revisions which directly change the file id,
1255
1137
    and the revisions which merge these changes. So if the
1256
1138
    revision graph is::
1257
 
 
1258
1139
        A-.
1259
1140
        |\ \
1260
1141
        B C E
1274
1155
 
1275
1156
    :param branch: The branch where we can get text revision information.
1276
1157
 
1277
 
    :param path: Filter out revisions that do not touch path.
 
1158
    :param file_id: Filter out revisions that do not touch file_id.
1278
1159
 
1279
1160
    :param view_revisions: A list of (revision_id, dotted_revno, merge_depth)
1280
1161
        tuples. This is the list of revisions which will be filtered. It is
1287
1168
    """
1288
1169
    # Lookup all possible text keys to determine which ones actually modified
1289
1170
    # the file.
1290
 
    graph = branch.repository.get_file_graph()
1291
 
    start_tree = branch.repository.revision_tree(view_revisions[0][0])
1292
 
    file_id = start_tree.path2id(path)
1293
 
    get_parent_map = graph.get_parent_map
1294
1171
    text_keys = [(file_id, rev_id) for rev_id, revno, depth in view_revisions]
1295
1172
    next_keys = None
1296
1173
    # Looking up keys in batches of 1000 can cut the time in half, as well as
1300
1177
    #       indexing layer. We might consider passing in hints as to the known
1301
1178
    #       access pattern (sparse/clustered, high success rate/low success
1302
1179
    #       rate). This particular access is clustered with a low success rate.
 
1180
    get_parent_map = branch.repository.texts.get_parent_map
1303
1181
    modified_text_revisions = set()
1304
1182
    chunk_size = 1000
1305
 
    for start in range(0, len(text_keys), chunk_size):
 
1183
    for start in xrange(0, len(text_keys), chunk_size):
1306
1184
        next_keys = text_keys[start:start + chunk_size]
1307
1185
        # Only keep the revision_id portion of the key
1308
1186
        modified_text_revisions.update(
1323
1201
 
1324
1202
        if rev_id in modified_text_revisions:
1325
1203
            # This needs to be logged, along with the extra revisions
1326
 
            for idx in range(len(current_merge_stack)):
 
1204
            for idx in xrange(len(current_merge_stack)):
1327
1205
                node = current_merge_stack[idx]
1328
1206
                if node is not None:
1329
1207
                    if include_merges or node[2] == 0:
1332
1210
    return result
1333
1211
 
1334
1212
 
 
1213
@deprecated_function(deprecated_in((2, 2, 0)))
 
1214
def get_view_revisions(mainline_revs, rev_nos, branch, direction,
 
1215
                       include_merges=True):
 
1216
    """Produce an iterator of revisions to show
 
1217
    :return: an iterator of (revision_id, revno, merge_depth)
 
1218
    (if there is no revno for a revision, None is supplied)
 
1219
    """
 
1220
    if not include_merges:
 
1221
        revision_ids = mainline_revs[1:]
 
1222
        if direction == 'reverse':
 
1223
            revision_ids.reverse()
 
1224
        for revision_id in revision_ids:
 
1225
            yield revision_id, str(rev_nos[revision_id]), 0
 
1226
        return
 
1227
    graph = branch.repository.get_graph()
 
1228
    # This asks for all mainline revisions, which means we only have to spider
 
1229
    # sideways, rather than depth history. That said, its still size-of-history
 
1230
    # and should be addressed.
 
1231
    # mainline_revisions always includes an extra revision at the beginning, so
 
1232
    # don't request it.
 
1233
    parent_map = dict(((key, value) for key, value in
 
1234
        graph.iter_ancestry(mainline_revs[1:]) if value is not None))
 
1235
    # filter out ghosts; merge_sort errors on ghosts.
 
1236
    rev_graph = _mod_repository._strip_NULL_ghosts(parent_map)
 
1237
    merge_sorted_revisions = tsort.merge_sort(
 
1238
        rev_graph,
 
1239
        mainline_revs[-1],
 
1240
        mainline_revs,
 
1241
        generate_revno=True)
 
1242
 
 
1243
    if direction == 'forward':
 
1244
        # forward means oldest first.
 
1245
        merge_sorted_revisions = reverse_by_depth(merge_sorted_revisions)
 
1246
    elif direction != 'reverse':
 
1247
        raise ValueError('invalid direction %r' % direction)
 
1248
 
 
1249
    for (sequence, rev_id, merge_depth, revno, end_of_merge
 
1250
         ) in merge_sorted_revisions:
 
1251
        yield rev_id, '.'.join(map(str, revno)), merge_depth
 
1252
 
 
1253
 
1335
1254
def reverse_by_depth(merge_sorted_revisions, _depth=0):
1336
1255
    """Reverse revisions by depth.
1337
1256
 
1338
1257
    Revisions with a different depth are sorted as a group with the previous
1339
 
    revision of that depth.  There may be no topological justification for this
 
1258
    revision of that depth.  There may be no topological justification for this,
1340
1259
    but it looks much nicer.
1341
1260
    """
1342
1261
    # Add a fake revision at start so that we can always attach sub revisions
1372
1291
    """
1373
1292
 
1374
1293
    def __init__(self, rev=None, revno=None, merge_depth=0, delta=None,
1375
 
                 tags=None, diff=None, signature=None):
 
1294
                 tags=None, diff=None):
1376
1295
        self.rev = rev
1377
 
        if revno is None:
1378
 
            self.revno = None
1379
 
        else:
1380
 
            self.revno = str(revno)
 
1296
        self.revno = str(revno)
1381
1297
        self.merge_depth = merge_depth
1382
1298
        self.delta = delta
1383
1299
        self.tags = tags
1384
1300
        self.diff = diff
1385
 
        self.signature = signature
1386
1301
 
1387
1302
 
1388
1303
class LogFormatter(object):
1397
1312
    to indicate which LogRevision attributes it supports:
1398
1313
 
1399
1314
    - supports_delta must be True if this log formatter supports delta.
1400
 
      Otherwise the delta attribute may not be populated.  The 'delta_format'
1401
 
      attribute describes whether the 'short_status' format (1) or the long
1402
 
      one (2) should be used.
 
1315
        Otherwise the delta attribute may not be populated.  The 'delta_format'
 
1316
        attribute describes whether the 'short_status' format (1) or the long
 
1317
        one (2) should be used.
1403
1318
 
1404
1319
    - supports_merge_revisions must be True if this log formatter supports
1405
 
      merge revisions.  If not, then only mainline revisions will be passed
1406
 
      to the formatter.
 
1320
        merge revisions.  If not, then only mainline revisions will be passed
 
1321
        to the formatter.
1407
1322
 
1408
1323
    - preferred_levels is the number of levels this formatter defaults to.
1409
 
      The default value is zero meaning display all levels.
1410
 
      This value is only relevant if supports_merge_revisions is True.
 
1324
        The default value is zero meaning display all levels.
 
1325
        This value is only relevant if supports_merge_revisions is True.
1411
1326
 
1412
1327
    - supports_tags must be True if this log formatter supports tags.
1413
 
      Otherwise the tags attribute may not be populated.
 
1328
        Otherwise the tags attribute may not be populated.
1414
1329
 
1415
1330
    - supports_diff must be True if this log formatter supports diffs.
1416
 
      Otherwise the diff attribute may not be populated.
1417
 
 
1418
 
    - supports_signatures must be True if this log formatter supports GPG
1419
 
      signatures.
 
1331
        Otherwise the diff attribute may not be populated.
1420
1332
 
1421
1333
    Plugins can register functions to show custom revision properties using
1422
1334
    the properties_handler_registry. The registered function
1423
 
    must respect the following interface description::
1424
 
 
 
1335
    must respect the following interface description:
1425
1336
        def my_show_properties(properties_dict):
1426
1337
            # code that returns a dict {'name':'value'} of the properties
1427
1338
            # to be shown
1430
1341
 
1431
1342
    def __init__(self, to_file, show_ids=False, show_timezone='original',
1432
1343
                 delta_format=None, levels=None, show_advice=False,
1433
 
                 to_exact_file=None, author_list_handler=None):
 
1344
                 to_exact_file=None):
1434
1345
        """Create a LogFormatter.
1435
1346
 
1436
1347
        :param to_file: the file to output to
1437
 
        :param to_exact_file: if set, gives an output stream to which
 
1348
        :param to_exact_file: if set, gives an output stream to which 
1438
1349
             non-Unicode diffs are written.
1439
1350
        :param show_ids: if True, revision-ids are to be displayed
1440
1351
        :param show_timezone: the timezone to use
1444
1355
          let the log formatter decide.
1445
1356
        :param show_advice: whether to show advice at the end of the
1446
1357
          log or not
1447
 
        :param author_list_handler: callable generating a list of
1448
 
          authors to display for a given revision
1449
1358
        """
1450
1359
        self.to_file = to_file
1451
1360
        # 'exact' stream used to show diff, it should print content 'as is'
1452
 
        # and should not try to decode/encode it to unicode to avoid bug
1453
 
        # #328007
 
1361
        # and should not try to decode/encode it to unicode to avoid bug #328007
1454
1362
        if to_exact_file is not None:
1455
1363
            self.to_exact_file = to_exact_file
1456
1364
        else:
1457
 
            # XXX: somewhat hacky; this assumes it's a codec writer; it's
1458
 
            # better for code that expects to get diffs to pass in the exact
1459
 
            # file stream
 
1365
            # XXX: somewhat hacky; this assumes it's a codec writer; it's better
 
1366
            # for code that expects to get diffs to pass in the exact file
 
1367
            # stream
1460
1368
            self.to_exact_file = getattr(to_file, 'stream', to_file)
1461
1369
        self.show_ids = show_ids
1462
1370
        self.show_timezone = show_timezone
1463
1371
        if delta_format is None:
1464
1372
            # Ensures backward compatibility
1465
 
            delta_format = 2  # long format
 
1373
            delta_format = 2 # long format
1466
1374
        self.delta_format = delta_format
1467
1375
        self.levels = levels
1468
1376
        self._show_advice = show_advice
1469
1377
        self._merge_count = 0
1470
 
        self._author_list_handler = author_list_handler
1471
1378
 
1472
1379
    def get_levels(self):
1473
1380
        """Get the number of levels to display or 0 for all."""
1492
1399
            if advice_sep:
1493
1400
                self.to_file.write(advice_sep)
1494
1401
            self.to_file.write(
1495
 
                "Use --include-merged or -n0 to see merged revisions.\n")
 
1402
                "Use --include-merges or -n0 to see merged revisions.\n")
1496
1403
 
1497
1404
    def get_advice_separator(self):
1498
1405
        """Get the text separating the log from the closing advice."""
1505
1412
        return address
1506
1413
 
1507
1414
    def short_author(self, rev):
1508
 
        return self.authors(rev, 'first', short=True, sep=', ')
1509
 
 
1510
 
    def authors(self, rev, who, short=False, sep=None):
1511
 
        """Generate list of authors, taking --authors option into account.
1512
 
 
1513
 
        The caller has to specify the name of a author list handler,
1514
 
        as provided by the author list registry, using the ``who``
1515
 
        argument.  That name only sets a default, though: when the
1516
 
        user selected a different author list generation using the
1517
 
        ``--authors`` command line switch, as represented by the
1518
 
        ``author_list_handler`` constructor argument, that value takes
1519
 
        precedence.
1520
 
 
1521
 
        :param rev: The revision for which to generate the list of authors.
1522
 
        :param who: Name of the default handler.
1523
 
        :param short: Whether to shorten names to either name or address.
1524
 
        :param sep: What separator to use for automatic concatenation.
1525
 
        """
1526
 
        if self._author_list_handler is not None:
1527
 
            # The user did specify --authors, which overrides the default
1528
 
            author_list_handler = self._author_list_handler
1529
 
        else:
1530
 
            # The user didn't specify --authors, so we use the caller's default
1531
 
            author_list_handler = author_list_registry.get(who)
1532
 
        names = author_list_handler(rev)
1533
 
        if short:
1534
 
            for i in range(len(names)):
1535
 
                name, address = config.parse_username(names[i])
1536
 
                if name:
1537
 
                    names[i] = name
1538
 
                else:
1539
 
                    names[i] = address
1540
 
        if sep is not None:
1541
 
            names = sep.join(names)
1542
 
        return names
 
1415
        name, address = config.parse_username(rev.get_apparent_authors()[0])
 
1416
        if name:
 
1417
            return name
 
1418
        return address
1543
1419
 
1544
1420
    def merge_marker(self, revision):
1545
1421
        """Get the merge marker to include in the output or '' if none."""
1566
1442
        """
1567
1443
        lines = self._foreign_info_properties(revision)
1568
1444
        for key, handler in properties_handler_registry.iteritems():
1569
 
            try:
1570
 
                lines.extend(self._format_properties(handler(revision)))
1571
 
            except Exception:
1572
 
                trace.log_exception_quietly()
1573
 
                trace.print_exception(sys.exc_info(), self.to_file)
 
1445
            lines.extend(self._format_properties(handler(revision)))
1574
1446
        return lines
1575
1447
 
1576
1448
    def _foreign_info_properties(self, rev):
1584
1456
                rev.mapping.vcs.show_foreign_revid(rev.foreign_revid))
1585
1457
 
1586
1458
        # Imported foreign revision revision ids always contain :
1587
 
        if b":" not in rev.revision_id:
 
1459
        if not ":" in rev.revision_id:
1588
1460
            return []
1589
1461
 
1590
1462
        # Revision was once imported from a foreign repository
1604
1476
        return lines
1605
1477
 
1606
1478
    def show_diff(self, to_file, diff, indent):
1607
 
        encoding = get_terminal_encoding()
1608
 
        for l in diff.rstrip().split(b'\n'):
1609
 
            to_file.write(indent + l.decode(encoding, 'ignore') + '\n')
 
1479
        for l in diff.rstrip().split('\n'):
 
1480
            to_file.write(indent + '%s\n' % (l,))
1610
1481
 
1611
1482
 
1612
1483
# Separator between revisions in long format
1620
1491
    supports_delta = True
1621
1492
    supports_tags = True
1622
1493
    supports_diff = True
1623
 
    supports_signatures = True
1624
1494
 
1625
1495
    def __init__(self, *args, **kwargs):
1626
1496
        super(LongLogFormatter, self).__init__(*args, **kwargs)
1635
1505
 
1636
1506
    def _date_string_original_timezone(self, rev):
1637
1507
        return format_date_with_offset_in_original_timezone(rev.timestamp,
1638
 
                                                            rev.timezone or 0)
 
1508
            rev.timezone or 0)
1639
1509
 
1640
1510
    def log_revision(self, revision):
1641
1511
        """Log a revision, either merged or not."""
1643
1513
        lines = [_LONG_SEP]
1644
1514
        if revision.revno is not None:
1645
1515
            lines.append('revno: %s%s' % (revision.revno,
1646
 
                                          self.merge_marker(revision)))
 
1516
                self.merge_marker(revision)))
1647
1517
        if revision.tags:
1648
 
            lines.append('tags: %s' % (', '.join(sorted(revision.tags))))
1649
 
        if self.show_ids or revision.revno is None:
1650
 
            lines.append('revision-id: %s' %
1651
 
                         (revision.rev.revision_id.decode('utf-8'),))
 
1518
            lines.append('tags: %s' % (', '.join(revision.tags)))
1652
1519
        if self.show_ids:
 
1520
            lines.append('revision-id: %s' % (revision.rev.revision_id,))
1653
1521
            for parent_id in revision.rev.parent_ids:
1654
 
                lines.append('parent: %s' % (parent_id.decode('utf-8'),))
 
1522
                lines.append('parent: %s' % (parent_id,))
1655
1523
        lines.extend(self.custom_properties(revision.rev))
1656
1524
 
1657
1525
        committer = revision.rev.committer
1658
 
        authors = self.authors(revision.rev, 'all')
 
1526
        authors = revision.rev.get_apparent_authors()
1659
1527
        if authors != [committer]:
1660
1528
            lines.append('author: %s' % (", ".join(authors),))
1661
1529
        lines.append('committer: %s' % (committer,))
1666
1534
 
1667
1535
        lines.append('timestamp: %s' % (self.date_string(revision.rev),))
1668
1536
 
1669
 
        if revision.signature is not None:
1670
 
            lines.append('signature: ' + revision.signature)
1671
 
 
1672
1537
        lines.append('message:')
1673
1538
        if not revision.rev.message:
1674
1539
            lines.append('  (no message)')
1682
1547
        to_file.write("%s%s\n" % (indent, ('\n' + indent).join(lines)))
1683
1548
        if revision.delta is not None:
1684
1549
            # Use the standard status output to display changes
1685
 
            from breezy.delta import report_delta
1686
 
            report_delta(to_file, revision.delta, short_status=False,
 
1550
            from bzrlib.delta import report_delta
 
1551
            report_delta(to_file, revision.delta, short_status=False, 
1687
1552
                         show_ids=self.show_ids, indent=indent)
1688
1553
        if revision.diff is not None:
1689
1554
            to_file.write(indent + 'diff:\n')
1721
1586
        indent = '    ' * depth
1722
1587
        revno_width = self.revno_width_by_depth.get(depth)
1723
1588
        if revno_width is None:
1724
 
            if revision.revno is None or revision.revno.find('.') == -1:
 
1589
            if revision.revno.find('.') == -1:
1725
1590
                # mainline revno, e.g. 12345
1726
1591
                revno_width = 5
1727
1592
            else:
1733
1598
        to_file = self.to_file
1734
1599
        tags = ''
1735
1600
        if revision.tags:
1736
 
            tags = ' {%s}' % (', '.join(sorted(revision.tags)))
 
1601
            tags = ' {%s}' % (', '.join(revision.tags))
1737
1602
        to_file.write(indent + "%*s %s\t%s%s%s\n" % (revno_width,
1738
 
                                                     revision.revno or "", self.short_author(
1739
 
                                                         revision.rev),
1740
 
                                                     format_date(revision.rev.timestamp,
1741
 
                                                                 revision.rev.timezone or 0,
1742
 
                                                                 self.show_timezone, date_fmt="%Y-%m-%d",
1743
 
                                                                 show_offset=False),
1744
 
                                                     tags, self.merge_marker(revision)))
1745
 
        self.show_properties(revision.rev, indent + offset)
1746
 
        if self.show_ids or revision.revno is None:
 
1603
                revision.revno, self.short_author(revision.rev),
 
1604
                format_date(revision.rev.timestamp,
 
1605
                            revision.rev.timezone or 0,
 
1606
                            self.show_timezone, date_fmt="%Y-%m-%d",
 
1607
                            show_offset=False),
 
1608
                tags, self.merge_marker(revision)))
 
1609
        self.show_properties(revision.rev, indent+offset)
 
1610
        if self.show_ids:
1747
1611
            to_file.write(indent + offset + 'revision-id:%s\n'
1748
 
                          % (revision.rev.revision_id.decode('utf-8'),))
 
1612
                          % (revision.rev.revision_id,))
1749
1613
        if not revision.rev.message:
1750
1614
            to_file.write(indent + offset + '(no message)\n')
1751
1615
        else:
1755
1619
 
1756
1620
        if revision.delta is not None:
1757
1621
            # Use the standard status output to display changes
1758
 
            from breezy.delta import report_delta
1759
 
            report_delta(to_file, revision.delta,
1760
 
                         short_status=self.delta_format == 1,
 
1622
            from bzrlib.delta import report_delta
 
1623
            report_delta(to_file, revision.delta, 
 
1624
                         short_status=self.delta_format==1, 
1761
1625
                         show_ids=self.show_ids, indent=indent + offset)
1762
1626
        if revision.diff is not None:
1763
1627
            self.show_diff(self.to_exact_file, revision.diff, '      ')
1781
1645
    def truncate(self, str, max_len):
1782
1646
        if max_len is None or len(str) <= max_len:
1783
1647
            return str
1784
 
        return str[:max_len - 3] + '...'
 
1648
        return str[:max_len-3] + '...'
1785
1649
 
1786
1650
    def date_string(self, rev):
1787
1651
        return format_date(rev.timestamp, rev.timezone or 0,
1797
1661
    def log_revision(self, revision):
1798
1662
        indent = '  ' * revision.merge_depth
1799
1663
        self.to_file.write(self.log_string(revision.revno, revision.rev,
1800
 
                                           self._max_chars, revision.tags, indent))
 
1664
            self._max_chars, revision.tags, indent))
1801
1665
        self.to_file.write('\n')
1802
1666
 
1803
1667
    def log_string(self, revno, rev, max_chars, tags=None, prefix=''):
1804
1668
        """Format log info into one string. Truncate tail of string
1805
 
 
1806
 
        :param revno:      revision number or None.
1807
 
                           Revision numbers counts from 1.
1808
 
        :param rev:        revision object
1809
 
        :param max_chars:  maximum length of resulting string
1810
 
        :param tags:       list of tags or None
1811
 
        :param prefix:     string to prefix each line
1812
 
        :return:           formatted truncated string
 
1669
        :param  revno:      revision number or None.
 
1670
                            Revision numbers counts from 1.
 
1671
        :param  rev:        revision object
 
1672
        :param  max_chars:  maximum length of resulting string
 
1673
        :param  tags:       list of tags or None
 
1674
        :param  prefix:     string to prefix each line
 
1675
        :return:            formatted truncated string
1813
1676
        """
1814
1677
        out = []
1815
1678
        if revno:
1816
1679
            # show revno only when is not None
1817
1680
            out.append("%s:" % revno)
1818
 
        if max_chars is not None:
1819
 
            out.append(self.truncate(
1820
 
                self.short_author(rev), (max_chars + 3) // 4))
1821
 
        else:
1822
 
            out.append(self.short_author(rev))
 
1681
        out.append(self.truncate(self.short_author(rev), 20))
1823
1682
        out.append(self.date_string(rev))
1824
1683
        if len(rev.parent_ids) > 1:
1825
1684
            out.append('[merge]')
1826
1685
        if tags:
1827
 
            tag_str = '{%s}' % (', '.join(sorted(tags)))
 
1686
            tag_str = '{%s}' % (', '.join(tags))
1828
1687
            out.append(tag_str)
1829
1688
        out.append(rev.get_summary())
1830
1689
        return self.truncate(prefix + " ".join(out).rstrip('\n'), max_chars)
1844
1703
                               self.show_timezone,
1845
1704
                               date_fmt='%Y-%m-%d',
1846
1705
                               show_offset=False)
1847
 
        committer_str = self.authors(revision.rev, 'first', sep=', ')
1848
 
        committer_str = committer_str.replace(' <', '  <')
1849
 
        to_file.write('%s  %s\n\n' % (date_str, committer_str))
 
1706
        committer_str = revision.rev.get_apparent_authors()[0].replace (' <', '  <')
 
1707
        to_file.write('%s  %s\n\n' % (date_str,committer_str))
1850
1708
 
1851
1709
        if revision.delta is not None and revision.delta.has_changed():
1852
1710
            for c in revision.delta.added + revision.delta.removed + revision.delta.modified:
1853
 
                if c.path[0] is None:
1854
 
                    path = c.path[1]
1855
 
                else:
1856
 
                    path = c.path[0]
 
1711
                path, = c[:1]
1857
1712
                to_file.write('\t* %s:\n' % (path,))
1858
 
            for c in revision.delta.renamed + revision.delta.copied:
 
1713
            for c in revision.delta.renamed:
 
1714
                oldpath,newpath = c[:2]
1859
1715
                # For renamed files, show both the old and the new path
1860
 
                to_file.write('\t* %s:\n\t* %s:\n' % (c.path[0], c.path[1]))
 
1716
                to_file.write('\t* %s:\n\t* %s:\n' % (oldpath,newpath))
1861
1717
            to_file.write('\n')
1862
1718
 
1863
1719
        if not revision.rev.message:
1886
1742
        return self.get(name)(*args, **kwargs)
1887
1743
 
1888
1744
    def get_default(self, branch):
1889
 
        c = branch.get_config_stack()
1890
 
        return self.get(c.get('log_format'))
 
1745
        return self.get(branch.get_config().log_format())
1891
1746
 
1892
1747
 
1893
1748
log_formatter_registry = LogFormatterRegistry()
1894
1749
 
1895
1750
 
1896
1751
log_formatter_registry.register('short', ShortLogFormatter,
1897
 
                                'Moderately short log format.')
 
1752
                                'Moderately short log format')
1898
1753
log_formatter_registry.register('long', LongLogFormatter,
1899
 
                                'Detailed log format.')
 
1754
                                'Detailed log format')
1900
1755
log_formatter_registry.register('line', LineLogFormatter,
1901
 
                                'Log format with one line per revision.')
 
1756
                                'Log format with one line per revision')
1902
1757
log_formatter_registry.register('gnu-changelog', GnuChangelogLogFormatter,
1903
 
                                'Format used by GNU ChangeLog files.')
 
1758
                                'Format used by GNU ChangeLog files')
1904
1759
 
1905
1760
 
1906
1761
def register_formatter(name, formatter):
1916
1771
    try:
1917
1772
        return log_formatter_registry.make_formatter(name, *args, **kwargs)
1918
1773
    except KeyError:
1919
 
        raise errors.CommandError(
1920
 
            gettext("unknown log formatter: %r") % name)
1921
 
 
1922
 
 
1923
 
def author_list_all(rev):
1924
 
    return rev.get_apparent_authors()[:]
1925
 
 
1926
 
 
1927
 
def author_list_first(rev):
1928
 
    lst = rev.get_apparent_authors()
1929
 
    try:
1930
 
        return [lst[0]]
1931
 
    except IndexError:
1932
 
        return []
1933
 
 
1934
 
 
1935
 
def author_list_committer(rev):
1936
 
    return [rev.committer]
1937
 
 
1938
 
 
1939
 
author_list_registry = registry.Registry()
1940
 
 
1941
 
author_list_registry.register('all', author_list_all,
1942
 
                              'All authors')
1943
 
 
1944
 
author_list_registry.register('first', author_list_first,
1945
 
                              'The first author')
1946
 
 
1947
 
author_list_registry.register('committer', author_list_committer,
1948
 
                              'The committer')
 
1774
        raise errors.BzrCommandError("unknown log formatter: %r" % name)
 
1775
 
 
1776
 
 
1777
def show_one_log(revno, rev, delta, verbose, to_file, show_timezone):
 
1778
    # deprecated; for compatibility
 
1779
    lf = LongLogFormatter(to_file=to_file, show_timezone=show_timezone)
 
1780
    lf.show(revno, rev, delta)
1949
1781
 
1950
1782
 
1951
1783
def show_changed_revisions(branch, old_rh, new_rh, to_file=None,
1959
1791
    """
1960
1792
    if to_file is None:
1961
1793
        to_file = codecs.getwriter(get_terminal_encoding())(sys.stdout,
1962
 
                                                            errors='replace')
 
1794
            errors='replace')
1963
1795
    lf = log_formatter(log_format,
1964
1796
                       show_ids=False,
1965
1797
                       to_file=to_file,
1968
1800
    # This is the first index which is different between
1969
1801
    # old and new
1970
1802
    base_idx = None
1971
 
    for i in range(max(len(new_rh), len(old_rh))):
 
1803
    for i in xrange(max(len(new_rh),
 
1804
                        len(old_rh))):
1972
1805
        if (len(new_rh) <= i
1973
1806
            or len(old_rh) <= i
1974
 
                or new_rh[i] != old_rh[i]):
 
1807
            or new_rh[i] != old_rh[i]):
1975
1808
            base_idx = i
1976
1809
            break
1977
1810
 
1978
1811
    if base_idx is None:
1979
1812
        to_file.write('Nothing seems to have changed\n')
1980
1813
        return
1981
 
    # TODO: It might be nice to do something like show_log
1982
 
    # and show the merged entries. But since this is the
1983
 
    # removed revisions, it shouldn't be as important
 
1814
    ## TODO: It might be nice to do something like show_log
 
1815
    ##       and show the merged entries. But since this is the
 
1816
    ##       removed revisions, it shouldn't be as important
1984
1817
    if base_idx < len(old_rh):
1985
 
        to_file.write('*' * 60)
 
1818
        to_file.write('*'*60)
1986
1819
        to_file.write('\nRemoved Revisions:\n')
1987
1820
        for i in range(base_idx, len(old_rh)):
1988
1821
            rev = branch.repository.get_revision(old_rh[i])
1989
 
            lr = LogRevision(rev, i + 1, 0, None)
 
1822
            lr = LogRevision(rev, i+1, 0, None)
1990
1823
            lf.log_revision(lr)
1991
 
        to_file.write('*' * 60)
 
1824
        to_file.write('*'*60)
1992
1825
        to_file.write('\n\n')
1993
1826
    if base_idx < len(new_rh):
1994
1827
        to_file.write('Added Revisions:\n')
1995
1828
        show_log(branch,
1996
1829
                 lf,
 
1830
                 None,
1997
1831
                 verbose=False,
1998
1832
                 direction='forward',
1999
 
                 start_revision=base_idx + 1,
2000
 
                 end_revision=len(new_rh))
 
1833
                 start_revision=base_idx+1,
 
1834
                 end_revision=len(new_rh),
 
1835
                 search=None)
2001
1836
 
2002
1837
 
2003
1838
def get_history_change(old_revision_id, new_revision_id, repository):
2013
1848
    old_revisions = set()
2014
1849
    new_history = []
2015
1850
    new_revisions = set()
2016
 
    graph = repository.get_graph()
2017
 
    new_iter = graph.iter_lefthand_ancestry(new_revision_id)
2018
 
    old_iter = graph.iter_lefthand_ancestry(old_revision_id)
 
1851
    new_iter = repository.iter_reverse_revision_history(new_revision_id)
 
1852
    old_iter = repository.iter_reverse_revision_history(old_revision_id)
2019
1853
    stop_revision = None
2020
1854
    do_old = True
2021
1855
    do_new = True
2022
1856
    while do_new or do_old:
2023
1857
        if do_new:
2024
1858
            try:
2025
 
                new_revision = next(new_iter)
 
1859
                new_revision = new_iter.next()
2026
1860
            except StopIteration:
2027
1861
                do_new = False
2028
1862
            else:
2033
1867
                    break
2034
1868
        if do_old:
2035
1869
            try:
2036
 
                old_revision = next(old_iter)
 
1870
                old_revision = old_iter.next()
2037
1871
            except StopIteration:
2038
1872
                do_old = False
2039
1873
            else:
2069
1903
    log_format = log_formatter_registry.get_default(branch)
2070
1904
    lf = log_format(show_ids=False, to_file=output, show_timezone='original')
2071
1905
    if old_history != []:
2072
 
        output.write('*' * 60)
 
1906
        output.write('*'*60)
2073
1907
        output.write('\nRemoved Revisions:\n')
2074
1908
        show_flat_log(branch.repository, old_history, old_revno, lf)
2075
 
        output.write('*' * 60)
 
1909
        output.write('*'*60)
2076
1910
        output.write('\n\n')
2077
1911
    if new_history != []:
2078
1912
        output.write('Added Revisions:\n')
2079
1913
        start_revno = new_revno - len(new_history) + 1
2080
 
        show_log(branch, lf, verbose=False, direction='forward',
2081
 
                 start_revision=start_revno)
 
1914
        show_log(branch, lf, None, verbose=False, direction='forward',
 
1915
                 start_revision=start_revno,)
2082
1916
 
2083
1917
 
2084
1918
def show_flat_log(repository, history, last_revno, lf):
2089
1923
    :param last_revno: The revno of the last revision_id in the history.
2090
1924
    :param lf: The log formatter to use.
2091
1925
    """
 
1926
    start_revno = last_revno - len(history) + 1
2092
1927
    revisions = repository.get_revisions(history)
2093
1928
    for i, rev in enumerate(revisions):
2094
1929
        lr = LogRevision(rev, i + last_revno, 0, None)
2095
1930
        lf.log_revision(lr)
2096
1931
 
2097
1932
 
2098
 
def _get_info_for_log_files(revisionspec_list, file_list, exit_stack):
2099
 
    """Find files and kinds given a list of files and a revision range.
 
1933
def _get_info_for_log_files(revisionspec_list, file_list, add_cleanup):
 
1934
    """Find file-ids and kinds given a list of files and a revision range.
2100
1935
 
2101
1936
    We search for files at the end of the range. If not found there,
2102
1937
    we try the start of the range.
2105
1940
    :param file_list: the list of paths given on the command line;
2106
1941
      the first of these can be a branch location or a file path,
2107
1942
      the remainder must be file paths
2108
 
    :param exit_stack: When the branch returned is read locked,
2109
 
      an unlock call will be queued to the exit stack.
 
1943
    :param add_cleanup: When the branch returned is read locked,
 
1944
      an unlock call will be queued to the cleanup.
2110
1945
    :return: (branch, info_list, start_rev_info, end_rev_info) where
2111
 
      info_list is a list of (relative_path, found, kind) tuples where
 
1946
      info_list is a list of (relative_path, file_id, kind) tuples where
2112
1947
      kind is one of values 'directory', 'file', 'symlink', 'tree-reference'.
2113
1948
      branch will be read-locked.
2114
1949
    """
2115
 
    from breezy.builtins import _get_revision_range
2116
 
    tree, b, path = controldir.ControlDir.open_containing_tree_or_branch(
2117
 
        file_list[0])
2118
 
    exit_stack.enter_context(b.lock_read())
 
1950
    from builtins import _get_revision_range, safe_relpath_files
 
1951
    tree, b, path = bzrdir.BzrDir.open_containing_tree_or_branch(file_list[0])
 
1952
    add_cleanup(b.lock_read().unlock)
2119
1953
    # XXX: It's damn messy converting a list of paths to relative paths when
2120
1954
    # those paths might be deleted ones, they might be on a case-insensitive
2121
1955
    # filesystem and/or they might be in silly locations (like another branch).
2125
1959
    # case of running log in a nested directory, assuming paths beyond the
2126
1960
    # first one haven't been deleted ...
2127
1961
    if tree:
2128
 
        relpaths = [path] + tree.safe_relpath_files(file_list[1:])
 
1962
        relpaths = [path] + safe_relpath_files(tree, file_list[1:])
2129
1963
    else:
2130
1964
        relpaths = [path] + file_list[1:]
2131
1965
    info_list = []
2132
1966
    start_rev_info, end_rev_info = _get_revision_range(revisionspec_list, b,
2133
 
                                                       "log")
 
1967
        "log")
2134
1968
    if relpaths in ([], [u'']):
2135
1969
        return b, [], start_rev_info, end_rev_info
2136
1970
    if start_rev_info is None and end_rev_info is None:
2138
1972
            tree = b.basis_tree()
2139
1973
        tree1 = None
2140
1974
        for fp in relpaths:
2141
 
            kind = _get_kind_for_file(tree, fp)
2142
 
            if not kind:
 
1975
            file_id = tree.path2id(fp)
 
1976
            kind = _get_kind_for_file_id(tree, file_id)
 
1977
            if file_id is None:
2143
1978
                # go back to when time began
2144
1979
                if tree1 is None:
2145
1980
                    try:
2146
1981
                        rev1 = b.get_rev_id(1)
2147
1982
                    except errors.NoSuchRevision:
2148
1983
                        # No history at all
 
1984
                        file_id = None
2149
1985
                        kind = None
2150
1986
                    else:
2151
1987
                        tree1 = b.repository.revision_tree(rev1)
2152
1988
                if tree1:
2153
 
                    kind = _get_kind_for_file(tree1, fp)
2154
 
            info_list.append((fp, kind))
 
1989
                    file_id = tree1.path2id(fp)
 
1990
                    kind = _get_kind_for_file_id(tree1, file_id)
 
1991
            info_list.append((fp, file_id, kind))
2155
1992
 
2156
1993
    elif start_rev_info == end_rev_info:
2157
1994
        # One revision given - file must exist in it
2158
1995
        tree = b.repository.revision_tree(end_rev_info.rev_id)
2159
1996
        for fp in relpaths:
2160
 
            kind = _get_kind_for_file(tree, fp)
2161
 
            info_list.append((fp, kind))
 
1997
            file_id = tree.path2id(fp)
 
1998
            kind = _get_kind_for_file_id(tree, file_id)
 
1999
            info_list.append((fp, file_id, kind))
2162
2000
 
2163
2001
    else:
2164
2002
        # Revision range given. Get the file-id from the end tree.
2170
2008
            tree = b.repository.revision_tree(rev_id)
2171
2009
        tree1 = None
2172
2010
        for fp in relpaths:
2173
 
            kind = _get_kind_for_file(tree, fp)
2174
 
            if not kind:
 
2011
            file_id = tree.path2id(fp)
 
2012
            kind = _get_kind_for_file_id(tree, file_id)
 
2013
            if file_id is None:
2175
2014
                if tree1 is None:
2176
2015
                    rev_id = start_rev_info.rev_id
2177
2016
                    if rev_id is None:
2179
2018
                        tree1 = b.repository.revision_tree(rev1)
2180
2019
                    else:
2181
2020
                        tree1 = b.repository.revision_tree(rev_id)
2182
 
                kind = _get_kind_for_file(tree1, fp)
2183
 
            info_list.append((fp, kind))
 
2021
                file_id = tree1.path2id(fp)
 
2022
                kind = _get_kind_for_file_id(tree1, file_id)
 
2023
            info_list.append((fp, file_id, kind))
2184
2024
    return b, info_list, start_rev_info, end_rev_info
2185
2025
 
2186
2026
 
2187
 
def _get_kind_for_file(tree, path):
2188
 
    """Return the kind of a path or None if it doesn't exist."""
2189
 
    with tree.lock_read():
2190
 
        try:
2191
 
            return tree.stored_kind(path)
2192
 
        except errors.NoSuchFile:
2193
 
            return None
 
2027
def _get_kind_for_file_id(tree, file_id):
 
2028
    """Return the kind of a file-id or None if it doesn't exist."""
 
2029
    if file_id is not None:
 
2030
        return tree.kind(file_id)
 
2031
    else:
 
2032
        return None
2194
2033
 
2195
2034
 
2196
2035
properties_handler_registry = registry.Registry()
2197
2036
 
2198
2037
# Use the properties handlers to print out bug information if available
2199
 
 
2200
 
 
2201
2038
def _bugs_properties_handler(revision):
2202
 
    fixed_bug_urls = []
2203
 
    related_bug_urls = []
2204
 
    for bug_url, status in revision.iter_bugs():
2205
 
        if status == 'fixed':
2206
 
            fixed_bug_urls.append(bug_url)
2207
 
        elif status == 'related':
2208
 
            related_bug_urls.append(bug_url)
2209
 
    ret = {}
2210
 
    if fixed_bug_urls:
2211
 
        text = ngettext('fixes bug', 'fixes bugs', len(fixed_bug_urls))
2212
 
        ret[text] = ' '.join(fixed_bug_urls)
2213
 
    if related_bug_urls:
2214
 
        text = ngettext('related bug', 'related bugs',
2215
 
                        len(related_bug_urls))
2216
 
        ret[text] = ' '.join(related_bug_urls)
2217
 
    return ret
 
2039
    if revision.properties.has_key('bugs'):
 
2040
        bug_lines = revision.properties['bugs'].split('\n')
 
2041
        bug_rows = [line.split(' ', 1) for line in bug_lines]
 
2042
        fixed_bug_urls = [row[0] for row in bug_rows if
 
2043
                          len(row) > 1 and row[1] == 'fixed']
2218
2044
 
 
2045
        if fixed_bug_urls:
 
2046
            return {'fixes bug(s)': ' '.join(fixed_bug_urls)}
 
2047
    return {}
2219
2048
 
2220
2049
properties_handler_registry.register('bugs_properties_handler',
2221
2050
                                     _bugs_properties_handler)